Akili bandia Sasa Inaweza Kuiga Tabia za Binadamu na Hivi karibuni Itakuwa Nzuri HatariJe! Uso huu ni mkutano tu wa bits za kompyuta? PHOTOCREO Michal Bednarek / Shutterstock.com

Wakati mifumo ya ujasusi bandia inapoanza kupata ubunifu, inaweza kuunda vitu vizuri - na vya kutisha. Chukua, kwa mfano, mpango wa AI ambao unaruhusu watumiaji wa wavuti hutunga muziki pamoja na halisi Johann Sebastian Bach kwa kuingiza maelezo kwenye programu ambayo hutengeneza mifanano kama ya Bach ili kuilinganisha.

Endeshwa na Google, programu akauchomoa kubwa sifa kwa kuvunja ardhi na kufurahisha kucheza na. Pia ilivutia kukosolewa, na kuibua wasiwasi juu ya hatari za AI.

Utafiti wangu wa jinsi teknolojia zinazojitokeza zinaathiri maisha ya watu amenifundisha kuwa shida huenda zaidi ya wasiwasi mkubwa juu ya ikiwa ni algorithms anaweza kweli tengeneza muziki au sanaa kwa ujumla. Malalamiko mengine yalionekana kuwa madogo, lakini kwa kweli hayakuwa, kama uchunguzi kwamba AI ya Google ilikuwa kuvunja sheria za kimsingi ya utunzi wa muziki.

Kwa kweli, juhudi za kuwa na kompyuta zinazoiga tabia ya watu halisi zinaweza kutatanisha na zinaweza kudhuru.


innerself subscribe mchoro


Teknolojia za kuiga

Programu ya Google ilichambua maelezo katika kazi 306 za muziki za Bach, ikipata uhusiano kati ya wimbo na noti ambazo zilitoa maelewano. Kwa sababu Bach alifuata sheria kali za utunzi, programu hiyo ilikuwa ikijifunza sheria hizo kwa ufanisi, kwa hivyo inaweza kuzitumia wakati watumiaji wanapotoa noti zao.

 Timu ya Google Doodle inaelezea mpango wa Bach.

{youtube}XBfYPp6KF2g{/youtube}

Programu ya Bach yenyewe ni mpya, lakini teknolojia ya msingi sio. Algorithms mafunzo kwa tambua mifumo na tengeneza maamuzi yanayowezekana yamekuwepo kwa muda mrefu. Baadhi ya algorithms hizi ni ngumu sana kwamba watu usielewe kila wakati jinsi wanavyofanya maamuzi au kutoa matokeo fulani.

Mifumo ya AI sio kamili - wengi wao hutegemea data ambazo sio mwakilishi ya wakazi wote, au ambao ni kuathiriwa na upendeleo wa kibinadamu. Sio wazi kabisa ambaye anaweza kuwajibika kisheria wakati mfumo wa AI unafanya kosa au husababisha shida.

Sasa, hata hivyo, teknolojia za ujasusi bandia zinaendelea vya kutosha kuweza kukadiria uandishi wa watu au mtindo wa kuongea, na hata sura ya uso. Hii sio mbaya kila wakati: AI rahisi kabisa ilimpa Stephen Hawking the uwezo wa kuwasiliana kwa ufanisi zaidi na wengine kwa kutabiri maneno ambayo atatumia zaidi.

Programu ngumu zaidi ambazo zinaiga sauti za wanadamu kusaidia watu wenye ulemavu - lakini pia inaweza kutumika kudanganya wasikilizaji. Kwa mfano, watungaji wa Lyrebird, mpango wa kuiga sauti, umetoa mazungumzo yaliyoigwa kati ya Barack Obama, Donald Trump na Hillary Clinton. Inaweza kusikika kuwa ya kweli, lakini ubadilishaji huo haukuwahi kutokea.

Kutoka nzuri hadi mbaya

Mnamo Februari 2019, kampuni isiyo ya faida OpenAI iliunda programu ambayo inazalisha maandishi ambayo ni karibu kutofautishwa na maandishi iliyoandikwa na watu. Inaweza "kuandika" hotuba kwa mtindo wa John F. Kennedy, JRR Tolkien katika “Bwana wa pete”Au mwanafunzi akiandika zoezi la shule kuhusu Vita vya wenyewe kwa wenyewe vya Merika.

Maandishi yaliyotengenezwa na programu ya OpenAI yanaaminika sana kwamba kampuni imechagua sio kutolewa mpango wenyewe.

Teknolojia kama hizo zinaweza kuiga picha na video. Mwanzoni mwa 2018, kwa mfano, muigizaji na mtengenezaji wa filamu Jordan Peele aliunda video ambayo ilionekana kuonyesha Rais wa zamani wa Merika Barack Obama akisema mambo ambayo Obama hakuwahi kusema kweli kuonya umma juu ya hatari zinazotokana na teknolojia hizi.

Kuwa mwangalifu ni video gani unaamini.

{youtube}cQ54GDm1eL0{/youtube}

Mapema mwaka wa 2019, a picha bandia ya uchi Mwakilishi wa Merika Alexandria Ocasio-Cortez alisambazwa mkondoni. Video zilizotengenezwa, mara nyingi huitwa "deepfakes, ”Zinatarajiwa kuwa inazidi kutumika katika kampeni za uchaguzi.

Wajumbe wa Congress wameanza kuangalia suala hili kabla ya uchaguzi wa 2020. Idara ya Ulinzi ya Merika inafundisha umma jinsi ya kuona video zilizopigwa na sauti. Mashirika ya habari kama Reuters wameanza kufundisha waandishi wa habari kugundua kina kirefu.

Lakini, kwa maoni yangu, wasiwasi mkubwa zaidi unabaki: Watumiaji wanaweza wasiweze kujifunza haraka vya kutosha kutofautisha yaliyomo bandia kwani teknolojia ya AI inakuwa ya kisasa zaidi. Kwa mfano, wakati umma unapoanza kujua juu ya kina kirefu, AI tayari inatumiwa kwa udanganyifu wa hali ya juu zaidi. Sasa kuna mipango ambayo inaweza kuzalisha nyuso bandia na alama bandia za kidigitali, kuunda vyema habari inayohitajika kutunga mtu mzima - angalau katika rekodi za ushirika au serikali.

Mashine huendelea kujifunza

Kwa sasa, kuna makosa ya kutosha katika teknolojia hizi ili kuwapa watu nafasi ya kugundua uwongo wa dijiti. Mtunzi wa Bach wa Google alifanya makosa kadhaa mtaalam angeweza kugundua. Kwa mfano, nilipojaribu, programu iliniruhusu kuingia sambamba na tano, muda wa muziki ambao Bach kuepukwa kwa bidii. Programu pia alivunja sheria za muziki ya counterpoint kwa kuoanisha nyimbo katika kitufe kibaya. Vivyo hivyo, mpango wa kuzalisha maandishi wa OpenAI mara kwa mara uliandika misemo kama "moto unaotokea chini ya maji”Hiyo haikuwa na maana katika mazingira yao.

Kama watengenezaji hufanya kazi juu ya ubunifu wao, makosa haya yatakuwa nadra. Kwa ufanisi, teknolojia za AI zitabadilika na kujifunza. Utendaji ulioboreshwa una uwezo wa kuleta faida nyingi za kijamii - pamoja na huduma bora za afya, kwani mipango ya AI inasaidia demokrasia ya mazoezi ya dawa.

Kuwapa watafiti na kampuni uhuru wa kuchunguza, ili kutafuta mafanikio haya mazuri kutoka kwa mifumo ya AI, inamaanisha kufungua hatari ya kukuza njia za hali ya juu zaidi za kuunda udanganyifu na shida zingine za kijamii. Kuzuia sana utafiti wa AI kunaweza zuia maendeleo hayo. Lakini kutoa teknolojia zenye faida chumba cha kukua huja kwa gharama ndogo - na uwezekano wa matumizi mabaya, iwe ni kufanya muziki usiofaa wa "Bach-kama" au kudanganya mamilioni, inawezekana kukua kwa njia ambazo watu hawawezi kutarajia bado.Mazungumzo

Kuhusu Mwandishi

Ana Santos Rutschman, Profesa Msaidizi wa Sheria, Chuo Kikuu cha Saint Louis

Makala hii imechapishwa tena kutoka Mazungumzo chini ya leseni ya Creative Commons. Soma awali ya makala.

Vitabu kuhusiana

at InnerSelf Market na Amazon