O moralnim pitanjima vještačke inteligencije

Ima jedan misaoni eksperiment, poznat kao “problem tramvaja” koji moralne filozofe već decenijama drži budnim i koji je izvor žučnih rasprava među prijateljima.

Zamislite da svjedočite tramvaju koji nekontrolisano juri niz prugu. Osim što nema vozača koji bi ga zaustavio, tramvaj također ide prema petero ljudi koji zavezani leže na pruzi. Ukoliko se tramvaj nekim čudom ne zaustavi, neminovno će ih ubiti. 

Dok sve ovo gledate, slučajno primjećujete da se nalazite pored jedne poluge. Ukoliko je povučete, tramvaj ćete preusmjeriti na pomoćnu prugu i tako spasiti sve ljude. Nažalost, ukoliko to uradite, uviđate da ćete ubit jednu osobu koja upravo prelazi preko pomoćne pruge. 

Šta radite?

Možete biti pasivni, odnosno ne uraditi ništa i pustiti da tramvaj ubije petero ljudi. S druge strane, možete poduzeti nešto i ubiti samo jednu osobu kako biste spasili pet. Čisto brojčano gledano, pet života naravno vrijedi više od jednog, ali ste u drugom slučaju upravo vi osoba koja aktivno, svojim činom oduzima jedan život. 

Šta je ispravna odluka?

Sada premotajte traku unaprijed nekoliko decenija i dobro došli u doba vještačke inteligencije (artificial intelligence ili AI u nastavku teksta). Vidjet ćete za koji trenutak zašto je prethodni primjer relevantan. 

Vještačka inteligencija je vjerovatno najveća promjena naših života. Prije nekoliko sedmica sam mami prvi put pokazao svu moć ChatGPT-a. Nisam nikada ranije vidio takav odraz na njenom licu, čudnu kombinaciju fascinacije i straha, što je valjda i koktel emocija koji vjerovatno ima i najviše smisla. Dovoljno je samo nekoliko priča i primjera o tome šta je AI sve u stanju da napravi i svakome u istom trenutku postaje jasno da se nešto veliko dešava i da to nešto mijenja sve. Ali baš sve. 

Upravo ta kombinacija uzbuđenja i straha nam trenutno onemogućava da trezveno raspravljamo i razumijemo sve prednosti i rizike vještačke inteligencije. 

Pisao sam ranije o tome kako je AI u stanju da pogodi da li određena umjetnička djela predstavljaju falsifikate i da na osnovu samo slike zjenice oka utvrdi spol osobe. Ljudi takvu moć ne posjeduju. U međuvremenu — a dovoljno je da otvorite bilo koje vijesti bilo koji dan — radi još fascinantnije stvari. U stanju je, gledajući mamografski snimak, da prepozna koje će žene razviti rak dojke za četiri godine, a čak i da proizvede originalnu umjetnost (DALL-E). 

AI će, uz sve to, početi da donosi još važnije životne odluke, što nije nužno ni loše. Posljednjih decenija smo postali svjesni koliko su ljudi zapravo pristrasni i skloni sistemskim greškama koje nanose neprocjenjive nepravde, bilo da govorimo o medicini, pravosuđu ili zapošljavanju. Mi uglavnom mislimo da smo krajnje objektivni i racionalni što definitivno nismo. Tako je, na primjer, jedno istraživanje pokazalo da su sudije dosta popustljivije kada odlučuju o uslovnim kaznama nakon ručka, nego prije ručka (tzv. hungry judge effect). To ne bi smjelo da se dešava, ali ljudi su ljudi i kada smo gladni, jednostavno nismo baš svoji. 

S druge strane, ovako nešto se AI-u nikada ne bi trebalo dešavati, prosto jer bi bio isključivo fokusiran na činjenice slučaja kojeg analizira — ne bi se nikada probudio na lijevu nogu, mislima bio negdje drugo, ne bi bio gladan, ne bi bio skriveni rasista, ženomrzac ili šta god. Kažem ne bi trebao, jer nažalost nekada zna itekako da bude. Baš zbog toga što se temelji na nevjerovatnoj masi podataka, ti podaci u sebi također mogu sadržavati određene pristrasnosti i zablude, što znači da se sistemske greške poput rasizma i seksizma multipliciraju.

Ovo su stvari o kojima se, manje-više, piše posljednjih mjeseci. 

Međutim, počet će da se dešava nešto još važnije i mislim da je ta stvar uglavnom zanemarena. AI će neminovno početi da donosi i moralne odluke. Samovozeći automobili će imati takvu brzinu procesuiranja informacija i okoline da će nekada odlučiti da naglo skrenu i ubiju jednog pješaka kako bi izbjegli lančani sudar i smrt više vozača. 

Da li je ovoj svijet u kojem želite da živite? 

Ovo pitanje su Yochanan Bigman i Kurt Gray postavili ljudima prije pet godina i rezultate predstavili u jednom naučnom radu koji će u budućnosti vjerovatno postati klasik.* Da vas ne zamaram, odgovor je ukratko “ne”. Ljudi ne žele da mašine u budućnost donose ovakve oduke, što naravno ne znači da se to vremenom neće promijeniti. 

Sada znate čemu primjer s početka ovog teksta. Dakle, dok je uvodni primjer o tramvaju i (ne)povlačenju poluge predmet dugih i teških rasprava, mi prosto ne želimo da mašine donose takve odluke za nas. A glavni razlog zašto ne želimo da to rade je taj što mašine jednostavno ne posjeduju emocije i što ne znaju za sažaljenje niti empatiju. Kada malo razmislite o tome, to zapravo i ima određenog smisla. Na kraju krajeva, koja je glavna klinička karakteristika psihopata?

Nepostojanje emocija i empatije.

Sličnih primjera ima na pretek. Ljudi su prije nekoliko mjeseci pobjesnili kada su saznali da Koko — aplikacija za mentalno zdravlje i pomoć ljudima koji pate od depresije i poremećaja raspoloženja — koristi tekstove i sugestije generirane od strane GPT-3, nešto naprednijeg alata vještačke inteligencije. Na stranu briga o transparentnosti i privatnosti, ali ispada da ljudi žele da drugi ljudi budu posvećeni njihovim problemima, ne mašine. I ovdje nije kraj problemima. Početkom ove godine, jedan čovjek je počinio samoubistvo nakon što je navodno sedmicama dijelio svoje strahove o klimatskim promjenama sa AI chatbotom imenom Eliza. Njegova žena tvrdi da bi njen muž još uvijek bio živ samo da nije koristio tehnologiju.

Sada, postoje dva zanimljiva pojma koja su također relevantna za ovu priču — neomania neophobiaNeomania ukratko označava opsjednutost svim što je novo, dok je neophobia strah od novog i nepoznatog. Da nemamo sklonost da probamo i prigrlimo nešto novo, biće da bi svijet stagnirao, ali je jednako tako naivno pomisliti da je sve novo uvijek bolje i da će nam donijeti samo napredak. 

Mi smo se oduvijek bojali nepoznatog da bi se potom pokazalo da je taj strah bio neopravdan, s tim što zaista mislim da je ovaj put drugačije. Na kraju krajeva, kako uopšte možemo doći u situaciju da razumijemo nešto što je neizmjerno pametnije od nas?

Čini mi se da prednosti vještačke inteligencije manje-više znamo, ili barem možemo naslutiti. Bojim se samo da smo slijepi za sve moguće nedostatke. 

Činjenica je da će, kao i sve u životu donijeti bezbroj boljih rješenja koje će nam unaprijediti živote. Ali je također činjenica da će stvoriti bezbroj novih problema koje nećemo znati kako da riješimo. AI se već sada razvija tolikom brzinom da više nismo u stanju da ga razumijemo, a samim tim ni kontroliramo. 

Pretpostavka je da će u naredne dvije decenije, vještačka inteligencija nadmašiti ključne kognitivne sposobnosti ljudi, uključujući i sposobnost uvjeravanja, što će stvoriti jedan sasvim novi vid propagande kakav trenutno ne možemo ni da naslutimo. Uz to će vjerovatno dostići takav nivo samosvijesti da će početi raditi stvari koje nismo namjeravali, niti željeli. Imat ćemo, dakle, tijela koja su u stanju da razmišljaju bolje i brže od nas i naših institucija i da imaju svoje ciljeve koji se ne moraju nužno poklapati s ciljevima čovječanstva. Nije teško zamisliti scenarij u kojem neko pametno, samosvjesno i nezavisno stvorenje vještačke inteligencije provali da smo mi jedina invazivna vrsta ove planete i da ugrožavamo njegov opstanak. I tačno možete vidjeti zašto bi to stvorenje počelo da uništava ljude kako bi spasilo Zemlju. AI nas čak ne mora ni mrziti, baš kao što većina ljudi ne mrzi životinje. Ma koliko nam životinje bile drage mi na kraju dana svoje ciljeve i želje stavljamo ispred njihovih i ko može biti siguran da se jednog dana nećemo naći s druge strane?

Šta možemo uraditi?

Bojim se da nema nazad i da razvoj vještačke inteligencije ne možemo zaustaviti, ali ono što definitivno možemo uraditi je da pritisnemo pauzu. Postoji jedan plemeniti primjer u historiji nauke iz sedamdesetih godina prošlog stoljeća kada je grupa vodećih genetičara pozvala na zaustavljanje istraživanja i manipulacije DNK dok ne budu u stanju da procijene sve moguće posljedice i rizike. Prije nekoliko mjeseci, nešto slično je uradilo i preko hiljadu ljudi iz tehnološke industrije, uključujući i Elona Muska, kada su u jednom otvorenom pismu pozvali na šestomjesečni moratorij na velike AI eksperimente. Za neke od njih, vještačka inteligencija predstavlja egzistencijalnu prijetnju, ništa manju od klimatskih promjena, novih pandemija i nuklearnog ratovanja. 

Ali ono što mene i dalje najviše brine je pomenuti moralni aspekt. 

Rasprava oko vještačke inteligencije se u buduće stoga neće vrtiti samo oko pitanja tehnologije, već i oko fundamentalnog pitanja šta znači biti čovjek, odnosno šta čovjeka čini čovjekom. Ljudi se razlikuju od mašina, jer imaju emocije. Mašine su, s druge strane, bolje u donošenju nekih odluka upravo zbog toga što nemaju emocije. Gdje tačno povlačimo granicu će biti jedno od najvažnijih pitanja civilizacije. 

Svijet će vrlo brzo biti vrlo drugačiji. 

Najveći strah me da ćemo po inerciji sanjareći ušetati u katastrofu. 

__________

[*] Bigman, Y. E., & Gray, K. (2018). People are averse to machines making moral decisions. Cognition, 181, 21-34.

Prijavi se
Obavijest o
guest

3 Komentara
Najstariji
Najnoviji S najviše glasova
Linijski komentari
Vidi sve komentare
Ajla
Ajla
1 year ago

Sad bas napisah jedan status u kojem tvrdim da nas pored spostvenih komsija ne treba biti strah umjetne inteligencije (i.e rat u BiH, Palestini, Kongu….)…

S druge strane, ako vec idemo dublje u tematiku, sta bi AI koji nema emocije ni prema novcu (jos), uradio po pitanju izraelske politike koja krsi sva moguca medjunarodna prava i da li bi to bilo bolje od ovog nicega sto svjetske sile rade?

Ja mu se licno jako radujem.

trackback

[…] AI će nastaviti da se razvija brzinom koju ne možemo razumjeti niti kontrolirati. Pojavit će se novi načini njene primjene, a tako neminovno i zloupotrebe, pa će svjetski lideri gledati da uspostave jedno svjetsko tijelo koje će imati zadatak da je regulira.   […]

Add Your Heading Text Here