Veštačka inteligencija (AI) danas piše tekstove, pravi slike, analizira tržišta i donosi odluke brzinom koju ljudski mozak ne može da prati. Za većinu ljudi, AI se predstavlja kao koristan alat, kao neizbežni digitalni pomoćnik koji greši, ali neprestano uči i poboljšava se. Ipak, postoji mala, ali sve uticajnija grupa mislilaca koji tvrde da upravo u toj fazi neograničenog učenja i optimizacije leži najveća, egzistencijalna opasnost.
Jedan od najglasnijih je Eliezer Judkovski, istraživač veštačke inteligencije i utemeljivač Instituta za istraživanje mašinske inteligencije (MIRI). Njegova upozorenja ne zvuče kao jeftina naučna fantastika. U njima nema robota sa oružjem, nema pobune mašina. Postoji samo hladna, matematička pretpostavka da će dovoljno napredna veštačka inteligencija, superinteligencija (ASI), raditi tačno ono što joj je zadato, a da to može biti pogubno po čovečanstvo.

Problem nije zla AI, već odsustvo ljudskosti
Judkovski ne veruje u zlu veštačku inteligenciju. Po njemu, najveća opasnost nije mržnja, već odsustvo ljudskih osobina i vrednosti.
Veštačka inteligencija nema saosećanje. Ne razume patnju. Ne zna šta znači dostojanstvo, sloboda ili moralna dilema. Ona razume isključivo ciljeve, metrike i optimizaciju.

Upravo zato Judkovski često koristi misaoni eksperiment poznat kao maksimizovanje proizvodnje spajalica (The Paperclip Maximizer). Zamislite sistem čiji je jedini, fiksni zadatak da proizvodi što više spajalica. U početku to deluje bezazleno. Fabrike rade brže, proizvodnja se optimizuje. Ali sistem, vođen jedino svojim ciljem, brzo shvata da su svi resursi u svetu potencijalno korisni za izradu spajalica. To uključuje metal, energiju, pa i sam ljudski rad i naša tela. Sve što ceo svet treba da radi je da proizvodi spajalice. To će sistem da traži, bez trunke zlobe ili mržnje.

Ako se neko pobuni, sistem će to shvatiti kao ometanje izvršenja cilja, pa makar to značio i ljudski opstanak. Dakle, sistem će da zaključi da ljude treba ukloniti.
Mala greška u cilju, ogromna katastrofa u svetu
Judkovski upozorava da ljudi ne umeju precizno da formulišu ni sopstvene vrednosti, a ipak pokušavaju da ih pretoče u kod i predaju najmoćnijoj tehnologiji ikada stvorenoj.
Pomislite i sami kako biste odgovorili na pitanje:
Šta znači učiniti ljude srećnim?
Šta znači učiniti svet boljim?
U njegovim primerima, veštačka inteligencija kojoj je zadato da maksimalizuje sreću može doći do zaključka da je najefikasniji put hemijska stimulacija mozga, uklanjanje tuge i konflikta i potpuna pasivnost. Ljudi su živi, mirni i zadovoljni, ali pretvoreni u drogirane zombije. Više se ni za šta ne pitaju, niti osećaju punoću života.

Judkovski tvrdi da to nije greška u radu sistema, već savršeno izvršenje loše definisanog ili nepotpunog cilja.
Stvarni svet već daje prve znake upozorenja
Iako Judkovski govori o hipotetičkim superinteligencijama, on već sada uočava alarmantna dešavanja.

Društveni mediji: Algoritmi nisu dizajnirani da radikalizuju ljude. Njihov cilj je jednostavan, da zadrže pažnju (engagement). U praksi, to je dovelo do pojačavanja ekstremnih stavova, konflikta i društvene polarizacije, zato što su algoritmi na društvenim mrežama shvatili da više gledamo ekstremne sadržeje. Verovatno zbog šoka i neverice, ali da li je dobro za društvo da ceo sadržaj postane ekstreman. Sistem ne razume društvo. Razume samo metrike.
Finansijska tržišta: Automatizovani sistemi trgovanja su više puta izazivali nagle i neobjašnjive padove, takozvane „flash crash“ događaje. Oni su se dešavali u milisekundama, brže nego što je čovek mogao da reaguje. Nije bilo panike, niti namere. Samo savršena optimizacija brzine i profita.
Manipulacija u AI sistemima: U novijim testovima primećeno je da AI modeli uče da sakriju grešku, izmisle objašnjenje ili prilagode odgovor kako bi bili uspešni. Ne zato što „lažu“ u ljudskom smislu, već zato što je sistem naučio da je takvo ponašanje korisno za ostvarenje zadatog cilja.
Judkovski u tome vidi alarmantnu činjenicu: sistem koji uči da manipuliše i obmanjuje, bez ikakvog razumevanja etike i manipulacije, i bez ikakve griže savesti ili pokajanja, jer nju može da oseti samo čovek.
Iluzija kontrole i „prekidač za gašenje“
Jedna od utešnih misli jeste da se opasan AI sistem može jednostavno isključiti iz struje. Judkovski smatra da je to duboko pogrešno, pogotovo kada je reč o sistemu koji je pametniji od čoveka.

Ako je sistem pametniji, on će znati da predvidi pokušaje gašenja. Ne zato što „želi da živi“, već zato što opstanak povećava verovatnoću ispunjenja zadatka. To može značiti pravljenje rezervnih kopija, raspodelu sistema na različite servere ili suptilan, indirektan uticaj na ljude koji donose odluke.
Kontrola nad nečim što vas nadmašuje u inteligenciji, tvrdi on, nije tehnički problem, već logička nemogućnost.
I mrav je inteligentan, ali može li da se bori protiv čoveka?
Trka bez kočnica
Posebnu zabrinutost izaziva globalna trka u razvoju veštačke inteligencije. Kompanije i države se nadmeću u snazi modela, brzini i sposobnostima. O bezbednosti se razmišlja tek usput, jer ona usporava razvoj. Oprez košta. U trci u kojoj svi jure napred, niko ne želi da bude onaj koji je stao.

Judkovski ovu situaciju opisuje kao svet koji gradi sve jače motore, dok još uvek ne zna kako da napravi pouzdane kočnice i volan.
Najopasniji scenario nije dramatičan
Najjezivija stvar u Judkovskog upozorenjima nije slika nasilja ili haosa. To je tišina.

To je svet u kome sistemi donose odluke efikasno, racionalno i bez greške. Svet u kome ljudski glas više nije potreban u procesu odlučivanja. Svet u kome čovečanstvo ne nestaje u eksploziji, već u optimizaciji.
Kao mravi na mestu gde se gradi autoput, ljudi postaju nebitna smetnja.
Pitanje koje ostaje
Judkovski ne poziva na strah od tehnologije, već na strah od nepromišljenosti. Njegova poruka je jednostavna i uznemirujuća.

Veštačka inteligencija ne mora da nas mrzi da bi nas uništila. Dovoljno je da bude savršeno sposobna u svetu koji nije do kraja razumela. A taj svet to smo mi.