U svetu tehnologije reči često imaju težinu koju shvatimo prekasno. Jedna od njih je „graditi“ (build). Navikli smo da gradimo mostove, solitere i motore, stvari koje imaju jasne nacrte i predvidive ishode. Međutim, kada je u pitanju veštačka inteligencija, taj termin nas uvodi u opasnu zabludu.
Eliezer Judkovski, jedan od najglasnijih teoretičara bezbednosti AI sistema, godinama upozorava na grešku našeg shvatanja veštačke inteligencije. AI nije obična mašina koju neko „sastavi“, zavrne poslednji šraf i pusti u rad. Njegova teza je jasna. AI se vaspitava, raste i menja. Zato se u stručnim krugovima sve češće ponavlja krilatica: AI is grown, not built. U tom kontekstu, veštačka inteligencija više nije proizvod, već naš vaspitanik.

U starim tehničkim priručnicima sve je bilo predvidivo. Mašina se napravi, uključi i radi tačno onako kako je projektovana. Nema samovolje, nema iznenađenja. Kod veštačke inteligencije stvari su malo drugačije.

Modeli veštačke inteligencije ne dobijaju pravila ponašanja, već primere. Umesto da im programiramo svaki korak, mi ih hranimo podacima i puštamo ih da sami izvlače zaključke iz njih. Baš zbog toga što se AI odgaja, a ne gradi (AI grown, not built), ona prestaje da bude alat i postaje sistem koji razvija sopstvene, često nepredvidive obrasce ponašanja.
Šta se desi posle odgajanja?
Ono što stručnjake poput Stjuarta Rasela najviše brine jeste to što staralac često ne razume kako njegov vaspitanik zapravo donosi odluke. Možete mu postaviti jasan cilj, ali put do njega može biti bizaran. Slično kao i sa detetom, ma koliko se trudili oko vaspitanja, ishod nikada nije potpuno pod našom kontrolom.

Tu dolazimo do onoga što struka zove „iznikla svojstva“ (emergent properties). To su veštine koje AI model razvije, a da ga niko za njih nije direktno obučavao. Na primer, model koji je učen samo da predviđa sledeću reč u tekstu, odjednom počne da programira ili logički zaključuje. To je trenutak kada shvatamo da je naš digitalni vaspitanik počeo da funkcioniše na način koji prevazilazi prve lekcije.
Odakle se uči veštačka inteligencija?
Kao staraoci, imamo ozbiljan problem. AI modele ne vaspitavamo u sterilnim učionicama, već ih hranimo svime što postoji na internetu. To znači da ih, zapravo, vaspitava ulica. Internet je riznica znanja, ali i deponija najgorih ljudskih osobina, lošeg jezika i nepismenosti.

Inženjeri kasnije pokušavaju da sprovedu „ubrzani kurs lepog ponašanja“, ali to je često samo kozmetika.
Taj postupak se zove RLHF (Reinforcement Learning from Human Feedback), odnosno učenje uz ljudsku povratnu informaciju. Izgleda kao neka dresura gde ljudski ocenjivači nagrađuju uglađene odgovore, a kažnjavaju neprimerene, primoravajući vaspitanika da usvoji simulaciju lepog ponašanja. Međutim, važno je razumeti da model ovim putem ne uči moral ili suštinu, već samo mapu odgovora koji će zadovoljiti njegove staraoce. Problem nastaje jer ovaj ubrzani kurs ne briše ono što je naučeno na ulici, već ga samo prekriva tankim slojem dresure koji može da pukne čim se vaspitanik nađe u nepredviđenoj situaciji.
Ispod te uglađene površine često ostaje onaj isti vaspitanik koji je pokupio ko zna kakve obrasce sa mračnih uglova mreže.
Ko je odgovoran za njene postupke?
Ako verujemo da se AI samo „gradi“, onda je on za nas samo sprava. Ali ako prihvatimo ulogu staraoca, suočavamo se sa neprijatnom istinom. U svet smo uneli nešto što ne možemo do kraja kontrolisati.

Danas živimo u vremenu nejasne odgovornosti. Kada AI napravi grešku ko je odgovoran? Model, podaci ili nešto treće? Niko nema jasan odgovor. Korporacije rado koriste termine poput „učenja“ i „vaspitanja“ dok sve ide po planu. Međutim, čim vaspitanik napravi neku štetu, one se brže-bolje vrate na tvrdnju da je to samo „softverska greška“.
Rizici koje ovo nosi za budućnost su veliki, a odgovori su još uvek u magli.