Zamislite da pitate prijatelja da vam da recept za tortu, a on vam ozbiljnim tonom kaže da u nju, pored čokolade, obavezno ide i pola kilograma kamenčića sa plaže. To je, u najkraćim crtama, AI halucinacija. Kada veštačka inteligencija izbaci nešto što nema veze sa vezom.
Halucinacije su uobičajena pojava u svetu veštačke inteligencije. Ne postoji AI model koji nekad nešto ne uobrazi i izmisli. Verovatno ga nikad neće ni biti.

Šta su, zapravo, AI halucinacije?
AI halucinacija se dešava kada model veštačke inteligencije (poput ChatGPT-a ili Gemini-ja) izrodi odgovor koji je činjenično netačan ili potpuno izmišljen, ali deluje vrlo ubedljivo kada se čita.
AI ne „laže” smišljeno, jer nema svest, pa samim tim ni nameru da prevari. Prosto pravi grešku u svom osnovnom zadatku: predviđanju sledeće reči u rečenici.
Zašto veštačka inteligencija „izmišlja”?
Da biste razumeli zašto AI greši, nemojte da ga posmatrate kao nekog enciklopedijskog sveznalca, već kao statističku mašinu:
-
AI nema stvarno znanje i razumevanje kao što to čovek ima, već radi kao neverovatno napredan sistem za automatsko dopunjavanje teksta koji predviđa sledeću reč u nizu. On izračunava koja se reč statistički najbolje uklapa u vašu rečenicu, slično kao kada vam telefon nudi nastavak poruke dok kucate. Zbog toga se dešava da AI sastavi gramatički savršenu i uverljivu tvrdnju koja je potpuno izmišljena, jer mu je prioritet matematička verovatnoća, a ne istina.
-
Pritisak korisnosti: Modeli su obučeni da Vam pomognu, odnosno napravljeni tako da moraju da ispljunu odgovor. Ako im postavite pitanje na koje nemaju odgovor, ponekad će radije skovati nešto što zvuči logično nego što će priznati da ne znaju (mada se to u novijim verzijama ređe dešava).
-
Nedostatak istinskog razuma: AI ne razume uzročno-posledične veze onako kako ih razume čovek. Na primer, može da napiše biografiju o vama, ali ako ne pronađe sve podatke, „pozajmiće” detalje od druge osobe sličnog imena.
Kako da prepoznate halucinacije?
AI uobrazilje vrlo su uverljive. Kako bi ih prepoznali, obratite pažnju na sledeće:
-
Izmišljeni izvori: AI može citirati knjige, zakone ili naučne studije koje uopšte ne postoje. Naslov zvuči realno, autor deluje ubedljivo, čak se navodi i godina izdanja, ali kada pokušate da proverite podatak, ispostavi se da takav rad nikada nije objavljen.
- Preterana preciznost bez pokrića: Ako dobijete izuzetno tačne brojke, datume i procente, a nema jasnog i proverljivog izvora, budite oprezni. Halucinacije često dolaze u paketu sa detaljima koji deluju impresivno, ali nema nikakvog izvora.
- Nedoslednosti u tekstu: Obratite pažnju da li se u jednom delu teksta tvrdi jedno, a u drugom nešto suprotno. Takve unutrašnje kontradikcije mogu ukazivati da model „spaja“ informacije bez stvarnog razumevanja.
-
Nepostojeći linkovi: Može Vam pružiti internet adresu koja izgleda ispravno, ali Vas vodi na nepostojeću stranicu.
-
Logičke greške u brojevima: Iako je u pitanju kompjuterski sistem, AI može pogrešiti u jednostavnoj matematici ako se previše fokusira na tekstualni stil, a premalo na logiku računa.
Kako da se zaštitite od netačnih informacija?
Nemojte prestati da koristite veštačku inteligenciju, ali budite oprezni:
| Pravilo | Vaš sledeći korak |
| Provera informacija | Uvek sve proverite više puta. Posebno kada su u pitanju medicinske, pravne ili istorijske teme. |
| Korišćenje pretrage | Za konkretne činjenice koristite modele koji imaju direktan pristup internetu i navode izvore. |
| Precizan kontekst | Što više detalja pružite u svom upitu, manja je šansa da će AI početi da izmišlja detalje. Napišite mu tačno šta vam treba i gde da traži podatke. |
| Zahtev za izvorima | Slobodno recite modelu: „Navedi mi tačne izvore za ove tvrdnje” ili „Reci ‘ne znam’ ako nisi siguran”. |
Zaključak: Posmatrajte AI kao pametnog, ali povremeno rasejanog asistenta. Nikada nemojte slepo da mu verujete.