Godinama unazad slušamo istu priču: mašinsko učenje (machine learning). Algoritmi koji uče iz podataka, postaju pametniji, precizniji i brži. Što više informacija dobiju, to bolje rade. Taj princip je postao osnova savremene veštačke inteligencije i danas se podrazumeva gotovo kao zdravorazumska činjenica.
Ali u tišini istraživačkih laboratorija pojavljuje se novo, pomalo uznemirujuće pitanje: šta ako model zna previše?
I još važnije: šta ako mora nešto da zaboravi?
Tu dolazimo do pojma koji tek ulazi u širu upotrebu, ali bi uskoro mogao da postane jednako važan kao i samo učenje: mašinsko zaboravljanje (machine unlearning).

Od učenja ka zaboravu
Ako je mašinsko učenje proces u kojem algoritam stiče nova znanja na osnovu velikih količina podataka, onda je mašinsko zaboravljanje njegov logičan antipod. To je postupak kojim se određene informacije namerno uklanjaju iz već istreniranog modela, bez njegovog potpunog ponovnog treniranja od nule.
Drugim rečima, model ne briše sve što zna. On selektivno zaboravlja. Prestaje da koristi konkretne podatke u svojim odgovorima, dok ostala znanja, obrasci i veštine ostaju netaknuti.
Zašto bi AI uopšte morala da zaboravlja?
Na prvi pogled, ideja deluje kontraproduktivno. Zar nismo godinama gradili sisteme koji pamte sve? Upravo tu leži problem.

Jedan od ključnih razloga je zaštita ličnih podataka. U treninzima velikih modela ponekad se nađu informacije koje nikada nisu smele da budu tu. Ako se one „utisnu“ u model, njihovo kasnije uklanjanje postaje ozbiljan izazov.
Slede autorska prava. Modeli koji generišu tekstove, slike ili muziku često su trenirani na ogromnim količinama kreativnog sadržaja. Mašinsko zaboravljanje omogućava da se, po potrebi, uklone radovi određenih autora ili stilovi koje model više ne bi smeo da imitira.
Tu je i problem netačnih ili zastarelih informacija. Ako je model nešto naučio pogrešno, to znanje se uporno ponavlja u odgovorima. Umesto kompletnog resetovanja sistema, zaboravljanje omogućava njegovu ispravku.
Na kraju dolazi pitanje etike. Stereotipi, uvredljivi obrasci i problematični zaključci često potiču iz samih podataka. Ako ne možemo uvek da kontrolišemo šta je ušlo u model, moramo bar imati način da to kasnije iz njega uklonimo.
Zašto nije dovoljno samo ponovo trenirati model?
Teoretski, rešenje je jednostavno: izbaciti problematične podatke i istrenirati model ponovo. U praksi, to je često neizvodljivo.
Savremeni veliki modeli zahtevaju ogromne količine vremena, novca i računarske snage. Ponovno treniranje može trajati nedeljama ili mesecima, uz troškove koje mogu da priušte samo najveće tehnološke kompanije.
Zato se pažnja sve više usmerava ka metodama koje omogućavaju ciljano brisanje znanja, bez rušenja celog sistema.
Kako se mašine danas “razobučavaju” odnosno kako im se briše pamet?
Mašinsko zaboravljanje je još uvek mlada oblast, ali se razvija ubrzanim tempom. Prošle godine su organizatori NeurIPS-a, jedne od najznačajnijih konferencija u oblasti mašinskog učenja, organizovali posebno takmičenje posvećeno metodama razobučavanja neuronskih mreža.

Najbolji predloženi pristupi oslanjaju se na kombinaciju dve faze. U prvoj se neželjene informacije brišu tako što se deo slojeva neuronske mreže reinicijalizuje ili se u model uvodi kontrolisani šum, čime se slabe neželjeni tragovi znanja. U drugoj fazi sledi svojevrsna rehabilitacija modela, kroz dodatno treniranje na pažljivo očišćenom skupu podataka, kako bi se nadoknadio eventualni pad kvaliteta.
Rezultat je sistem koji zaboravlja ono što mora, ali i dalje funkcioniše stabilno i pouzdano.
Nova era veštačke inteligencije
Kako se veštačka inteligencija sve dublje ugrađuje u svakodnevni život, postaje jasno da nije dovoljno samo znati kako da je učimo. Jednako važno postaje i pitanje kako da je nateramo da zaboravi.
Mašinsko zaboravljanje možda zvuči kao sporedna tehnička tema, ali u stvarnosti predstavlja jedan od ključnih mehanizama za odgovornu, bezbednu i zakonski usklađenu upotrebu AI sistema. Ako je pamćenje do sada bilo njena najveća snaga, zaborav bi mogao da postane njena najveća odgovornost.