AI i „kulturni kod“: Kako veliki jezički modeli (ne) razumeju svet?

Veštačka inteligencija još uvek nije neutralna. Analize pokazuju da kultura iz koje potiču podaci za obuku oblikuje način na koji AI odgovara i razmišlja. Takva pristrasnost utiče na to kako se modeli razumeju i prihvataju u različitim delovima sveta.

Veliki jezički modeli poput ChatGPT-a i Gemini-ja briljiraju u pisanju, prevođenju i rešavanju zadataka. Ipak, sve više se pokazuje da oni ne barataju samo činjenicama nego i kulturnim kodom – skupom simbola, navika, vrednosti i jezičkih obrazaca koji oblikuju komunikaciju u svakoj zajednici.


Šta predstavlja kulturni kod?

 

Kulturni kod obuhvata način na koji jedna zajednica govori, razmišlja i deluje. U praksi to su:

  • jezički humor i sleng, lokalne šale, dijalekti, ironija, internet memovi

  • društvene norme, odnosno šta se u datoj sredini smatra pristojnim, uvredljivim ili neprimerenim

  • simboli i asocijacije kao što su književni motivi, muzika, hrana, praznici ili geografski pojmovi

AI modeli uče ove obrasce isključivo iz podataka. Ako ti podaci dolaze iz jedne kulture, model će svet tumačiti kroz njen filter.


AI i zapadni obrazac razumevanja

Najnovija istraživanja pokazuju da modeli često ne nude univerzalne odgovore. Naprotiv, oni razmišljaju u skladu sa zapadnim obrascima, jer su najviše obučeni na podacima koji potiču iz zapadnih jezika, medija i društvenih vrednosti.

1. Zapadni simboli dominiraju jer preovlađuju u podacima
Modeli češće stvaraju zapadne reference, jer se sa njima najviše susreću tokom obuke.
Izvor: Measuring Cultural Diversity in Large Language Models (NIPS 2024)

2. Vrednosna pristrasnost opstaje čak i kada se traži drugačiji ugao
Modeli obučeni na američkim i britanskim izvorima često daju odgovore u skladu sa zapadnim moralnim obrascima, čak i kada im se jasno zada druga perspektiva.
Izvor: Anthropic, Constitutional AI and Cultural Bias (2023)

3. Učenje više jezika ne uklanja zapadni način rezonovanja
Multijezična obuka proširuje vokabular, ali osnovni obrazac razmišljanja ostaje dominantno zapadni.
Izvor: Global Value Alignment in LLMs (2024)

4. Testovi razumevanja kulture su i dalje površni
Istraživači često koriste zadatke sa ponudjenim odgovorima ili jednostavne asocijacije, što ne meri stvarno razumevanje konteksta.
Izvor: Rethinking AI Cultural Evaluation (2024)


Kako se smanjuje kulturna pristrasnost?

Pošto modeli mogu pogrešno da protumače lokalne norme ili da daju stereotipne odgovore, naučnici razvijaju pristupe koji AI dovode u bliži kontakt sa različitim pogledima na svet.

1. Dodatna obuka na lokalnim podacima
Modeli se dopunjuju sadržajima iz raznih regiona, uključujući lokalne medije, forume, dijalekte i kulturne reference. Cilj je da AI uči iz lokalnih izvora kad god je to moguće.

2. Multikulturalno usklađivanje vrednosti
Google DeepMind pokazuje da modeli formiraju različite moralne procene u zavisnosti od porekla podataka, pa se uvode regionalno prilagođeni etički okviri. Model treba da razume kako različite zemlje tumače privatnost, autoritet, slobodu govora ili društvenu odgovornost.
Izvor: The Value Alignment Problem in Large Language Models (2024)

3. Ocene korisnika iz celog sveta
Ljudi iz različitih kultura ocenjuju odgovore modela prema lokalnim merilima. Tako AI stiče širu perspektivu i smanjuje pristrasnost.


Budućnost veštačke inteligencije zavisi od razumevanja različitih kultura

 

Model koji razume lokalni kulturni kod:

  • daje preciznije i korisnije odgovore

  • izbegava stereotipe i pogrešna tumačenja

  • prepoznaje sleng, humor, dvosmislenosti i aluzije

  • pruža bolju podršku korisnicima širom sveta

Nasuprot tome, model koji posmatra svet kroz jedan jedini kulturni obrazac teško može da bude globalno prihvaćen.

Zato napredak veštačke inteligencije zavisi od toga da li će modeli postati zaista multikulturalni i da li će uspešno da prikažu svet onako kako ga vide ljudi sa različitih delova planete.