Najnovija analiza Univerziteta Stanford otkrila je zabrinjavajuću praksu šest tehnoloških divova. Amazon, Anthropic, Google, Meta, Microsoft i OpenAI koriste vaše upite za obuku svojih modela po automatizmu, bez da su tražili vaš pristanak i da to ikako može da se isključe.

Digitalni trag koji ne nestaje
Istraživački centar Stanford HAI proučio je 28 dokumenata o privatnosti i uporedio ih sa strogim kalifornijskim zakonima. Zaključak je jasan: privatnost je žrtvovana zarad tehnološkog napretka.
-
Trajno čuvanje: Vaši razgovori sa veštačkom inteligencijom čuvaju se bez ikakvog ograničenja. Nema brisanja.
-
Ljudski uvid: Zaposleni u kompanijama imaju pristup izvornim porukama. Mogu da čitaju tuđe razgovore.
-
Spajanje podataka: Kod giganata poput Gugla ili Mete, podaci iz prepiske se povezuju sa vašom istorijom pretrage, kupovinama i društvenim mrežama.
Od nevinog pitanja do dijagnoze
Istraživači upozoravaju na opasan scenario: obično pitanje o „zašto mi lupa srce“ sistem može da protumati da ste bolesni. Ta informacija se širi ko zna gde i do kojih servisa, koji je mogu zloupotrebiti.
Posebno brine obrada podataka maloletnika. Četiri od šest kompanija uključuje dečje razgovore u obuku modela, često bez provere uzrasta, a da roditeljni nisu ni svesni šta njihova deca rade.
Podešavanja
Čak i tamo gde opcija za isključenje postoji, skrivena je iza složenog pravničkog jezika. Istraživači zato pozivaju na tri hitne mere: stroge državne zakone, obavezan izričit pristanak korisnika i automatsko uklanjanje ličnih podataka pre procesa obuke.
Dok se pravila ne promene, a pitanje je da li će se kada izmeniti, za sada treba da znate: svaki put kada se obratite alatima kao što su ChatGPT, Gemini ili Copilot, vi niste korisnik, već njihov materijal za obuku.