Veštačka inteligencija više nije naučna fantastika. Programi koji odgovaraju na pitanja, pišu tekstove i vode razgovore danas su svakodnevica, a sve češće se koriste i za zdravstvene savete. U praksi, to znači da se mnogi ljudi, pre nego što odu kod lekara, prvo obrate aplikaciji za veštačku inteligenciju. Pošalju joj svoj nalaz od lekara, otpreme snimak i ispričaju joj simptome.
I nije da to nema smisla. AI alati su dostupni u svakom trenutku, ne traže zakazivanje, ne postavljaju neprijatna pitanja, strpljivi su i odgovaraju precizno. Kada korisnik pita šta znači neka dijagnoza ili kako se tumači nalaz, odgovor je jasan i razumljiv. Jer nekada lekari nemaju strpljenja sa svojim pacijentima i neće da im objasne šta koja reč u nalazu znači. Prepišu im lekove i pošalju ih kući. U tim situacijama, veštačka inteligencija je bolji sagovornik.

Informacija ili savet?
Problem počinje onda kada se granica između informisanja i savetovanja zamagli.
Za razliku od lekara, AI ne vidi pacijenta. Ne može da proceni njegovo stanje, da primeti nesklad između simptoma i načina na koji ih opisuje, niti da postavi dodatno pitanje u trenutku kada nešto „ne štima“. Ona je samo program koji povezuje reči na osnovu ogromne količine tekstova, bez razumevanja konteksta u kome se nalaze.

Zbog toga se dešava da odgovor zvuči stručno i umirujuće, a da pritom ne obuhvata stvarni rizik. Nije isto kada mlađa ili starija osoba imaju iste simptome prehlade. Korisnik može dobiti odgovor da mu nije ništa i onda da odloži odlazak lekaru. U većini slučajeva to neće imati posledice, ali zašto rizikovati bez razloga.
Može da se desi i suprotno. Dobijete odgovor u kome maltene piše da imate neku ozbiljnu bolest, pa potom ne možete da spavate noćima jer prebrojavate koliko života vam je još ostalo.
Ko snosi odgovornost kada AI pogreši?
Poseban problem je činjenica da veštačka inteligencija ne snosi nikakvu odgovornost. Ako pogreši, nema posledica po sistem koji je dao savet. Lekar, s druge strane, radi pod licencom, pravilima struke i zakonskom odgovornošću prema pacijentu.

Šta se dešava sa poverljivim zdravstvenim podacima?
Tu je i pitanje privatnosti. Kada korisnici opisuju simptome ili navode terapije u različitim aplikacijama i čet-botovima, nije uvek jasno gde ti podaci završavaju i kako se koriste.
Zdravstvene ustanove podležu strogim propisima o čuvanju podataka. Kod komercijalnih digitalnih servisa pravila se razlikuju i često ostaju nejasna prosečnom korisniku, koji u tom trenutku razmišlja samo o brzom odgovoru.
Gde veštačka inteligencija zaista pomaže
To, međutim, ne znači da veštačkoj inteligenciji nema mesta u medicini. Naprotiv, ona već ima važnu ulogu kao pomoćni alat. U bolnicama se koristi za analizu rendgenskih i CT snimaka, za otkrivanje ranih promena koje mogu promaći ljudskom oku i za ubrzavanje obrade medicinske dokumentacije.

U svim tim slučajevima, AI pomaže lekarima, ali ne donosi konačne odluke. Tehnologija radi pod nadzorom stručnjaka, a odgovornost je na čoveku.
Dobra tehnologija na pogrešnom mestu
Razlika između takve upotrebe i kućnog „savetovanja“ preko ekrana je velika. U prvom slučaju, veštačka inteligencija je deo sistema. U drugom, korisnik ostaje sam sa odgovorom koji liči da je tačan, ali nije prilagođen njegovom konkretnom zdravstvenom stanju.

Veštačka inteligencija u medicini nije opasna zato što je loša, već zato što je dovoljno dobra. Uverljiva je, ali ne može da preuzme odgovornost. Kao izvor informacija, ona može biti korisna. Kao zamena za lekara, ne.