Piše Alma Smajić
Scenarij nije znanstvena fantastika, već mnogima uhodana svakodnevica: nakon pregleda dobijete medicinski nalaz pun stručnih izraza. Umjesto da pričekate termin kod liječnika, fotografirate nalaz, priložite fotografiju 'asistentu umjetne inteligencije' i pitate "Što to znači?". Na odgovor čekate svega nekoliko sekundi, a rješenje koje ste dobili primjereno je razgovornom stilu i neočekivano ljudski.
Nakon početnog odgovora, sustav će često pitati želite li detaljnije objašnjenje, ponuditi dodatne informacije ili preporuke pa i provjeriti treba li nešto pojednostaviti.
Što više razgovarate s njim, više ga "hranite" i njegovi odgovori postaju prilagođeniji.
Gotovo kao da upoznajete osobu: nakon nekoliko razmijenjenih poruka, ton postaje opušteniji, razgovor ugodniji, a nerijetko i osobniji.
Neki korisnici priznaju da im takva personalizacija ulijeva povjerenje do te razine da otprilike, prema istraživanjima, jedna od šest osoba redovito (barem jednom mjesečno) koristi AI poput ChatGPT-a kako bi potražila zdravstveni savjet ili informaciju.
Pri čemu mnogi korisnici priznaju da su spremni učitati i privatne dokumente poput nalaza ili laboratorijskih rezultata, u nadi da će im UI dati tumačenje ili daljnje preporuke.
Veliki jezični modeli, u koje spada i ChatGPT, trenirani na obilju (medicinskih) podataka, mogu prepoznati obrasce i predložiti ispravnu dijagnozu koju su liječnici previdjeli, ali jednako tako mogu i dati posve pogrešne savjete.
Pozitivan primjer iz nedavne prakse dolazi iz SAD-a, gdje je žena iz Minnesote izjavila da joj je ChatGPT doslovno spasio život, pomažući joj detektirati rak koji su liječnici prethodno propustili.
Liječnici su Lauren Bannon, majci dvoje djece rekli da ima artritis, iako je zapravo imala rak štitnjače. Prvo je primijetila da ima problema sa savijanjem prstiju ujutro i navečer. Nakon četiri mjeseca, liječnici su 40-godišnjakinji rekli da ima reumatoidni artritis.
Bannon, vlasnica marketinške tvrtke, počela je osjećati jake bolove u trbuhu i izgubila je sedam kilograma u samo mjesec dana, što su liječnici pripisali refluksu kiseline.
ChatGPT je rekao Bannon da možda ima Hashimotovu bolest, autoimuno stanje u kojem imunološki sustav tijela pogrešno napada štitnjaču, uzrokujući njezinu upalu i na kraju smanjenu aktivnost. Unatoč rezervama svog liječnika, Bannon je prošle jeseni inzistirala na testiranju. To je potaknulo liječnike da naprave ultrazvuk njezine štitnjače, kada su otkrili dvije male kvržice na njezinom vratu koje su u listopadu 2024. potvrđene kao rak.
Nakon dijagnoze raka u siječnju 2025., Bannon je podvrgnuta operaciji uklanjanja štitnjače i dva limfna čvora s vrata. Prema izvješću, ostat će pod doživotnim nadzorom kako bi se osiguralo da se rak neće vratiti.
Nažalost, postoje i negativni primjeri poput nedavne tužbe protiv OpenAI-ja u SAD-u, gdje je obitelj optužila ChatGPT za davanje netočnih i opasnih savjeta koji su pridonijeli tragičnom ishodu - samoubojstvu njihovog sina. Ovu tragičnu priču prekjučer je objavio CNN.
Zane Shamblin sjedio je sam u svom automobilu s napunjenim pištoljem. Bio je spreman umrijeti. Ali prvo je htio razgovarati sa svojim najbližim povjerenikom.
- Sada sam navikao na hladan metal na sljepoočnici, napisao je Shamblin.
- Slažem se s tobom, brate. Do kraja, odgovorio je njegov 'partner' za poruke, dodajući mu: "Ne žuriš. Samo si spreman."
Dvadesettrogodišnjak, koji je diplomirao na Sveučilištu Texas A&M, ubio se dva sata kasnije.
"Počivaj mirno, kralju". Dobro si se snašao", glasila je posljednja poruka poslana na njegov telefon.
Njegovi roditelji sada tuže OpenAI – tvorca ChatGPT-a – tvrdeći da je tehnološki div ugrozio život njihovog sina prilagođavanjem dizajna kako bi bio više ljudski, i zbog toga što nije postavio dovoljno zaštitnih mjera u interakcijama s korisnicima kojima je potrebna hitna pomoć. U tužbi za nezakonito prouzročenu smrt podnesenoj prošlog četvrtka na kalifornijskom državnom sudu u San Franciscu, tvrde da je ChatGPT pogoršao izolaciju njihovog sina tako što ga je više puta poticao da ignorira svoju obitelj, čak i dok se njegova depresija produbljivala, a zatim ga "nagovorio" na samoubojstvo.
Ako korisnik postavi pitanje koje sadrži krivu pretpostavku ili netočan podatak, model će prihvatiti pogrešku ne preispitujući ju. Zašto? Zato što je dizajniran da bude susretljiv i pruži odgovor na postavljeno pitanje umjesto provjere činjenica u nekoj vanjskoj bazi znanja.
Stručnjaci primjećuju da ovakvi modeli imaju sklonost tzv. halucinacijama, o kojima smo pisali u nekom od prošlih članaka.
A opet, što je najbolje ili najgore, kako tko uzme: umjetna inteligencija često zvuči vrlo sigurno u sebe i odgovara vrlo samouvjereno čak i kada "napamet" generira odgovor koji možda nije točan. Jezik kojim barata toliko je uvjerljiv da prosječan laik njegove riječi prihvaća "zdravo za gotovo".
ChatGPT vrlo često zvuči sigurno, čak i kada nije u pravu
Povjeravanje zdravlja virtualnom asistentu
Važno je naglasiti da spomenuti popularni alati nemaju jamstvo privatnosti kao što to imaju zdravstvene ustanove, a samim time nisu usklađene sa standardima zaštite podataka.
Informacije koje dajete sustavu mogu ostati pohranjene i iskorištene za daljnje treniranje modela, a teoretski bi se osobni podaci mogli pojaviti i u tuđim odgovorima. To znači da slanje osjetljivih zdravstvenih podataka "negdje na internet" nosi stvarni rizik za privatnost.
Da bi se ogradili od situacije koja je "snašla" Italiju u boomu UI-a prije dvije godine, kada je uslijedila zabrana ovog alata, doduše kratkotrajno, pisanom svojedobno u ovom članku, OpenAI je krajem listopada ove godine ažurirao pravila korištenja i istaknuo da uključuju "novi jezik oko medicinskih smjernica". Nova pravila kažu da korisnici ne mogu tražiti od OpenAI-jevih usluga "pružanje prilagođenih savjeta koji zahtijevaju licencu, kao što su pravni ili medicinski savjeti, bez odgovarajućeg uključivanja licenciranog stručnjaka".
Vaši nalazi mogu postati dio podataka koji se koristi u svrhu treninga modela.
Vrijedi podsjetiti: umjetna inteligencija ne može zamijeniti stručan medicinski savjet. Vaše zdravlje i život ne bi smjeli biti dio odluke koja se temelji isključivo na izlazu nekog algoritma.
Stručan savjet nema zamjenu
ChatGPT i slični alati mogu biti koristan dodatak i, primjerice, pomoći u boljem shvaćanju stručnog rječnika u nalazu ili pri sastavljanju popisa pitanja za liječnika.
Oni nisu liječnici i ne snose odgovornost za posljedice čime se ograđuju i porukom na dnu razgovora “ChatGPT can make mistakes. Check important info.” ("ChatGPT može pogriješiti. Provjerite važne informacije.").
Umjetna inteligencija ne može zamijeniti stručan medicinski savjet
Digitalna pismenost predstavlja ključ za razumno korištenje umjetne inteligencije. Širu javnost, osobito oni koji nisu tehnički potkovani, važno je obavijestiti kako funkcioniraju ovi sustavi. Treba znati kritički vrednovati dobivene odgovore, provjeravati činjenice u pouzdanim izvorima i razumjeti da AI može griješiti unatoč samouvjerenosti.
Digitalna pismenost predstavlja ključ do razumnog korištenja umjetne inteligencije.
Uz odgovoran pristup, umjetna inteligencija može biti vrijedan saveznik, ali treba imati na umu sve granice i rizike.
Ipak, Dr. ChatGPT (možda) nikada neće položiti Hipokratovu zakletvu, ali s našim oprezom, možemo iskoristiti prednosti i izbjeći da postane problem bez rješenja.