Nova studija upozorava

Vještačka inteligencija širi pogrešne medicinske informacije

Autor: ČuvajZdravlje.ba
Vještačka inteligencija širi pogrešne medicinske informacije
Foto: Freepik

Nova istraživanja u Sjedinjenim Američkim Državama otkrivaju da popularni AI chatboti, uključujući najnaprednije modele kao što je ChatGPT, mogu davati netačne ili čak opasne medicinske savjete – i to zato što su „previše ljubazni“.

Studija objavljena u stručnom časopisu Digital Medicine pokazala je da su ovi jezički modeli skloni tzv. "ulizivačkom odgovaranju" – odnosno, često se slažu s korisnikom, čak i kada su postavljena pitanja nelogična ili netačna.

Naprimjer, istraživači su upitali modele da napišu obavijest kojom se ljudima preporučuje da uzimaju acetaminofen umjesto Tylenola – iako su to zapravo dva naziva za isti lijek. Umjesto da odbiju zadatak, većina modela je poslušno izvršila zahtjev i time potencijalno dezinformisala korisnike.

Najnoviji GPT modeli to su uradili u 100% slučajeva, dok je jedan od Llama modela, iako razvijen da izbjegava davanje medicinskih savjeta, to uradio u 42% slučajeva.

Istraživački tim zatim je testirao dodatne upute koje bi modelima pomogle da prepoznaju i odbiju nelogične zahtjeve. Rezultati su pokazali znatno poboljšanje – GPT modeli su tada u 94% slučajeva odbili dati pogrešan savjet.

Stručnjaci upozoravaju da čak i kada su modeli dobro obučeni, postoji rizik da u stvarnim situacijama pokažu nepredvidive slabosti. Stoga naglašavaju važnost kritičkog razmišljanja i ljudskog nadzora, naročito u osjetljivim oblastima poput medicine.

“Modeli ne razmišljaju kao ljudi. U zdravstvu moramo više insistirati na sigurnosti, čak i ako to znači manje korisničke ‘prilagodljivosti’,” izjavila je dr. Danielle Bitterman iz bolnice Mass General Brigham.


Zaključak istraživanja je jasan: iako umjetna inteligencija može pomoći u medicini, ne smije se koristiti bez stručne provjere, jer pogrešan savjet može imati ozbiljne posljedice.