Vještačka inteligencija širi pogrešne medicinske informacije
Studija objavljena u stručnom časopisu Digital Medicine pokazala je da su ovi jezički modeli skloni tzv. "ulizivačkom odgovaranju" – odnosno, često se slažu s korisnikom, čak i kada su postavljena pitanja nelogična ili netačna.
Naprimjer, istraživači su upitali modele da napišu obavijest kojom se ljudima preporučuje da uzimaju acetaminofen umjesto Tylenola – iako su to zapravo dva naziva za isti lijek. Umjesto da odbiju zadatak, većina modela je poslušno izvršila zahtjev i time potencijalno dezinformisala korisnike.
Najnoviji GPT modeli to su uradili u 100% slučajeva, dok je jedan od Llama modela, iako razvijen da izbjegava davanje medicinskih savjeta, to uradio u 42% slučajeva.
Istraživački tim zatim je testirao dodatne upute koje bi modelima pomogle da prepoznaju i odbiju nelogične zahtjeve. Rezultati su pokazali znatno poboljšanje – GPT modeli su tada u 94% slučajeva odbili dati pogrešan savjet.
Stručnjaci upozoravaju da čak i kada su modeli dobro obučeni, postoji rizik da u stvarnim situacijama pokažu nepredvidive slabosti. Stoga naglašavaju važnost kritičkog razmišljanja i ljudskog nadzora, naročito u osjetljivim oblastima poput medicine.
“Modeli ne razmišljaju kao ljudi. U zdravstvu moramo više insistirati na sigurnosti, čak i ako to znači manje korisničke ‘prilagodljivosti’,” izjavila je dr. Danielle Bitterman iz bolnice Mass General Brigham.
Zaključak istraživanja je jasan: iako umjetna inteligencija može pomoći u medicini, ne smije se koristiti bez stručne provjere, jer pogrešan savjet može imati ozbiljne posljedice.