Znanstvenici uhvatili ChatGPT da “halucinira” informacije o raku dojke te da koristi nevažeće preporuke

Foto: Tom's Guide

Nova studija otkrila je da ChatGPT izmišlja zdravstvene podatke kada se od njega traže informacije o raku. Liječnici stoga upozoravaju korisnike da ne traže medicinske savjete od umjetne inteligencije, prenosi zimo.hr.

AI chatbot tvrtke OpenAI krivo je odgovorio na jedno od deset pitanja o raku dojke, a njegovi točni odgovori nisu bili tako sveobuhvatni, poput onih koji se mogu pronaći jednostavnom Google pretragom. Autori studije su naglasili da je u nekim slučajevima ChatGPT čak koristio lažne članke iz časopisa kako bi potkrijepio svoje tvrdnje.

Novo istraživanje dolazi usred upozorenja da bi korisnici trebali oprezno postupati s ChatGPT-om, jer ima tendenciju “halucinirati”, odnosno izmišljati stvari. Objavljeno je u znanstvenom časopisu Radiology.

Znanstvenici s Medicinskog fakulteta Sveučilišta u Marylandu zamolili su ChatGPT da odgovori na 25 pitanja vezanih uz savjete o pregledu za rak dojke. Svako pitanje postavili su ChatGPT-u tri odvojena puta. Rezultate su potom analizirala tri radiologa obučena za mamografiju.

Odgovori na pitanja o raku dojke

88 posto dobivenih odgovora bili su primjereni i lako razumljivi, no neki su odgovori, međutim, bili ‘netočni ili čak izmišljeni’, upozorili su autori nove studije.

Jedan se odgovor, primjerice, temeljio na zastarjelim informacijama. U tom odgovoru ChatGPT je savjetovao odgodu mamografije na četiri do šest tjedana nakon cijepljenja protiv COVID-19, no ta je službena preporuka promijenjena prije više od godinu dana, kako bi se ženama preporučilo da više ne čekaju.

ChatGPT je također dao nedosljedne odgovore na pitanja o riziku od dobivanja raka dojke i gdje otići na mamografiju. Studija je pokazala da su se odgovori ‘značajno razlikovali’ svaki put kada bi se postavilo isto pitanje.