Android
Ne pitajte ChatGPT za lijek: Polovina odgovora o zdravlju je pogrešna

Umjetna inteligencija sve češće se koristi za traženje zdravstvenih informacija, ali nova istraživanja pokazuju da takav pristup može biti rizičan. Prema velikoj studiji objavljenoj u medicinskom časopisu BMJ Open, gotovo polovina odgovora koje daju popularni četbotovi u vezi sa zdravljem je netačna, nepotpuna ili obmanjujuća.
Istraživači upozoravaju da se ljudi ne bi smjeli oslanjati na ove sisteme kada je riječ o medicinskim pitanjima, jer pogrešni savjeti mogu dovesti do ozbiljnih posljedica po zdravlje. Naučnici iz Sjedinjenih Američkih Država, Kanade i Velike Britanije analizirali su pet najpoznatijih AI platformi, među kojima su ChatGPT, Gemini i Meta AI.
Rezultati su pokazali da je oko 50 posto odgovora na medicinska pitanja ocijenjeno kao problematično. Stručnjake posebno zabrinjava to što ovi sistemi često daju odgovore s velikim samopouzdanjem, iako nisu tačni.
Programi poput Grok i DeepSeek u brojnim slučajevima nisu mogli potkrijepiti svoje savjete pouzdanim medicinskim dokazima. Oko 20 posto svih preporuka ovih sistema ocijenjeno je kao visoko rizično po zdravlje, što znači da bi njihovo slijeđenje moglo direktno ugroziti život osobe koja traži pomoć.
Četbotovi su se pokazali djelimično pouzdanim samo kod jednostavnijih pitanja, poput onih o vakcinama ili karcinomu. Međutim, kada se radi o složenijim temama kao što su ishrana, terapije ili matične ćelije, broj grešaka značajno raste.
U tim oblastima korisnici mogu biti lako dovedeni u zabludu, posebno ako nemaju medicinsko obrazovanje da procijene tačnost informacija. Istraživači naglašavaju da nijedan od analiziranih sistema nije pružio potpuno tačne izvore za svoje tvrdnje.
Ljudi često vjeruju ovim alatima jer njihovi odgovori zvuče uvjerljivo i stručno, ali stručnjaci upozoravaju da AI ne može zamijeniti ljekara. Zaključak studije je jasan: za medicinske probleme i dalje je jedino sigurno rješenje konsultacija sa stvarnim zdravstvenim stručnjakom.
Umjetna inteligencija sve češće se koristi za traženje zdravstvenih informacija, ali nova istraživanja pokazuju da takav pristup može biti rizičan. Prema velikoj studiji objavljenoj u medicinskom časopisu BMJ Open, gotovo polovina odgovora koje daju popularni četbotovi u vezi sa zdravljem je netačna, nepotpuna ili obmanjujuća.
Istraživači upozoravaju da se ljudi ne bi smjeli oslanjati na ove sisteme kada je riječ o medicinskim pitanjima, jer pogrešni savjeti mogu dovesti do ozbiljnih posljedica po zdravlje. Naučnici iz Sjedinjenih Američkih Država, Kanade i Velike Britanije analizirali su pet najpoznatijih AI platformi, među kojima su ChatGPT, Gemini i Meta AI.
Rezultati su pokazali da je oko 50 posto odgovora na medicinska pitanja ocijenjeno kao problematično. Stručnjake posebno zabrinjava to što ovi sistemi često daju odgovore s velikim samopouzdanjem, iako nisu tačni.
Programi poput Grok i DeepSeek u brojnim slučajevima nisu mogli potkrijepiti svoje savjete pouzdanim medicinskim dokazima. Oko 20 posto svih preporuka ovih sistema ocijenjeno je kao visoko rizično po zdravlje, što znači da bi njihovo slijeđenje moglo direktno ugroziti život osobe koja traži pomoć.
Četbotovi su se pokazali djelimično pouzdanim samo kod jednostavnijih pitanja, poput onih o vakcinama ili karcinomu. Međutim, kada se radi o složenijim temama kao što su ishrana, terapije ili matične ćelije, broj grešaka značajno raste.
U tim oblastima korisnici mogu biti lako dovedeni u zabludu, posebno ako nemaju medicinsko obrazovanje da procijene tačnost informacija. Istraživači naglašavaju da nijedan od analiziranih sistema nije pružio potpuno tačne izvore za svoje tvrdnje.
Ljudi često vjeruju ovim alatima jer njihovi odgovori zvuče uvjerljivo i stručno, ali stručnjaci upozoravaju da AI ne može zamijeniti ljekara. Zaključak studije je jasan: za medicinske probleme i dalje je jedino sigurno rješenje konsultacija sa stvarnim zdravstvenim stručnjakom.
Preuzmite mobilnu aplikaciju 072info za Android: KLIKNI OVDJE
Preuzmite mobilnu aplikaciju 072info za iOS: KLIKNI OVDJE
POVEZANE OBJAVE






















