Studim: Modelet e inteligjencës artificiale përhapin dezinformim mjekësor

Një studim i ri paralajmëron se ChatGPT dhe modele të tjera të inteligjencës artificiale mund të përhapin dezinformim mjekësor, veçanërisht kur informacioni i rremë paraqitet në një gjuhë të besueshme shkencore, transmeton Euronews.

Sipas gjetjeve të publikuara në The Lancet Digital Health, modelet e mëdha gjuhësore (LLM), të cilat përdoren gjithnjë e më shumë në kujdesin shëndetësor, mbeten të ndjeshme ndaj pretendimeve të pasakta që qarkullojnë në mediat sociale dhe në internet.

Studiuesit analizuan mbi një milion pyetje, duke testuar nëse modelet do të refuzonin apo do të përsërisnin deklarata të rreme mjekësore të formuluara në mënyrë bindëse. Rezultatet tregojnë se, mesatarisht, modelet u mbështetën në informacione të sajuara në rreth 32 përqind të rasteve.

Modelet më pak të përparuara i pranuan pretendimet e rreme në mbi 60 përqind të rasteve, ndërsa sistemet më të avancuara, si ChatGPT-4o, gabuan vetëm në rreth 10 përqind të rasteve. Studimi zbuloi gjithashtu se disa modele të specializuara mjekësore performuan më dobët se modelet e përgjithshme.

Autorët theksojnë se, megjithëse inteligjenca artificiale ka potencial të madh për të ndihmuar mjekët dhe pacientët, ajo ka nevojë për mekanizma më të fortë mbrojtës për të verifikuar pretendimet mjekësore përpara se të paraqiten si fakte.