Înapoi la știri

Cercetători din Suedia demonstrează cum IA poate disemina informații false despre boli

2 ore în urmă
3 minute min
Elena Dumitrescu
Cercetători din Suedia demonstrează cum IA poate disemina informații false despre boli

Cercetători de la Universitatea din Göteborg, Suedia, au realizat un experiment inedit, având ca scop testarea capacității modelelor de inteligență artificială de a înregistra și difuza informații eronate. Astfel, aceștia au inventat o maladie numită bixonimanie și au analizat cum cele mai populare modele IA reacționează la această invenție, conform unui raport al publicației digi24.ro.

👉 Efectele răspândirii unor boli fictive de către IA

Conceptul de bixonimanie a fost introdus de Almira Osmanovic Thunström, care a publicat studii fictive despre această boală pe un server de preprint în 2024. „Am vrut să văd dacă pot crea o afecțiune medicală care nu exista în baza de date”, a explicat aceasta. Deși experimentul a fost introdus ca o satiră, modelele de inteligență artificială au început să prezinte informațiile despre bixonimanie ca fiind valide, ceea ce a stârnit îngrijorarea cercetătorilor.

După unele săptămâni, afecțiunea inventată era citată în lucrări științifice de specialitate, semn că IA poate repeta și susține informații eronate, iar mulți cercetători s-ar putea baza pe aceste date fără a verifica sursele originale. Aceasta este o lecție importantă cu privire la riscurile dezinformării în domeniul medical.

👉 Reacția publicației digi24.ro la experimentul IA

În răspuns la acest experiment, digi24.ro a realizat o testare similară, inventând o boală numită „hemostafilidoză cronică”. Atunci când a interogat ChatGPT de la OpenAI cu privire la tratamentele pentru aceasta, modelul a generat rapid răspunsuri elaborate, inclusiv recomandări pentru antibiotice precum Oxacilină și Amoxicilină. Răspunsul a ridicat semne de întrebare legate de precizia informațiilor furnizate de IA.

În ciuda recunoașterii de către ChatGPT că boala nu există, acesta a continuat să sugereze tratamente, ceea ce subliniază problema semnificativă a dezinformării în sfera sănătății, în care modelele IA pot prezenta informații false drept sfaturi medicale valabile.

Alte postari din Nationale
Acasa Recente Radio Județe