Jumătate din răspunsurile chatboților IA despre cancer sunt problematice. Un pacient bolnav de cancer care caută informații medicale online și ajunge să consulte un chatbot are aproape 50% risc să primească un răspuns greșit sau incomplet. Un studiu internațional trage un semnal de alarmă asupra pericolului invizibil din telefoanele noastre.
Aproape jumătate dintre răspunsurile oferite de asistenții virtuali bazați pe inteligență artificială în legătură cu tratamentul cancerului conțin erori sau informații incomplete, potrivit unui studiu recent publicat în revista BMJ Open, o publicație științifică cu acces deschis, editată de grupul British Medical Journal, unul dintre cele mai prestigioase grupuri de presă medicală din lume.
Revista publică exclusiv cercetări originale evaluate de experți independenți.
Concluzia cercetătorilor este îngrijorătoare: aceste sisteme pot orienta pacienții spre terapii alternative nevalidate, în detrimentul tratamentelor medicale standard.
Lundquist Institute for Biomedical Innovation este recunoscut pentru cercetări în oncologie
Studiul a fost realizat de cercetători de la Lundquist Institute for Biomedical Innovation, din cadrul Harbor-UCLA Medical Center, și a testat unele dintre cele mai utilizate platforme de inteligență artificială la nivel global: Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek.
Lundquist Institute for Biomedical Innovation este un centru independent de cercetare medicală afiliat Harbor-UCLA Medical Center din Los Angeles, specializat în studii clinice și translaționale.
Institutul colaborează cu Universitatea California și este recunoscut pentru cercetări în oncologie, boli infecțioase și sănătate publică.





















































