

I chatbot medici sbagliano nel 70% dei casi
Studio sulle 'allucinazioni' che portano a diagnosi errate
Arrivano a toccare il 70% le risposte errate nei chatbot: lo svela uno studio pubblicato sull'European Journal of Pathology, che ha ricevuto uno dei quattro premi assegnati dall'ordine dei medici di Milano dedicati a Roberto Anzalone, figura storica della medicina milanese. Su 200 domande l'IA ha risposto con almeno un errore in circa il 70% dei casi e con riferimenti bibliografici non accurato o addirittura inesistenti in circa il 30% dei casi. Lo studio arriva alla conclusione che resta ancora insostituibile "l'occhio clinico del patologo, e come l'intelligenza artificiale debba essere considerata un utile supporto, ma non un sostituto della competenza umana". "Il nostro progetto, nato nel 2023 - chiarisce Vincenzo Guastafierro, specializzando in Anatomia Patologica presso l'Istituto Clinico Humanitas, della Humanitas University di Rozzano - ha voluto stimare i rischi legati all'uso di strumenti di Intelligenza Artificiale nella pratica clinica, in particolare dei chatbot utilizzate come supporto all'attività diagnostica e come strumento per l'apprendimento. Abbiamo sottoposto all'IA veri e propri quesiti clinici su diverse sotto specialità, evidenziando errori di risposta in circa il 70% dei casi e riferimenti bibliografici inaccurati o inesistenti in circa il 30% dei casi. Si tratta dunque di strumenti che vanno usati con estrema cautela, perché possono indurre decisioni diagnostiche inappropriate con impatto negativo sulle scelte terapeutiche". Nello studio i ricercatori hanno creato cinque scenari clinici, simulando un medico patologo che utilizza ChatGpt per affinare le sue diagnosi con 200 domande.
F.Alonso--GBA