Chatbot e diagnosi mediche: un'analisi rivela margini d'errore elevati

Uno studio dimostra che i chatbot, pur utili per l'informazione, falliscono nell'80% dei casi quando devono diagnosticare patologie con dati limitati

Chatbot e diagnosi mediche: un'analisi rivela margini d'errore elevati

L'utilità dei chatbot nel fornire informazioni rapide è innegabile, ma la loro capacità di diagnosticare accuratamente condizioni mediche, soprattutto con dati limitati, si rivela problematica.

Lo studio ha utilizzato 29 descrizioni di casi clinici reali, tratte dalla letteratura medica, per valutare la precisione diagnostica di diversi chatbot. I risultati hanno mostrato che, quando alimentati con informazioni parziali sui sintomi, i modelli linguistici di grandi dimensioni (LLM) hanno difficoltà a identificare i possibili disturbi, spesso limitandosi a una singola opzione diagnostica che potrebbe non essere affidabile per il trattamento.

Durante l'esperimento, i dati medici sono stati forniti ai chatbot in diverse fasi, includendo l'anamnesi del paziente, i risultati degli esami fisici e gli esami di laboratorio. Ai chatbot sono state poste domande relative alla diagnosi, misurando l'accuratezza e la completezza delle risposte. Sono stati testati circa venti chatbot, tra cui quelli sviluppati da OpenAI, Anthropic, Google, xAI e DeepSeek. In assenza di informazioni complete sullo stato del paziente, più dell'80% dei chatbot ha mostrato una tendenza a formulare diagnosi errate. La precisione è aumentata con la quantità di informazioni fornite, superando il 90% nei casi migliori, mentre la percentuale di diagnosi errate scendeva sotto il 40% quando i dati erano più completi.

Google e Anthropic hanno dichiarato che i loro chatbot, quando utilizzati per ottenere consigli medici, raccomandano vivamente agli utenti di consultare un medico specialista. OpenAI specifica nelle condizioni d'uso dei suoi servizi che questi non devono essere utilizzati per ottenere pareri medici che richiedano una licenza professionale. xAI e DeepSeek non hanno rilasciato commenti al Financial Times.

Alcuni sviluppatori stanno creando modelli medici specializzati. AMIE, sviluppato da Google, mostra risultati promettenti, ma la sua affidabilità è ancora oggetto di dibattito tra gli esperti, poiché un medico si basa anche sulla valutazione visiva del paziente. Tuttavia, questi modelli di Intelligenza Artificiale potrebbero essere utili in aree con difficoltà di accesso all'assistenza medica tradizionale.

È fondamentale sottolineare che, nonostante i progressi dell'IA, la diagnosi medica rimane un processo complesso che richiede competenze mediche, capacità di analisi critica e una profonda comprensione del paziente. I chatbot possono essere strumenti utili per l'informazione e il supporto, ma non possono sostituire il giudizio di un professionista sanitario qualificato. La Food and Drug Administration (FDA) sta iniziando a regolamentare l'uso dell'IA in medicina, con un focus particolare sulla trasparenza e sulla validazione clinica. L'obiettivo è garantire che queste tecnologie siano utilizzate in modo sicuro ed efficace, a supporto dei medici e a beneficio dei pazienti.

Pubblicato Martedì, 14 Aprile 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Martedì, 14 Aprile 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti