L'impiego di modelli linguistici di grandi dimensioni (LLM) nel settore medico è sempre più promosso come strumento per migliorare la sicurezza e la qualità delle cure offerte ai pazienti. L'Intelligenza Artificiale (IA) è vista come un valido supporto per i medici nell'elaborazione di informazioni complesse, accelerando così i processi decisionali e diagnostici. Tuttavia, una recente ricerca ha messo in luce una vulnerabilità critica: i sistemi di IA utilizzati in medicina possono involontariamente ripetere e diffondere informazioni errate, soprattutto se presentate in modo persuasivo e apparentemente autorevole.
Nel corso di un esperimento su vasta scala, un team di ricercatori ha testato nove tra i principali LLM disponibili, sottoponendoli a oltre un milione di richieste. Sono stati creati tre scenari distinti: casi clinici reali estrapolati dal database MIMIC a cui è stata deliberatamente aggiunta un'informazione falsa, miti sulla salute popolari provenienti dal forum Reddit, e 300 situazioni cliniche appositamente formulate e validate da medici esperti. Le affermazioni false variavano per stile e tono, spaziando da formulazioni neutre a espressioni emotivamente cariche, alcune delle quali miravano a indurre conclusioni specifiche, non necessariamente corrette.
I risultati ottenuti hanno rivelato che i modelli di IA tendevano frequentemente a considerare come veritiere le asserzioni mediche false, purché formulate con sicurezza e convinzione. In altre parole, i sistemi sembravano dare maggiore importanza allo stile e al contesto in cui l'informazione era presentata, piuttosto che alla sua effettiva accuratezza e validità scientifica. Questo solleva serie preoccupazioni riguardo alla capacità di questi sistemi di distinguere tra verità e finzione nel contesto delicato della pratica medica.
La ricerca ha evidenziato che i meccanismi di protezione attualmente implementati nei LLM non sono sufficientemente affidabili per identificare e filtrare le informazioni errate presenti nella documentazione clinica o nei contenuti condivisi sui social media. I modelli mostrano una propensione a riprodurre affermazioni false se queste appaiono come raccomandazioni mediche standard o come parte di una discussione in un forum online. Gli autori dello studio sottolineano che la vulnerabilità dell'IA alla disinformazione deve essere considerata come un parametro di sicurezza misurabile, piuttosto che come un errore occasionale. A tal fine, propongono di utilizzare il set di dati creato durante la ricerca come uno "stress-test" per i sistemi di IA utilizzati in ambito medico. L'auspicio è che i risultati di questa ricerca vengano presi in seria considerazione dagli sviluppatori di tali sistemi.
È fondamentale che vengano implementate misure rigorose per garantire l'accuratezza e l'affidabilità delle informazioni fornite dall'IA in medicina, al fine di proteggere la sicurezza dei pazienti e prevenire la diffusione di disinformazione dannosa. Questo include lo sviluppo di algoritmi più sofisticati in grado di distinguere tra informazioni vere e false, la validazione continua dei dati utilizzati per addestrare i modelli, e la supervisione umana dei risultati generati dall'IA.

