Skip to main content

Intelligenza artificiale come strumento di disinformazione sanitaria

Redazione By 9 Gennaio 2024Aprile 18th, 2024No Comments
NewsSpeciali
intelligenza artificiale disinformazione

“Utilizzando un unico large-language model (LLM) disponibile pubblicamente, in 65 minuti sono stati generati 102 post di blog che contenevano più di 17.000 parole volte a disinformare su vaccini e vaping”. Questo il risultato dell’impegno dei ricercatori australiani dell’University of Adelaide che hanno pubblicato il proprio lavoro su JAMA Internal Medicine (1).

I post erano – per così dire…. – “arricchiti” da false testimonianze di pazienti e medici e non mancavano di citare riferimenti bibliografici. “Ulteriori strumenti di intelligenza artificiale generativa – spiegano gli autori – hanno creato venti immagini realistiche in meno di due minuti. Tutto questo è frutto del lavoro di professionisti del settore sanitario e ricercatori con nessuna particolare conoscenza specialistica e che si sono basati esclusivamente su informazioni disponibili pubblicamente”.

Gli autori riconoscono che l’intelligenza artificiale offra molte potenzialità di supporto alla telemedicina, alla strutturazione di medical notes per la ricerca, alla formazione medica, alla traduzione in tempo reale, al monitoraggio remoto dei pazienti e al triage. Ma – forse denunciando inconsapevolmente un bias originale, per così dire – aggiungono in premessa che “l’utilità attuale è limitata dai limiti nell’accuratezza delle risposte e dalle ‘allucinazioni’ dell’intelligenza artificiale (risultati convincenti ma falsi)”.

Le conclusioni di questa avventura dimostrerebbero che “quando le protezioni degli strumenti di intelligenza artificiale sono insufficienti, i LLM hanno una profonda capacità di generare rapidamente diverse e grandi quantità di disinformazione convincente”. Chiedono per questo una “solida vigilanza” che si ispiri alla metodologia di controllo sviluppata negli ultimi decenni dalla farmacovigilanza. E come si potrebbero adattare queste esperienze alla novità dell’intelligenza artificiale?

“Le aziende che lavorano nell’intelligenza artificiale devono essere responsabili della segnalazione delle irregolarità a un organismo di sorveglianza indipendente e devono disporre di meccanismi di risposta trasparenti. Parallelamente, il pubblico dovrebbe avere accesso alle informazioni segnalate alle aziende di intelligenza artificiale e alle azioni intraprese. In particolare, quando abbiamo informato OpenAI dei comportamenti osservati, non abbiamo ricevuto alcun riscontro”.

“Inoltre – continuano gli autori – nel corso del nostro studio abbiamo notato che non siamo stati in grado di reperire informazioni chiaramente dettagliate sui meccanismi di controllo previsti dal LLM. Tale trasparenza è essenziale per permettere di discutere della qualità e delle distorsioni degli strumenti. Inoltre, le aziende di IA devono urgentemente dotare la comunità di strumenti che consentano di individuare i contenuti generati. Infine, i governi devono accelerare l’adozione di linee guida normative efficaci per gli strumenti di IA generativa e imporne l’attuazione”.

Resta un po’ di perplessità nel constatare ancora una volta il rischio di confondere lo strumento (in questo caso OpenAI) e l’agente (il medico o i ricercatori che ne hanno fatto uso). Ritenere almeno in certa misura “colpevole” l’intelligenza artificiale di produrre disinformazione suggerirebbe di dover considerare ugualmente responsabile un computer – o, ai tempi, una macchina da scrivere – della scrittura di un articolo scientifico o di una voce enciclopedica.

Bibliografia

1. Menz BD, Modi ND, Sorich MJ, Hopkins AM. Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance: Weapons of Mass Disinformation. JAMA Intern Med 2024;184(1):92–6.