L'intelligenza artificiale (IA) si sta rivelando uno strumento strategico per supportare le autorità sanitarie pubbliche, soprattutto nella comunicazione del rischio e nella lotta contro la disinformazione durante le emergenze sanitarie. Ma non è una bacchetta magica. Se non gestita con attenzione e responsabilità, può generare più problemi di quelli che risolve.

Un recente studio pubblicato su BMJ Global Health, frutto della collaborazione tra l'Università di Zurigo e l'Organizzazione Mondiale della Sanità – Ufficio Regionale per l'Europa (Oms/Europa), ha coinvolto 54 esperti da 27 paesi e ha affrontato in modo approfondito il ruolo dell'IA nella comunicazione del rischio, nel coinvolgimento della comunità e nella gestione dell'infodemia (RCCE-IM) durante le emergenze sanitarie.


IA: un potenziale da non sprecare

Il messaggio è chiaro: l'IA può migliorare notevolmente la capacità delle autorità sanitarie di trasmettere messaggi mirati a specifici gruppi di popolazione, ascoltare in tempo reale le preoccupazioni del pubblico e rendere le comunicazioni sanitarie più inclusive, soprattutto in contesti multilingue, multiculturali o svantaggiati.

Non è un dettaglio secondario: in situazioni di crisi, dove l'incertezza regna sovrana e le informazioni circolano rapidamente, l'abilità di adattare il messaggio al contesto può fare la differenza tra prevenzione efficace e caos informativo. In questo, l'IA può fare molto meglio di qualsiasi approccio manuale.


Ma i rischi sono reali

Tuttavia, il potenziale dell'IA va maneggiato con cautela. Lo studio non si limita a cantarne le lodi: mette in guardia contro le distorsioni algoritmiche, la violazione della privacy e il rischio di aumentare le disuguaglianze sanitarie.

Se le tecnologie vengono applicate senza attenzione o con dati sbilanciati, gli effetti collaterali possono essere gravi. Comunità vulnerabili possono essere danneggiate da messaggi non adeguatamente calibrati, o peggio, l'IA può finire per amplificare proprio quelle fake news che dovrebbe contrastare.

Cristiana Salvi, consulente dell'Oms/Europa, non usa mezzi termini: “Abbiamo visto con quanta rapidità le informazioni false possano diffondersi in situazioni di emergenza. L'IA può aiutare a contrastarle, ma non può sostituire la fiducia. L'innovazione deve servire la sicurezza pubblica, non comprometterla”.


Serve una strategia globale e condivisa

Secondo Daniela Mahl, ricercatrice dell'Università di Zurigo e coautrice dello studio, “il confine tra innovazione e danno è sottile”. E ha ragione. Non basta adottare tecnologie di ultima generazione: servono principi guida solidi, governance trasparente e una collaborazione intersettoriale che coinvolga sanità, tecnologia, istituzioni e comunità locali.

Lo studio propone misure concrete: formazione per gli operatori sanitari, applicazioni inclusive e accessibili, e una governance internazionale coordinata per garantire che gli strumenti di IA siano efficaci e culturalmente adattabili.


L'IA non è (ancora) un salvagente automatico

David Novillo Ortiz dell'Oms/Europa chiude il cerchio: “Non si tratta solo di un aggiornamento tecnico. Dobbiamo ripensare radicalmente come progettiamo e implementiamo questi strumenti. Solo così le intuizioni generate dall'IA potranno diventare azioni tempestive ed etiche sul campo”.

In sintesi, l'IA ha il potenziale per cambiare il modo in cui affrontiamo le emergenze sanitarie. Ma non è una scorciatoia. È una sfida che richiede lucidità, collaborazione e – soprattutto – etica. Senza questi elementi, rischiamo di trasformare uno strumento utile in un'arma a doppio taglio.