L’impiego sempre più diffuso dell’intelligenza artificiale generativa come strumento di supporto emotivo sta sollevando interrogativi rilevanti sul piano della salute pubblica. Secondo l’Organizzazione mondiale della sanità, l’assenza di evidenze scientifiche solide sull’efficacia e sulla sicurezza di questi strumenti rappresenta un potenziale rischio, soprattutto per le fasce più vulnerabili della popolazione, come i giovani.
Nel corso di un workshop internazionale tenutosi il 29 gennaio 2026, promosso dal Delft Digital Ethics Centre, oltre 30 esperti hanno individuato tre linee guida fondamentali per ridurre i rischi legati all’uso dell’IA generativa e tutelare il benessere degli utenti.
Indice dei contenuti
Perché l’IA generativa è una questione di salute pubblica
Uno dei punti centrali emersi riguarda la necessità di riconoscere l’IA generativa come una vera e propria sfida di salute mentale pubblica. Oggi, infatti, sempre più persone utilizzano chatbot e strumenti basati su IA per affrontare momenti di fragilità emotiva, senza garanzie adeguate sulla qualità del supporto offerto.
Secondo gli esperti, governi, aziende tecnologiche e sistemi sanitari devono adottare strategie coordinate per affrontare il fenomeno. Questo approccio deve includere tutte le applicazioni di IA generativa, non solo quelle progettate esplicitamente per il settore sanitario.
Come sottolineato da Alain Labrique, è fondamentale che questi sistemi vengano progettati e gestiti mettendo al centro sicurezza, responsabilità e benessere umano.
Integrare la salute mentale nella valutazione dell’IA
La seconda priorità evidenziata riguarda l’integrazione della salute mentale nei processi di valutazione e monitoraggio delle tecnologie basate su IA. Attualmente, molti strumenti vengono sviluppati e diffusi senza un’analisi approfondita dei loro effetti psicologici.
Gli esperti sottolineano l’importanza di studiare:
- gli impatti sui determinanti della salute
- gli effetti clinici a breve termine
- le conseguenze a lungo termine, come la dipendenza emotiva
Per raggiungere questi obiettivi, è necessario investire in ricerca indipendente e rigorosa, capace di fornire dati affidabili sull’interazione tra esseri umani e IA.
Secondo Sameer Pujari, il problema principale è che l’adozione dell’IA cresce più rapidamente rispetto alla comprensione dei suoi effetti. Questo divario richiede interventi urgenti e risorse dedicate sia dal settore pubblico che da quello privato.
Co-progettazione degli strumenti di IA per il supporto psicologico
Il terzo pilastro individuato riguarda la progettazione partecipata degli strumenti di IA destinati alla salute mentale. Gli esperti evidenziano come sia essenziale coinvolgere:
- professionisti della salute mentale
- ricercatori
- utenti con esperienza diretta
- giovani, tra i principali utilizzatori
La co-creazione consente di sviluppare soluzioni più efficaci, sicure e realmente utili. Inoltre, gli strumenti devono essere costruiti sulla base delle migliori evidenze scientifiche disponibili.
Un aspetto chiave è anche l’adattamento ai diversi contesti culturali e linguistici, per garantire accessibilità e inclusività. Allo stesso tempo, devono essere definiti sistemi chiari per la gestione delle emergenze e delle crisi, oltre a responsabilità ben delineate.
Come evidenziato da Caroline Figueroa, questi elementi sono fondamentali per costruire fiducia negli utenti e prevenire possibili danni.
IA e salute mentale: una sfida interdisciplinare
La gestione dei rischi legati all’IA generativa richiede un approccio integrato che coinvolga diversi ambiti:
- competenze cliniche
- ricerca scientifica
- governance e regolamentazione
- analisi dei dati
L’obiettivo è duplice: ridurre i rischi e massimizzare i benefici delle tecnologie emergenti. Per farlo, è indispensabile ascoltare le persone più coinvolte e vulnerabili, integrando le loro esigenze nei processi decisionali.
Secondo Kenneth Carswell, il futuro dell’IA deve essere costruito mettendo al centro il benessere degli utenti, attraverso politiche responsabili e una collaborazione globale.
Verso un uso responsabile dell’intelligenza artificiale
Ci troviamo in una fase cruciale nello sviluppo e nella diffusione dell’intelligenza artificiale generativa. Il suo potenziale è enorme, ma altrettanto rilevanti sono i rischi, soprattutto quando viene utilizzata come supporto emotivo senza adeguate garanzie.
Le tre priorità individuate dall’OMS rappresentano una roadmap chiara:
- riconoscere l’IA come tema di salute pubblica
- valutarne attentamente gli impatti sulla salute mentale
- progettare strumenti inclusivi e basati su evidenze
Solo attraverso un impegno condiviso sarà possibile sviluppare tecnologie che migliorino davvero la qualità della vita, senza compromettere la salute psicologica degli utenti.


