Gentile Direttore,
negli ultimi mesi il dibattito sull’intelligenza artificiale applicata alla salute mentale si è intensificato notevolmente. Il lancio di ChatGPT Health — già disponibile in alcuni paesi e in lista d’attesa per l’Unione Europea — ha portato la questione dalla nicchia accademica alla quotidianità di milioni di persone. E con essa, una domanda ineludibile per noi professionisti sanitari, in particolare psicologi: vogliamo contribuire attivamente alla definizione del quadro regolatorio, o lasciare che altri lo facciano al nostro posto?
La risposta istintiva di parte della categoria è stata difensiva — come storicamente accaduto ogni volta che una nuova tecnologia ha bussato alla porta della pratica professionale. Parte di questa difesa è ragionevolmente fondata: la relazione con uno psicologo non è un mero scambio di informazioni, ma un processo trasformativo fondato sul rapporto umano. Empatia, sintonizzazione, lettura dei segnali non verbali, responsabilità clinica sono dimensioni che nessun sistema generativo attuale riesce a replicare.
Una recente analisi della Brown University conferma che questi strumenti non soddisfano gli standard delle principali associazioni psicologiche internazionali. Eppure ridurre la questione a una difesa del perimetro sarebbe un errore strategico. Secondo una ricerca di Save The Children, il 41,8% degli adolescenti intervistati ha chiesto aiuto a strumenti di IA in momenti di tristezza o ansia; il 42,3% si è rivolto a questi strumenti per decisioni di vita importanti — sentimentali, scolastiche.
Il problema reale non è la tecnologia in sé, ma l’assenza di una cornice: app di supporto non validate proliferano negli store senza alcun obbligo di trasparenza, mentre chatbot generalisti gestiscono crisi acute senza presidio clinico. I dati più sensibili che esistano — confessioni, disagi, traumi — vengono condivisi con sistemi privi di segreto professionale e di codici etici comparabili a quelli di un professionista.
L’AI Act europeo fornisce una base normativa, ma la sua applicazione concreta alla salute mentale richiede un contributo tecnico autorevole che solo la professione psicologica può offrire. Come ENPAP, stiamo lavorando in questa direzione: con una riflessione aperta nella comunità professionale, con percorsi formativi dedicati a un utilizzo consapevole e responsabile dell’IA nella pratica professionale, e con l’obiettivo di trasformare le resistenze difensive in capacità di governo del cambiamento.
Il ciclo di webinar “Telepsicologia e Intelligenza Artificiale”, avviato a febbraio, è il primo percorso formativo costruito a partire dall’ascolto diretto degli iscritti: un questionario sui bisogni formativi della categoria aveva indicato questo ambito come prioritario, e da quelle risposte siamo partiti. Il prossimo appuntamento sarà dedicato al rapporto tra intelligenza artificiale e psicologia; seguirà un ultimo incontro sul setting online e le questioni teoriche e pratiche delle terapie a distanza. Tutti gli incontri saranno disponibili in area riservata per chi non ha potuto partecipare in diretta.
La tecnologia può essere un alleato — per la salute delle persone e per lo sviluppo della professione. A patto che, come comunità, ci assumiamo la responsabilità di definire le regole del gioco.
Ada Moscarella
Consigliera ENPAP