Giornalismo e ComunicazioneIntervistaPsicologiaPsicoterapiaScienze Sociali e Umanistiche

IA e psicoterapia: impatto e sinergia

4.9/5 - (750 votes)

Roberto Milani intervista Tonino Cantelmi

Introduzione

Nell’epoca della trasformazione digitale, la medicina e la psicoterapia si trovano di fronte ad una delle sfide più radicali della loro storia: integrare l’innovazione tecnologica senza smarrire la componente umana della cura. In questo scenario complesso, in cui algoritmi, intelligenza artificiale e sistemi predittivi iniziano ad influenzare diagnosi, decisioni cliniche e relazioni terapeutiche, diventa fondamentale interrogarsi non solo su ciò che sia possibile fare, ma su ciò che sia giusto fare.

A guidarci in questa riflessione è Tonino Cantelmi, psichiatra e psicoterapeuta, da anni impegnato nell’intersezione tra salute mentale, etica ed innovazione. Con un’esperienza che abbraccia la formazione accademica, la pratica clinica ed il contributo nei principali organismi istituzionali e bioetici italiani — tra cui il Comitato Nazionale per la Bioetica e l’Istituto Nazionale per la Salute delle Popolazioni Migranti — Cantelmi rappresenta una delle voci più autorevoli nel dibattito contemporaneo sulla medicina del futuro: assieme a lui esploriamo il delicato equilibrio tra tecnologia ed umanità, il ruolo della relazione terapeutica in un mondo sempre più digitale e le nuove responsabilità a cui sono chiamati medici, psicologi ed istituzioni.


Nel suo lavoro clinico ed istituzionale, quanto sta già incidendo l’intelligenza artificiale sulla pratica della salute mentale, e quali cambiamenti ritiene più significativi nel rapporto tra terapeuta e paziente?

L’intelligenza artificiale sta già avendo un impatto concreto sulla gestione della salute mentale. La relazione tra paziente e terapeuta non è più soltanto a due, ma spesso include anche la tecnologia. Un tempo le persone si rivolgevano a Google per avere suggerimenti; oggi si affidano a una intelligenza artificiale più sofisticata. Questo significa che la tecnologia è ormai entrata anche nella stanza clinica.

Il cambiamento più importante è che il terapeuta deve tenere conto dell’influenza che la tecnologia esercita sulla relazione con il paziente. Può orientare le domande che pone, le sue aspettative, le sue interpretazioni e perfino l’immagine che costruisce di sé.

Tuttavia, credo che l’intelligenza artificiale debba restare uno strumento di supporto e non sostituire la relazione terapeutica. La psicoterapia si fonda sulla presenza, sulla responsabilità, sulla continuità e sull’alleanza tra terapeuta e paziente. Sono dimensioni che un sistema automatizzato non può replicare. L’intelligenza artificiale può essere utile nella psicoeducazione, nel monitoraggio e nell’accompagnamento tra una visita e l’altra, può perfino supportare e integrare la seduta,  ma non può occupare il centro della cura, che resta profondamente umano.

Come Istituto, abbiamo sviluppato l’app ITCI Compassion, pensata come supporto al percorso terapeutico, non come sua alternativa. Ritengo infatti fondamentale studiare strumenti appropriati, fondati su evidenze scientifiche e coerenti con il lavoro clinico che si sta svolgendo, e non il contrario. Deve essere la tecnologia a mettersi al servizio della terapia, non la terapia ad adattarsi alle logiche della tecnologia.

Il punto decisivo è che il terapeuta deve conoscere bene e padroneggiare lo strumento che propone al paziente, così da poterlo integrare in modo consapevole nel percorso di cura. Solo in questo modo un’app può diventare un supporto reale: aiutare tra una seduta e l’altra, favorire continuità e allenare alcune competenze. Altrimenti il paziente può costruire interpretazioni di sé, aspettative o convinzioni fuorvianti, che non corrispondono alla sua reale domanda di aiuto né alla necessità clinica del momento.

Da un punto di vista istituzionale, questo è ormai un tema fondamentale, che occupa una parte importante del dibattito e della riflessione etica e scientifica. Il Comitato Nazionale per la Bioetica ha ritenuto essenziale lavorare su questi temi, proprio perché l’ingresso dell’intelligenza artificiale nella cura non è una semplice innovazione tecnica, ma una trasformazione profonda che tocca il consenso informato, la responsabilità clinica e la tutela della dimensione umana della medicina. Il fatto che sia stato dedicato a questo tema un parere specifico mostra bene quanto sia necessario governare questa transizione con grande attenzione.


Lei si occupa anche di bioetica: quali sono, oggi, i principali rischi etici legati all’uso crescente di tecnologie intelligenti in ambito sanitario e psicologico?

Come dicevo, il Comitato Nazionale per la Bioetica ha approvato recentemente un parere specifico su questo tema: “Relazione di cura, consenso informato e responsabilità nell’era dell’Intelligenza Artificiale”, al cui redazione ho contribuito con Alberto Gambino, Giovanni Maga e Carlo Maria Petrini. Il documento affronta molti aspetti cruciali; qui mi soffermo su alcuni tra i più rilevanti, che aiutano a capire dove si concentrano oggi i principali rischi etici.

Inizierei affrontando il tema del consenso informato. Con sistemi sempre più complessi, c’è il rischio che il paziente non comprenda davvero fino in fondo le informazioni che gli vengono fornite. Per questo non basta aggiungere moduli o spiegazioni tecniche: bisogna rendere l’informazione più chiara, più accessibile e più adatta alla persona concreta. Il paziente deve sapere se l’intelligenza artificiale viene utilizzata, quale ruolo svolge e quali limiti ha.

Un altro punto importante riguarda l’autonomia del paziente. L’intelligenza artificiale può aiutare a orientarsi meglio, ma può anche produrre l’effetto opposto se manca una mediazione clinica adeguata. Il paziente rischia di affidarsi troppo a risposte automatiche e di trasformarle in autodiagnosi. In salute mentale questo aspetto è ancora più delicato, perché la relazione personale e l’empatia sono essenziali.

C’è poi il tema della responsabilità. L’intelligenza artificiale rende più complessa la catena delle responsabilità, perché accanto al medico entrano in gioco la struttura sanitaria, chi sviluppa il sistema, chi lo produce e chi lo controlla. Il rischio è duplice: delegare troppo alla macchina o creare una confusione per cui non è più chiaro chi risponde davvero delle decisioni prese. La decisione clinica resta però un atto umano e richiede una responsabilità più chiara e meglio distribuita.

Un altro passaggio fondamentale riguarda la trasparenza. Non basta sapere che un sistema viene usato: bisogna capire su quali dati è stato costruito, entro quali limiti funziona e quali possibili distorsioni può portarsi dietro. Questo è importante anche per prevenire i conflitti di interesse, perché dietro gli algoritmi non ci sono soltanto questioni tecniche, ma anche scelte economiche, industriali e culturali.

Infine, c’è il tema dei dati sanitari e dell’equità. I dati sanitari sono estremamente sensibili e con l’intelligenza artificiale diventano ancora più preziosi, ma anche più esposti. Il consenso resta essenziale, ma da solo può non bastare. La vera sfida etica è progettare tecnologie che siano al servizio di tutti, soprattutto delle persone più vulnerabili. L’intelligenza artificiale può migliorare l’accesso alle cure e renderle più personalizzate, ma può anche accentuare le disuguaglianze se viene costruita su dati distorti o se resta accessibile solo ad alcuni. I bias, infatti, non sono soltanto errori tecnici: spesso riflettono disuguaglianze già presenti nella società.

In sintesi, il rischio etico più grande è confondere l’efficienza con la cura. L’intelligenza artificiale può essere una risorsa preziosa, ma solo se resta dentro una cornice fatta di trasparenza, responsabilità, protezione dei dati, equità, supervisione istituzionale e controllo umano continuo.


In un contesto sempre più digitalizzato, come si può preservare — o addirittura rafforzare — la dimensione umana ed empatica della cura?

Nel mondo di oggi, che definisco post-modernità tecnoliquida, dove tutto è sempre più attraversato dalla tecnologia, è importante ricordare che la cura delle persone deve restare una questione profondamente umana. La tecnologia può essere uno strumento utile, ma non deve sostituire la relazione. Il rapporto tra terapeuta e paziente si fonda sull’ascolto, sulla presenza, sulla responsabilità e sulla capacità di aiutare la persona a dare senso alla propria sofferenza. Sono dimensioni che le macchine, pur potendo simulare l’empatia, non debbono assumere.

Eppure, la tecnologia, se usata bene, può anche rafforzare la cura. Può liberare tempo per ciò che conta davvero, come l’ascolto autentico, e può sostenere la continuità tra una visita e l’altra. Ma questo accade solo se resta sempre una supervisione umana e se il terapeuta mantiene il suo giudizio e la sua responsabilità.

In fondo, la sfida è questa: non soltanto umanizzare artificialmente la macchina, ma custodire l’umanità del curante. La cura resta davvero empatica quando la tecnologia non prende il posto dell’incontro, ma lo protegge, lo sostiene e gli restituisce spazio.


Dal suo osservatorio accademico e formativo, che tipo di competenze dovrebbero sviluppare i futuri psicoterapeuti per affrontare le sfide poste dalle nuove tecnologie?

Nel mese di aprile, con la Consulta delle Scuole di Psicoterapia Cognitivo Comportamentale, di cui sono consigliere nazionale, abbiamo organizzato un convegno intitolato “Intelligenza Artificiale e Psicoterapia e reso pubblico il “Manifesto sulla salute mentale e l’Intelligenza Artificiale. Questo manifesto afferma una cosa molto semplice: come scuole di psicoterapia, stiamo lavorando da tempo su questi temi perché il nostro obiettivo è governare il futuro, non essere governati dall’intelligenza artificiale.

Dal punto di vista formativo, credo che i futuri psicoterapeuti debbano sviluppare anzitutto una solida cultura critica della tecnologia. Non è sufficiente saper utilizzare uno strumento: è fondamentale capirne i limiti, i rischi, i bias, gli effetti sulla relazione di cura e le implicazioni etiche e deontologiche. In altre parole, devono imparare a valutare quando una tecnologia può essere utile e quando invece rischia di impoverire il lavoro clinico.

Inoltre, è necessaria una competenza nuova nel tenere insieme clinica e innovazione: saper utilizzare l’intelligenza artificiale come supporto, ma all’interno di una cornice di supervisione umana, responsabilità professionale e centralità della relazione. Il futuro psicoterapeuta dovrà essere sempre più capace di integrare strumenti digitali senza delegare a essi il giudizio clinico.

C’è un punto che considero decisivo: la capacità di custodire ciò che nessuna tecnologia può sostituire, cioè l’ascolto, la mentalizzazione, la lettura della singolarità del paziente, la gestione della complessità relazionale, dell’ambivalenza e della crisi. Più gli strumenti intelligenti entreranno nella clinica, più il terapeuta dovrà essere forte proprio in quelle competenze profondamente umane che fanno la differenza nella cura.

Infine, dovranno crescere anche competenze di trasparenza e alfabetizzazione: saper spiegare al paziente che cosa fa la tecnologia, che cosa non fa, quali dati utilizza e quali limiti ha. In altre parole, il futuro psicoterapeuta non dovrà essere solo un buon clinico, ma anche un professionista capace di orientarsi responsabilmente nell’ecosistema digitale senza perdere il cuore relazionale della psicoterapia.


Guardando al futuro, quale modello di medicina e di relazione terapeutica immagina nei prossimi 10–15 anni: più tecnologico, più umano, o necessariamente una sintesi dei due?

Questa è forse la domanda più difficile, perché la tecnologia avanza a una velocità tale che ogni previsione rischia di essere presto superata. Già tra un anno molte delle categorie che oggi utilizziamo per comprendere questi processi potrebbero non bastare più. L’innovazione, infatti, alza continuamente il livello della sfida e rende tutto più rapido, più pervasivo e più complesso.

Nei prossimi 10-15 anni non credo che la medicina diventerà semplicemente più tecnologica o semplicemente più umana. Sarà inevitabilmente una sintesi delle due dimensioni. La vera domanda, però, è chi guiderà questa sintesi.

Per me, il punto decisivo è che l’uomo deve custodire e difendere ciò che lo rende davvero umano: l’ascolto, la capacità di comprendere, il senso della responsabilità, la vicinanza a chi soffre, la disponibilità a reggere l’incertezza e il riconoscimento dell’unicità di ogni persona. La tecnologia può essere un aiuto prezioso, ma solo se viene progettata e utilizzata in modo da sostenere la relazione di cura e non da prenderne il posto. Per questo parlerei di una necessaria umanizzazione della tecnologia: un uso dell’intelligenza artificiale che sappia preservare, e non indebolire, ciò che è propriamente umano.

Se ben governata, la tecnologia può diventare una forma di intelligenza aumentata: può migliorare l’accuratezza, alleggerire i compiti ripetitivi, ampliare l’accesso alle cure, sostenere la continuità terapeutica. Ma tutto questo ha valore solo se resta saldo il primato della persona e della relazione. Quando la macchina pretende di occupare il centro della cura, non siamo più davanti a un progresso, ma a un impoverimento.

Immagino quindi una medicina molto più tecnologica di oggi, ma proprio per questo chiamata a essere ancora più umana. La sfida del futuro non sarà scegliere tra tecnologia e umanità, ma far sì che la tecnologia resti dentro un orizzonte etico capace di custodire la dignità della persona.

  • Senior IT Manager, esperto in cybersecurity ed intelligenza artificiale. Dal 1999 opera nel settore IT dallo sviluppo, alla direzione di progetti, sia in ambito startup che in ambito corporation; negli ultimi anni si è specializzato in sicurezza informatica e nelle tematiche inerenti all’adozione dell’IA nei processi aziendali.
    Fondatore del blog "Caput Mundi", responsabile della gestione sistemistico-tecnico-operativa del sito ed operatore delle pubblicazioni sul blog e rispettivi profili social, coordinatore della sezione "Informatica e Tecnologia".

    Visualizza tutti gli articoli
  • Medico-Chirurgo, specializzato in Psichiatria, Psicoterapeuta, sposato con Antonella dal 1990, 5 figli.
    Il Prof. Cantelmi è stato il primo ricercatore italiano a indagare in profondità l’impatto delle tecnologie digitali sulla mente umana, individuando la dipendenza da Internet e da strumenti digitali.
    Nel 1998 ha presentato il primo studio italiano sul tema, che ha riscosso ampio interesse nella comunità scientifica e nei media.
    L’anno seguente ha curato la pubblicazione del primo libro italiano sulla dipendenza dalla rete: La mente in Internet (Ed. Piccin).
    Nel 2020 la rivista Psicologia Contemporanea ha pubblicato una sintesi di vent’anni di ricerca clinica sul tema.
    Nello stesso anno, ha presentato al Presidente del Consiglio i risultati dell’ultima indagine dell’Istituto sull’uso e l’abuso dei new media tra i giovanissimi.
    Dal 2020 al 2024 è stato membro di comitati di ricerca presso l’Istituto Superiore di Sanità, focalizzati sulle dipendenze digitali.

    Vincitore del concorso per Dirigente Psichiatra nel 1995, ha ricoperto numerosi incarichi dirigenziali, tra cui la direzione del primo Centro per la Diagnosi e la Cura del Disturbo di Attacco di Panico nella Regione Lazio e la direzione generale dell’Area di Psichiatria presso l’Assessorato alla Sanità della stessa Regione, coordinando i 12 Dipartimenti di Salute Mentale.
    Ha inoltre presieduto la Commissione Unica per la Salute Mentale del Lazio.

    È stato esperto e delegato del Ministero della Salute e consulente in varie Commissioni Parlamentari (Affari Sociali, Sanità, Infanzia).
    Dal 2022 è membro del Comitato Nazionale per la Bioetica, nominato con Decreto del Presidente del Consiglio dei Ministri, e coordina i gruppi di lavoro su “Tecnologie emergenti” e “Salute mentale”.
    Rappresentante del CNB per Gdl dell’Istituto Superiore di Sanità su “Etica dell’IA nella ricerca biomedica”.

    Ha fondato la prima Scuola italiana di Specializzazione in Psicoterapia Cognitivo Interpersonale, riconosciuta dal MUR, formando oltre 400 psicoterapeuti.
    Attualmente presiede e dirige l’Istituto di Terapia Cognitivo Interpersonale (ITCI) a Roma, una delle strutture più attive nel settore psicoterapeutico, con circa 50 collaboratori.
    È anche fondatore e Direttore Scientifico della Comunità Terapeutica Sisifo, la prima in Italia dedicata al trattamento delle dipendenze comportamentali.

    Ha ricoperto incarichi di consulenza di alto profilo, tra cui:
    • Consulente del Consiglio Superiore della Magistratura per procedimenti disciplinari
    • Consulente della Direzione Italiana Antimafia (DIA) per la valutazione psicologica di boss mafiosi e camorristi.

    Dal 1998 è perito del Tribunale Apostolico della Sacra Rota e del Tribunale Ecclesiastico della Diocesi di Roma.
    Dal gennaio 2024 è iscritto all’albo dei CTU (Consulenti Tecnici d’Ufficio) del Tribunale Ordinario di Roma.

    È attualmente Direttore Sanitario e Clinico-Scientifico dell’Opera Don Guanella di Roma, una struttura d’eccellenza per disabilità cognitive, autismo e disturbi del neurosviluppo, che accoglie oltre La struttura accoglie oltre 400 persone, così suddivise: 219 posti in regime residenziale accreditato, 65 posti in regime semiresidenziale accreditato e 120 accessi giornalieri in regime ambulatoriale accreditato, con un organico di 300 dipendenti.

    Dal 29 ottobre 2025 il Ministro della Salute, Prof. Orazio Schillaci, lo ha nominato Presidente del Consiglio di Indirizzo dell’ INMP – Istituto Nazionale per la promozione della salute delle popolazioni Migranti ed il contrasto delle malattie della Povertà.

    Dal 1995 svolge attività didattica universitaria come docente a contratto presso varie università (Lumsa, UER, San Tommaso d’Aquino, Università di Teramo) e come Professore Associato presso la Pontificia Università Gregoriana.
    Ha ideato il primo corso italiano di Cyberpsicologia presso la Lumsa, poi trasferito anche all’Università Europea di Roma.

    → Nel novembre 2020, Papa Francesco lo ha nominato Consultore del Dicastero per il Servizio dello Sviluppo Umano Integrale ad quinquennium. Attualmente è membro esperto presso la Consulta per la Salute e la Consulta per la Famiglia della Conferenza Episcopale Italiana.

    → Partecipazione ad associazioni:
    • Presidente dell’Associazione Italiana Psicologi e Psichiatri Cattolici (AIPPC)
    • Presidente dell’Associazione Medici Cattolici – Sezione Diocesi di Roma (AMCI Roma)
    • Presidente dell’ITCI – Ente del Terzo Settore
    • District Youth Protection Officer – Rotary International, Distretto 2080
    • Consigliere Nazionale, Consulta Italiana delle Scuole di Specializzazione in Psicoterapia Cognitivo Comportamentale.
    • Consigliere della UCID Roma (Unione Cristiana Imprenditori Dirigenti)

    Visualizza tutti gli articoli
Ti è piaciuto questo articolo?
Apprezzi i contenuti di Caput Mundi?
Allora sostienici!
Condividi:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *