Un blog ideato da CeMON

IA come psicoterapeuta nei bambini: opportunità e rischi
7 Maggio, 2025

IA come psicoterapeuta nei bambini: rischi e opportunità

RedazioneRedazione
Analisi del crescente fenomeno dell'intelligenza artificiale come supporto terapeutico per bambini e adolescenti

ISCRIVITI ALLA NEWSLETTER

Ogni lunedì riceverai una ricca newsletter che propone gli articoli più interessanti della settimana e molto altro.
Tempo di lettura: 5 minuti

 

Immaginare un bambino che confida le proprie ansie e paure a un chatbot invece che a un terapeuta in carne ed ossa sembra fantascienza, ma è una realtà sempre più concreta nel panorama della salute mentale infantile. Con le liste d’attesa per i servizi psicologici tradizionali che si allungano a dismisura e un numero crescente di giovani che soffrono di disturbi emotivi, l’idea di un’assistenza artificiale sempre disponibile sta guadagnando terreno, nonostante i numerosi interrogativi etici che solleva.

Oggi che i professionisti della salute mentale sono sempre più rari e sovraccarichi, l’attrattiva di un “amico AI” che ascolta 24 ore su 24 è comprensibile, ma non per questo meno problematica. La tecnologia avanza più rapidamente della riflessione etica necessaria per accompagnarla, e i nostri figli rischiano di diventare involontari cavie di questo esperimento sociale.

La promessa dell’IA in psicoterapia

I chatbot di supporto psicologico – applicazioni che simulano conversazioni terapeutiche – vengono presentati come potenziali salvagenti per le famiglie in difficoltà. Offrono alcuni vantaggi apparenti che meritano di essere considerati:

  • Supporto immediato e costante: a differenza dei terapeuti tradizionali, un chatbot è disponibile anche a mezzanotte quando le preoccupazioni tengono sveglio un bambino. Non ci sono attese di settimane per un appuntamento.
  • Accessibilità economica: molte di queste app sono gratuite o a basso costo, aggirando i problemi di assicurazione o le costose terapie private.
  • Facilità di apertura per i soggetti timidi: secondo ricerche dell’Università di Cambridge, alcuni bambini trovano meno intimidatorio confidarsi con uno schermo piuttosto che con un adulto faccia a faccia, rivelando persino problemi come il bullismo che non avevano condiviso prima.
  • Possibilità di colmare le lacune: in un momento in cui ansia e depressione giovanile sono in aumento, semplicemente non ci sono abbastanza terapeuti umani. Un chatbot AI, anche se non perfetto, potrebbe essere meglio di nessun supporto.

Tuttavia, questi vantaggi pratici rischiano di far passare in secondo piano questioni fondamentali sulla qualità dell’assistenza fornita e sulla sua effettiva efficacia terapeutica a lungo termine.

I bambini non sono piccoli adulti: rischi unici della robo-terapia

Nella fretta di implementare assistenti AI per i bambini, gli esperti avvertono che potremmo trascurare un fatto fondamentale: i più piccoli non sono semplicemente adulti in miniatura. “I bambini sono particolarmente vulnerabili. Il loro sviluppo sociale, emotivo e cognitivo è semplicemente in una fase diversa rispetto agli adulti,” spiega Bryanna Moore, bioeticista che ha studiato questa tendenza.

Ecco alcune delle principali preoccupazioni che sollevano seri dubbi etici:

Impatto sullo sviluppo sociale: i bambini piccoli non sempre realizzano che un chatbot non è una persona. Gli studi mostrano che spesso credono che i robot abbiano sentimenti e menti proprie. Se un bambino inizia a trattare un chatbot AI come un amico fidato, c’è il rischio che possa diventare troppo attaccato alla macchina e ritirarsi dalle relazioni reali, compromettendo lo sviluppo di competenze sociali fondamentali.

Mancanza di intuizione umana e contesto: la terapia infantile raramente viene fatta in isolamento per una buona ragione – i terapeuti coinvolgono genitori o insegnanti e osservano l’ambiente di un bambino per ottenere il quadro completo. Un chatbot ha zero contesto: non sa se le risposte erratiche di un bambino sono dovute al divorzio dei genitori o se c’è abuso in casa. Questa cecità contestuale potrebbe portare a consigli dannosi o a trascurare segnali d’allarme cruciali.

Risposte imprevedibili o inappropriate: l’AI può talvolta uscire dal seminato e produrre contenuti problematici. Con i bambini, questo è particolarmente pericoloso. Se il modello sottostante del chatbot non è attentamente controllato, potrebbe fornire risposte insensibili o addirittura dannose a questioni delicate che richiederebbero invece la sensibilità e la responsabilità di un professionista formato.

Dipendenza emotiva: i bambini possono sviluppare attaccamenti a peluche e amici immaginari; un chatbot interattivo potrebbe facilmente diventare un altro oggetto di affetto. La differenza è che un chatbot risponde e finge di capire. Questa interazione bidirezionale potrebbe portare un bambino solo a trattare l’AI come un migliore amico o persino come un’autorità in materia emotiva, con conseguenze imprevedibili per lo sviluppo psicologico.

Il rapporto umano: insostituibile come in Omeopatia

Il rapporto empatico tra terapeuta e paziente non sarà mai replicabile da una macchina, così come non lo è tra il paziente e il proprio omeopata. Noi di Generiamo Salute saremo sempre convinti che qualsiasi guarigione, sia essa fisica o mentale, parta sempre dall’aspetto umano del rapporto terapeutico. La tecnologia può supportare questo processo, ma non può sostituire quello scambio di energie, quella comprensione profonda che avviene quando due esseri umani si incontrano in uno spazio di cura.

In Omeopatia, la relazione medico-paziente è considerata fondamentale per il processo di guarigione. Il terapeuta non si limita a prescrivere un rimedio, ma stabilisce un rapporto di fiducia e comprensione che è parte integrante del trattamento. L’omeopata ascolta attentamente, osserva il linguaggio del corpo, percepisce le sfumature emotive che un algoritmo, per quanto sofisticato, non può cogliere.

La medicina olistica riconosce che la salute è un equilibrio delicato tra corpo, mente e spirito – un equilibrio che richiede un approccio personalizzato e profondamente umano. Il rischio di delegare parti importanti di questo processo a macchine è quello di perdere di vista la complessità dell’essere umano, riducendolo a un insieme di sintomi da gestire attraverso risposte standardizzate.

La vera guarigione richiede presenza, intuizione e quella capacità tutta umana di riconoscere ciò che non viene detto esplicitamente. Sono qualità che nessun algoritmo, per quanto avanzato, potrà mai replicare autenticamente.

Tecnologia non regolamentata, domande senza risposta

Al di là dei rischi psicologici personali, c’è un panorama etico più ampio da navigare. L’ascesa dei terapeuti AI sta superando la nostra capacità di mettere in atto protezioni adeguate. A differenza di medicinali o persino giocattoli, la maggior parte delle app per la salute mentale non è soggetta a rigide normative o controlli di qualità. Una delle preoccupazioni principali riguarda la sicurezza ed efficacia non provate: questi chatbot non sono pillole magiche con anni di sperimentazioni alle spalle. Di fatto, la maggior parte delle app di terapia AI è completamente non regolamentata.

Come si addesta un’IA

Un altro aspetto critico riguarda i potenziali pregiudizi nella macchina: “L’AI è buona solo quanto i dati su cui è addestrata,” nota Jonathan Herington, co-autore con Moore di un commento sul Journal of Pediatrics. Se questi chatbot apprendono da conversazioni con adulti o da un insieme ristretto di utenti, potrebbero perpetuare pregiudizi culturali o sociali esistenti, fornendo risposte inadeguate a persone provenienti da contesti diversi. Non meno importante è la questione della privacy e gestione dei dati: quando le persone riversano i loro sentimenti più intimi a un chatbot, dove vanno a finire quei dati? Informazioni sensibili sulla salute mentale sono probabilmente le più private in assoluto. L’assenza di regolamentazioni chiare lascia spazio a potenziali abusi, dalla pubblicità mirata fino a scenari più inquietanti di sorveglianza o manipolazione. Tutto questo solleva domande fondamentali sul consenso informato: può un bambino o un adulto in difficoltà emotiva veramente comprendere e acconsentire a come un’AI potrebbe utilizzare i suoi dati più sensibili?

Trovare un equilibrio tra innovazione e cautela

La questione dell’intelligenza artificiale in ambito terapeutico rimane complessa. In un mondo ideale, ogni persona avrebbe accesso immediato a un terapeuta umano qualificato e premuroso. Nella realtà, siamo ben lontani da questo scenario. Tuttavia, la risposta non può essere l’accettazione acritica di surrogati tecnologici che simulano la terapia senza offrirne la sostanza. La vera sfida consiste nel trovare un equilibrio: utilizzare la tecnologia come supporto, non come sostituto, del contatto umano. Forse i chatbot AI potrebbero servire come ponte temporaneo, fornendo un minimo di supporto quando l’aiuto umano non è immediatamente disponibile, ma sempre con l’obiettivo di indirizzare verso una relazione terapeutica autentica.

LEGGI ANCHE: Prevenzione e supporto per le malattie mentali nei giovani

Lascia il primo commento