Image default
Ambiente & Società

Può un robot fare da psicoterapeuta?

Robot Piscoterapeuta: l’intelligenza statistica è cosa ben diversa dall’intelligenza emotiva

“Se il terapeuta è un robot…”. Questo il titolo scelto per la copertina della rivista “Mind” di gennaio 2026. A corredo è stata scelta un’immagine che ritrae una donna stesa su un lettino con alle sue spalle un robot umanoide le cui sembianze evocano quelle di uno psicanalista. Andando alle pagine di approfondimento le riflessioni sono quelle selezionate dalla giornalista Anne Crochon che collabora anche con la redazione del mensile “Cerveau et Psycho”.

Andando subito al cuore della questione, si segnala la posizione al riguardo di Jerome Palazzolo, psichiatra di Nizza. In primis, viene messo in evidenza un punto piuttosto condivisibile che ha a che fare con la società attuale e il modo di vivere nel quale siamo immersi. Citando testualmente, “il fatto che la tecnologia stia gradualmente assumendo il ruolo di confidente può riflettere una mancanza di ascolto nella vita quotidiana e un bisogno di convalida emotiva”. E’ infatti lo stesso dott. Palazzolo ad asserire: “dobbiamo assicurarci che questo strumento non sostituisca l’interazione umana”.

“A suo avviso – scrive la giornalista – un vero strizzacervelli mantiene un valore aggiunto rispetto a una macchina, perché è un professionista formato per capire la sofferenza psicologica in tutta la sua complessità; cosa che l’intelligenza artificiale, per quanto potente, non può fare”. E qui veniamo ad un importante giro di boa su quella che, a torto o a ragione, è stata battezzata come “intelligenza artificiale”. Ma siamo poi così sicuri che si tratti di intelligenza vera e propria? E se si è inclini a rispondere in modo affermativo, di quale intelligenza si tratta? Si può dire che sia una intelligenza analitica, logico-deduttiva, emotiva, creativa, intuitiva o cos’altro?

Partendo dal presupposto incontrovertibile che queste menti artificiali non hanno emozioni né esperienze di vita, vediamo come prosegue l’approfondimento. “Le risposte provenienti da ChatGPT e affini – è sempre Crochon a dire – si basano su modelli statistici e non sono mai il risultato di una reale comprensione emotiva”. Questo dato di fatto porta a delle conseguenze di cui si deve tener conto laddove si dovesse decidere di eleggere a proprio confidente personale un robot.

“Il sistema – scrive la giornalista – risponde usando i dati che l’utente gli affida, mentre uno psicologo cercherà di dare al paziente le chiavi e gli elementi che gli mancano per capire le diverse situazioni”. In subordine il robot non riesce a captare gli aspetti comunicativi non verbali come gli atteggiamenti assunti dalla persona o la sua mimica facciale. Per cui possono essere tante le informazioni che sfuggono a questo tipo di analisi tecnologica. Ma allora se il campo è così limitato, perché stando ad alcune rilevazioni, sono in aumento le persone che si rivolgono a queste cosiddette “intelligenze artificiali” per consigli anche di tipo personale?

A titolo non esaustivo, ma meramente esemplificativo si può dire che la scelta può essere dettata da ragioni di carattere economico, oltre che pratico. Se infatti lo psicoterapeuta umano ha dei costi spesso poco sostenibili e tempi ed orari di visita che vanno programmati, il servizio reso dall’I.A. è gratuito e disponibile h24. Ma il rischio dell’illusione psicoaffettiva legato a queste strumentazioni “umanoidi” non può essere taciuto e non è certo cosa da poco!   

Maria Teresa Biscarini

Altri articoli