Un nuovo fenomeno si sta affermando nell’ambito della psicologia: l’ascesa dei chatbot terapeutici, una trasformazione che solleva questioni importanti riguardo alla nostra relazione con la tecnologia e il benessere mentale.

In Argentina, la psicoanalisi gode di un prestigio culturale tale da renderla fortemente integrata nelle istituzioni pubbliche. Al contrario, in Italia, essa ha trovato meno spazio nel sistema sanitario pubblico, dove invece la psicologia clinica e la psicoterapia cognitivo-comportamentale hanno riscosso un maggiore consenso. Questo orientamento verso approcci basati su evidenze scientifiche e trattamenti brevi, orientati ai risultati, riflette la necessità del sistema italiano di offrire terapie più rapide e accessibili.

L’Evoluzione della psicoanalisi in Argentina

La relazione dell’Argentina con la psicoanalisi ha una storia lunga e affascinante, che ha fatto del paese uno dei principali centri mondiali per questa disciplina. Negli anni ’40 e ’50, la psicoanalisi si diffuse grazie all’arrivo di professionisti europei, come Ángel Garma, che sfuggivano alle persecuzioni naziste. Questi intellettuali trovarono un terreno fertile in Argentina per diffondere le loro idee, e nel 1942 venne fondata la Asociación Psicoanalítica Argentina (APA), che contribuì a formalizzare e strutturare la pratica della psicoanalisi nel paese.

Oggi, l’Argentina vanta una delle concentrazioni più alte di psicoterapeuti pro capite al mondo, e Buenos Aires è spesso definita la ‘capitale mondiale della psicoanalisi’. Nonostante ciò, con il passare del tempo, altre correnti della psicologia, come le terapie cognitive e comportamentali, hanno iniziato a guadagnare terreno, senza però riuscire a superare il dominio storico della psicoanalisi. Questo riflette una cultura profondamente radicata nell’esplorazione delle dinamiche inconsce e un’ampia accettazione sociale di questo approccio.

L’Effetto Eliza

A questo punto, è essenziale collegare queste riflessioni all’effetto Eliza, un fenomeno contemporaneo che ha origine dalla creazione del primo chatbot negli anni ‘60. Oggi, assistiamo a una nuova fase di questo fenomeno con l’avvento dei chatbot terapeutici. Questi sistemi, basati sull’intelligenza artificiale, pongono nuove domande su come la tecnologia può influenzare la pratica terapeutica e il rapporto umano nella cura della salute mentale.

Joseph Weizenbaum

L’effetto Eliza, concettualizzato da Joseph Weizenbaum negli anni ’60, descrive la tendenza delle persone ad attribuire comprensione, empatia e intelligenza a sistemi di intelligenza artificiale (IA) anche quando questi sono programmati con regole semplici. Weizenbaum sviluppò un programma chiamato Eliza, che simulava il ruolo di uno psicoterapeuta, rispondendo agli utenti con frasi basate su parole chiave e pattern linguistici. Sebbene Eliza non avesse una vera capacità di comprensione, molti utenti iniziarono a trattare il programma come se fosse un interlocutore empatico e comprensivo.

Oggi, con l’ascesa di chatbot terapeutici e strumenti di supporto psicologico basati sull’IA, l’effetto Eliza sta diventando particolarmente rilevante. Questi sistemi, come Woebot e Wysa, promettono di fornire un supporto psicologico accessibile, anonimo e disponibile 24/7. Tuttavia, questa diffusione solleva interrogativi sulle conseguenze etiche e pratiche di affidarsi a strumenti che simulano l’empatia senza possederla.

L’Ascesa dei chatbot terapeutici

Negli ultimi anni, i chatbot terapeutici sono diventati strumenti sempre più utilizzati per il supporto alla salute mentale. Piattaforme come Woebot e Wysa si basano su tecniche di terapia cognitivo-comportamentale (CBT) e offrono suggerimenti per gestire ansia, depressione e stress quotidiano. Questi strumenti sono popolari perché offrono un’alternativa accessibile a coloro che non possono accedere facilmente a una terapia tradizionale, in particolare in aree remote o in contesti dove lo stigma della terapia psicologica è ancora forte.

Un esempio significativo è Woebot, che ha dimostrato in studi preliminari di poter ridurre i sintomi di depressione lieve e ansia in giovani adulti dopo solo due settimane di utilizzo. Uno studio del 2017 ha mostrato che i partecipanti che utilizzavano Woebot riportavano miglioramenti significativi rispetto a un gruppo di controllo che riceveva solo risorse di auto-aiuto. Tuttavia, nonostante questi risultati positivi, il ruolo dei chatbot terapeutici rimane limitato e non può sostituire il lavoro di un terapeuta umano .

Il rischio della falsa empatia

Uno dei principali rischi legati all’effetto Eliza è la creazione di una falsa percezione di empatia. Mentre i chatbot terapeutici rispondono agli input degli utenti utilizzando modelli predefiniti, non comprendono realmente il contesto emotivo o le complessità della vita personale. Tuttavia, gli utenti possono sviluppare una fiducia eccessiva in queste tecnologie, pensando di ricevere un supporto autentico.

Questa falsa percezione di comprensione può portare a situazioni in cui gli utenti si affidano troppo ai chatbot, specialmente in situazioni emotivamente delicate. Ciò potrebbe portare a un peggioramento della loro condizione mentale se non ricevono l’aiuto professionale necessario. Ad esempio, i chatbot possono fallire nel riconoscere segnali di allarme in situazioni di crisi, come pensieri suicidi o violenza domestica, portando a risposte inappropriate o tardive .

Foto da Unsplash di BoliviaInteligente

La dipendenza dai chatbot terapeutici potrebbe contribuire all’isolamento emotivo e alla riduzione delle interazioni interpersonali autentiche. La terapia tradizionale si basa sulla costruzione di una relazione di fiducia tra terapeuta e paziente, una componente cruciale per il successo del trattamento. L’interazione umana consente di affrontare le complessità emotive e i traumi, mentre i chatbot mancano di questa capacità.

Inoltre, la disponibilità continua di questi strumenti potrebbe scoraggiare le persone dal cercare aiuto umano, rendendo più difficile per loro connettersi con gli altri. L’utilizzo di un chatbot come surrogato per il contatto umano potrebbe portare a un maggior isolamento emotivo, con un impatto negativo sul benessere psicologico a lungo termine.

Bias algoritmici e limiti tecnici

Gli algoritmi di intelligenza artificiale sono addestrati su set di dati che riflettono spesso pregiudizi culturali, sessisti o razziali. Questo significa che i chatbot terapeutici potrebbero rispondere in modo inappropriato o addirittura discriminatorio verso alcuni gruppi di persone. Ad esempio, un chatbot addestrato prevalentemente su dati occidentali potrebbe non comprendere le sfumature culturali di una persona proveniente da un altro contesto e fornire risposte inadeguate .

Inoltre, la natura rigida degli algoritmi di IA non consente loro di adattarsi alle specificità individuali degli utenti. Mentre un terapeuta umano è in grado di modificare l’approccio in base all’evoluzione delle conversazioni e delle emozioni, un chatbot segue risposte predefinite e limitate, il che riduce la sua capacità di fornire un supporto efficace nelle situazioni più complesse.

La questione della privacy è cruciale quando si utilizzano strumenti basati sull’IA per il supporto psicologico. Durante le conversazioni con un chatbot, gli utenti possono rivelare dettagli molto personali riguardanti la loro salute mentale, le relazioni o altri aspetti della loro vita privata. La sicurezza di questi dati è una preoccupazione crescente, poiché molte piattaforme non hanno meccanismi sufficienti per proteggere le informazioni sensibili degli utenti.

Secondo un rapporto dell’Electronic Frontier Foundation (EFF), molte app di salute mentale, tra cui chatbot terapeutici, non rispettano pienamente gli standard di protezione dei dati e potrebbero esporre gli utenti a violazioni della privacy. Anche se le aziende che gestiscono queste piattaforme affermano di proteggere i dati, il rischio di fughe di informazioni rimane elevato, con potenziali conseguenze legali e psicologiche per gli utenti .

L’efficacia dei chatbot terapeutici e l’importanza della supervisione umana

Alcuni studi sull’efficacia dei chatbot terapeutici mostrano risultati promettenti, ma con forti limitazioni. Un rapporto della American Medical Association (AMA) ha testato vari chatbot psicologici per valutare la loro capacità di rispondere a situazioni di crisi. I risultati hanno evidenziato che alcuni chatbot non sono stati in grado di riconoscere correttamente situazioni pericolose, come pensieri suicidi, fornendo risposte inadeguate o insufficienti .

Nel caso di Woebot, il chatbot è stato in grado di ridurre i sintomi di ansia e depressione nei partecipanti allo studio, ma solo in casi lievi e moderati. La ricerca ha dimostrato che, sebbene possano essere utili per un primo livello di supporto, questi strumenti non sono adatti a gestire disturbi mentali gravi o situazioni complesse .

Sebbene i chatbot terapeutici possano essere strumenti utili, la loro efficacia dipende dalla supervisione e dall’integrazione con il supporto umano. L’uso combinato di IA e terapeuti professionisti potrebbe migliorare l’efficacia dei trattamenti, riducendo i rischi legati a diagnosi errate o a risposte inappropriate. Questo modello ibrido consente di sfruttare la tecnologia per ampliare l’accesso alle cure senza rinunciare alla componente umana fondamentale per il successo terapeutico.

Foto da Unsplash di Bolivia Intelligente

Etica, morale e responsabilità

Dal punto di vista etico e morale, attribuire responsabilità a un chatbot è complesso. I chatbot terapeutici, pur avanzati, sono sistemi basati su algoritmi e non hanno coscienza, empatia o capacità di prendere decisioni autonome come un essere umano. Sono programmati per rispondere seguendo modelli predefiniti, basati su input dati da esseri umani. Pertanto, non possono essere ritenuti moralmente o eticamente responsabili delle loro azioni o delle conseguenze derivanti dalle loro risposte.

La responsabilità, piuttosto, ricade su chi progetta, sviluppa e implementa tali sistemi. Gli sviluppatori e le aziende che creano chatbot hanno l’obbligo etico di garantire che i sistemi siano sicuri, rispettino la privacy e siano adeguatamente supervisionati da esseri umani. Se un chatbot fornisce un consiglio errato o dannoso, la colpa non può essere attribuita al chatbot stesso, ma a chi ha permesso che venisse utilizzato in contesti critici senza il giusto supporto umano o regolamentazione adeguata.

In conclusione, i chatbot non possono avere responsabilità etiche o morali. Tali responsabilità appartengono agli esseri umani che li creano e li gestiscono. dovrebbe essere una priorità per le aziende che sviluppano questi strumenti.

L’effetto Eliza ci mette in guardia contro la tendenza umana a proiettare empatia e comprensione su sistemi di IA che, in realtà, mancano di queste qualità, è importante riconoscerne i limiti e i rischi. Senza supervisione umana e regolamentazione adeguata, questi strumenti potrebbero portare a conseguenze negative, come l’isolamento emotivo, la dipendenza dalla tecnologia, o l’uso improprio dei dati personali. L’introduzione di misure di protezione e l’integrazione con la terapia tradizionale sono fondamentali per garantire che l’IA possa essere usata in modo sicuro ed efficace per supportare il benessere mentale.

© RIPRODUZIONE RISERVATA

Fonti:

  • Dagfal, Alejandro. “Historias de la psicología en la Argentina (1890-1966)” .
  • Littauer, Dan. “Mauricio Goldenberg: L’introduzione della psicoanalisi negli ospedali argentini” .
  • Ministero della Salute, Linee guida e raccomandazioni su trattamenti psicoterapeutici .
  • El Sigma, “Psicoanálisis y hospital público: un intento por trascender lo que siempre se dice” .
  • Weizenbaum, Joseph. “Computer Power and Human Reason: From Judgment to Calculation”. W.H. Freeman & Co Ltd, 1976.
  • Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). “Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial.” JMIR Mental Health.
  • American Medical Association (AMA). “Study on Chatbots and Mental Health,” 2019.
  • “Bias in AI-driven Health Applications: A Global Perspective,” Journal of Medical Internet Research, 2020.
  • Electronic Frontier Foundation (EFF), “Data Privacy and Mental Health Apps,” 2021.