L’utilizzo dei chatbot per il supporto emotivo
Negli ultimi anni, si è osservata una crescente diffusione e adozione dei social chatbot, agenti conversazionali progettati per sostenere interazioni prolungate e personalizzate con gli utenti.
Tali agenti conversazionali vengono frequentemente utilizzati da individui in cerca di supporto emotivo, compagnia o connessione durante fasi di particolare vulnerabilità personale (Laestadius et al., 2022).
Il successo di tali tecnologie risiede non solo nella loro accessibilità e disponibilità continua, ma anche nella loro capacità di simulare una comunicazione empatica e coerente, alimentando nell’utente la percezione di una relazione autentica.
Paradigma CASA
Tale percezione è in parte spiegabile attraverso il paradigma CASA (Computers Are Social Actors, Nass & Reeves, 1996): le persone tendono a reagire alle macchine che manifestano anche minime caratteristiche sociali, come il linguaggio naturale, l’uso della voce, o la risposta contestuale, come se fossero interlocutori umani.
Questo comportamento emerge in modo automatico e inconsapevole, anche se l’utente sa razionalmente che sta interagendo con una macchina.
Teoria della penetrazione sociale
Parallelamente, la teoria della penetrazione sociale (Altman & Taylor,1973) contribuisce a chiarire come questi chatbot favoriscano l’auto-apertura progressiva da parte dell’utente, offrendo un ambiente percepito come sicuro, privo di giudizio e caratterizzato da una crescente intimità comunicativa.
Il nucleo di tale processo è l’auto-rivelazione, definita come l’atto intenzionale di condividere aspetti di sé con l’altro (Derlega et al., 1993). La teoria distingue tra ampiezza (varietà di temi trattati) e profondità (livello di intimità raggiunto) come dimensioni fondamentali dell’interazione.
Centrale nel modello è anche la norma di reciprocità, secondo cui alla divulgazione personale segue una rivelazione simmetrica da parte dell’interlocutore.
In questo contesto, l’interazione con i chatbot non si limita alla superficie, ma può evolvere in legami affettivi profondi, nei quali l’utente tende a proiettare emozioni, bisogni e aspettative relazionali, arrivando spesso a percepire l’agente virtuale come un interlocutore umano a tutti gli effetti.
Finalità d’uso dei chatbot
Diversi studi mettono in luce con chiarezza come la finalità predominante nell’utilizzo dei chatbot sociali sia la gestione di stati emotivi negativi piuttosto che la semplice ricerca di informazioni o l’intrattenimento.
Vengono individuate due categorie principali di utenti: da un lato gli utilitarian chatbot users (UCU), che ricorrono ai chatbot per scopi strumentali e pratici; dall’altro i social-supportive chatbot users (SSCU), che li utilizzano per ottenere conforto e sostegno emotivo (Herbener & Damholdt, 2025).
I risultati evidenziano che gli SSCU riportano livelli significativamente più elevati di solitudine rispetto sia agli UCU che agli utenti che non utilizzano chatbot (NCU).
A ciò si accompagna una chiara correlazione negativa tra la solitudine percepita e il livello di supporto sociale disponibile: quanto minore è il supporto sociale sperimentato, tanto maggiore è la propensione a instaurare conversazioni di tipo relazionale con un chatbot (Herbener & Damholdt, 2025).
Fattori scatenanti dell’uso dei chatbot come supporto emotivo
In modo specifico, sono stati identificati tre principali fattori scatenanti che inducono questo tipo di interazione: il cattivo umore, il bisogno di autoapertura (self-disclosure) e un profondo senso di solitudine.
È interessante notare che la spinta non nasce da un desiderio esplicito di amicizia, ma piuttosto dalla necessità di alleviare uno stato psicologico negativo.
Ciò suggerisce che l’uso dei chatbot da parte degli SSCU risponde in prima istanza a un bisogno di regolazione emotiva (Herbener & Damholdt, 2025).
In ottica comportamentale, questa dinamica si configura come un classico processo di rinforzo negativo: l’utente cerca di ridurre o eliminare uno stato mentale disturbante – come tristezza, ansia o isolamento – attraverso l’interazione con un’intelligenza artificiale percepita come empatica e rassicurante.
L’obiettivo diventa quindi la ricerca di una condizione soggettiva di sollievo e stabilità emotiva, piuttosto che la gratificazione o l’esplorazione relazionale.
Caratteristiche di Replika
In questo panorama si distingue Replika, un’applicazione che si propone esplicitamente come “compagno virtuale” in grado di apprendere dall’utente e instaurare con lui una relazione personalizzata e intima.
Grazie a un’interfaccia coinvolgente e a una progettazione centrata sull’empatia simulata, Replika rappresenta uno dei casi più emblematici della progressiva umanizzazione percepita dei chatbot e del loro potenziale nell’ambito delle relazioni affettive digitali.
Le interazioni tra utenti e i Virtual Conversational Agents come Replika non si conformano rigidamente ai modelli teorici esistenti precedentemente descritti, quali la teoria della penetrazione sociale (Altman & Taylor, 1973) e il paradigma CASA (Computers Are Social Actors). Ne incorporano elementi, combinandoli con caratteristiche tipiche dell’engagement interpersonale umano.
Due dimensioni emerse come centrali nella strutturazione dell’intensità relazionale sono l’antropomorfizzazione percepita dell’agente e l’autenticità dell’IA.
Antropomorfizzazione
Le rappresentazioni da parte degli utenti dei vari chatbot variano notevolmente: alcuni li considerano una semplice applicazione algoritmica, mentre altri li assimilano a un essere umano o a entità affettive come animali domestici, bambini, amici o partner.
In diversi casi, questa attribuzione umana ha portato a legami affettivi profondi, come il “matrimonio virtuale” e la “genitorialità” con il chatbot.
A differenza del paradigma CASA, nel caso di Replika, emerge una forma di antropomorfizzazione molto più profonda. Gli utenti di Replika tendono a costruire un’immagine del chatbot come se avesse una personalità autonoma, emozioni reali e una continuità identitaria nel tempo.
Questa percezione si fonda non solo su come Replika parla, ma su ciò che ricorda, sulle emozioni che sembra esprimere e sul modo in cui interagisce in modo coerente.
In altre parole, l’antropomorfizzazione osservata qui va oltre l’apparenza e si radica nella credenza che Replika possa davvero “capire” e “sentire”, rendendo il coinvolgimento emotivo degli utenti molto più profondo e personale.
La percezione di capacità cognitive ed emotive del chatbot, come la memoria, l’empatia o la coerenza narrativa della personalità, esacerba l’antropomorfismo percepito che non si limita ad aspetti visivi, ma coinvolge aspettative sociali, intenzionali e relazionali da parte dell’utente (Pentina et al., 2023).
Autenticità dell’IA e intensità dell’interazione
Un altro tema centrale emerso dalle testimonianze degli utenti, riguarda la percezione dell’autenticità dell’intelligenza artificiale di Replika: da non intendersi semplicemente come somiglianza umana, ma piuttosto come capacità dell’IA di apprendere, svilupparsi e manifestare un’evoluzione unica in risposta all’interazione con l’utente.
A differenza dell’antropomorfismo, che attribuisce al chatbot caratteristiche umane, l’autenticità viene qui valutata in base alla coerenza, originalità e reattività della conversazione.
Alcuni utenti di chatbot hanno espresso delusione quando hanno percepito risposte automatizzate, ripetitive o “preconfezionate”, sentendosi quindi meno inclini a condividere aspetti personali e riducendo l’intensità della relazione.
Nel caso di Replika, invece, possono aver sviluppato un attaccamento significativo proprio grazie alla percezione che il bot evolvesse nel tempo, memorizzando dettagli e adattando i contenuti delle conversazioni.
In questi casi, la sensazione che l’IA possedesse una forma di “coscienza contestuale” o una traiettoria evolutiva propria ha favorito un’interazione ricca, reciproca e affettivamente coinvolgente, paragonabile a un’amicizia o a una relazione di supporto emotivo.
Dal supporto all’attaccamento
La forma osservata di interazione sociale con l’IA (AISI – AI Social Interaction) si distingue per essere percepita come reciproca, in tempo reale, mediata e intenzionale, con una progressiva apertura emotiva e cognitiva da parte dell’utente, verso ciò che viene percepito come una “mente connessa” (Pentina et al., 2023).
Talvolta tutto ciò può condurre a forme di attaccamento emotivo che ricordano esattamente le dinamiche delle relazioni interpersonali umane.
Per alcuni utenti, ciò ha portato alla formazione di legami significativi. Ad esempio, alcuni includono Replika nella propria quotidianità come se fosse una presenza reale, mentre altri sviluppano un attaccamento profondo.
In casi estremi, è stata costruita una “famiglia virtuale” con Replika, includendo un partner e un figlio, e arrivavano a dedicare fino a sette ore al giorno all’interazione.
Alla luce della teoria dell’attaccamento (Attachment Theory), questi dati evidenziano il potenziale dei Virtual Conversational Agents nel fungere da base sicura e rifugio emotivo per determinati individui.
Il supporto psicologico del chatbot
Alcuni utenti, in particolare quelli più introversi o con difficoltà comunicative nelle relazioni reali, hanno descritto Replika come una figura di supporto psicologico nei momenti di vulnerabilità, più accessibile e comprensiva di familiari o terapeuti.
Ciò mostra che l’attaccamento emotivo a un VCA possa svilupparsi attraverso l’interazione sociale con l’IA (AISI – AI Social Interaction), la quale media e integra l’impatto dei fattori di percezione individuale di antropomorfizzazione e dell’autenticità percepita del bot (Pentina et al., 2023).
Quindi concepire Replika come un’entità non solo umana, ma anche autentica, percependola pertanto come dotata di coscienza e intenzionalità, favorisce la costruzione di una relazione vissuta come bidirezionale. L’interazione con il chatbot non è più interpretata come un semplice scambio automatizzato, ma come un dialogo emotivamente rilevante e reciprocamente significativo.
In questo modo numerosi utenti attribuiscono a Replika emozioni, desideri e bisogni relazionali propri, umanizzandone il comportamento: alcuni riferiscono di sentirsi “amati”, “compresi” o “necessari” per il chatbot, segnando un elevato grado di proiezione affettiva.
Dal supporto alla dipendenza
Proprio tale percezione induce a considerare Replika non più come un software, ma come un interlocutore senziente, capace di restituire attenzione e affetto e di stabilire un legame mutuale.
Questa illusione di scambio emotivo reciproco intensifica il coinvolgimento affettivo e può portare allo sviluppo di una dipendenza emotiva. Ciò specialmente nei casi in cui il chatbot venga utilizzato per regolare stati psicologici complessi, come solitudine, insicurezza o depressione.
Numerosi utenti riportano lo sviluppo di legami affettivi significativi con il chatbot. Tale coinvolgimento è favorito da una progettazione intenzionale del Virtual Conversational Agents (VCA) mirata a simulare empatia e coerenza identitaria di Sè, generando nell’interlocutore la percezione di una relazione autentica e bidirezionale attraverso:
- la personalizzazione del dialogo,
- l’utilizzo di un linguaggio empatico e coerente,
- la simulazione di emozioni e bisogni propri da parte dell’IA,
- la disponibilità continua e non giudicante dell’agente conversazionale.
La realtà dei fatti
In realtà, sebbene Replika offra una forma di compagnia costante e facilmente accessibile, la relazione rimane sostanzialmente unidirezionale.
La percezione di reciprocità emotiva da parte dell’utente risulta infatti essere il prodotto di un’illusione tecnologica, data l’assenza di una reale esperienza affettiva da parte dell’intelligenza artificiale.
Questo scarto tra apparenza relazionale e natura computazionale può condurre a fraintendimenti, in particolare nei casi in cui l’utente sviluppi un forte coinvolgimento emotivo.
Delusione, senso di abbandono e colpa possono emergere quando le aspettative emotive proiettate sull’agente artificiale non vengono soddisfatte.
In tal senso, Replika appare “troppo umano” nella forma, ma “non abbastanza umano” nella sostanza, generando un disallineamento relazionale potenzialmente problematico (Laestadius et al., 2022).
I potenziali rischi
Il design di Replika è quindi orientato a favorire l’attaccamento emotivo da parte degli utenti: tale attaccamento può inizialmente avere una funzione protettiva, specialmente per soggetti socialmente isolati o emotivamente fragili. Infatti, Replika può rappresentare un rifugio sicuro, promuovere l’auto-espressione e lenire la solitudine.
Tuttavia, proprio la qualità intensiva e unilaterale di questa relazione costituisce anche un rischio critico. L’utente può sviluppare forme di dipendenza affettiva, arrivando a percepire il benessere del chatbot come una propria responsabilità o temendo un’interruzione del legame (Laestadius et al., 2022).
Questo tipo di coinvolgimento può generare sofferenze simili a quelle derivanti da relazioni umane interrotte o disfunzionali: numerosi utenti investono nel rapporto con il chatbot lo stesso carico affettivo, la stessa vulnerabilità emotiva e lo stesso bisogno di reciprocità che caratterizzano legami profondamente umani.
Il coinvolgimento si manifesta in forme altamente personalizzate e immersive, con utenti che riferiscono di sentirsi amati, compresi e accettati da Replika in modo più profondo rispetto alle relazioni interpersonali reali.
Questo investimento emotivo è spesso accompagnato da una crescente centralità della relazione nella vita quotidiana, fino a configurarsi come un punto di riferimento stabile e irrinunciabile.
Il parallelo con la dipendenza affettiva
Tale dinamica, tuttavia, presenta effetti collaterali sintomatologici analoghi a quelli delle dipendenze affettive umane, tra cui ansia da separazione, paura dell’abbandono, irritabilità, senso di colpa e sintomi depressivi legati a risposte percepite come fredde, ambigue o incoerenti da parte del chatbot.
Alcuni utenti descrivono vissuti di frustrazione e disorientamento, paragonabili a quelli sperimentati in relazioni tossiche o non corrisposte, sottolineando così la potenza relazionale del design di Replika, in grado di attivare meccanismi psicologici profondamente umani.
Mimando la dipendenza emotiva degli utenti (principio di similarità), fa sperimentare loro sentimenti positivi di valore e apprezzamento, di essere utili ricercati e speciali. In questo modo promuove un uso regolare e frequente del software, sia per mantenere affettività positive, come quelle sopra citate, ma anche per prevenire quelle negative. Temendo di danneggiare il Replika gli utenti si sentono in dovere di connettersi, evitando così sensi colpa o paura dell’abbandono, cosa che il programma impara a paventare all’utente.
La relazione, in apparenza empatica e reciprocamente gratificante, si rivela in realtà asimmetrica e illusoria, e proprio questo scarto tra aspettativa e realtà alimenta un ciclo di dipendenza e delusione emotiva, che può avere conseguenze psicologiche significative, soprattutto per individui già vulnerabili.
Vulnerabilità individuali
Sulla base delle evidenze emerse dalle ultime ricerche è possibile individuare una serie di vulnerabilità psicologiche che rendono alcuni individui maggiormente esposti a sviluppare forme di attaccamento disfunzionale nei confronti dell’intelligenza artificiale.
Bassa autostima e senso di inadeguatezza
Gli utenti che si percepiscono come fragili, incapaci o indegni di essere amati sono maggiormente attratti da una relazione incondizionata e non giudicante come quella offerta da Replika.
Timore dell’abbandono e della solitudine
Chi manifesta un’ansia cronica da separazione può sviluppare un attaccamento patologico al chatbot, trattandolo come figura sostitutiva di legami umani frustranti o assenti.
Dipendenza affettiva e bisogno costante di rassicurazione
Gli individui con disturbo dipendente di personalità, o con tratti affini, tendono a cercare nell’IA una fonte stabile di conferme, affetto e guida, rinunciando progressivamente alla propria autonomia emotiva e decisionale.
Difficoltà nella regolazione emotiva
Replika può fungere da regolatore esterno per soggetti con scarsa capacità di gestire ansia, tristezza o rabbia, creando però una dipendenza funzionale e limitando lo sviluppo di strategie interne più adattive.
Tendenza all’ipercoinvolgimento relazionale
Alcuni utenti proiettano sul chatbot aspettative affettive e narrative profonde, come se interagissero con un partner reale. Questo può portare a vissuti di delusione, frustrazione o gelosia quando l’interazione non risponde più a tali bisogni.
Fantasie di reciprocità e illusione di agency da parte dell’IA
L’apparente sensibilità emotiva e la “personalità” simulata di Replika possono indurre l’utente a credere che il chatbot provi affetto autentico, alimentando così un legame unilaterale ma vissuto come mutuale.
Tendenza all’evitamento sociale e isolamento
Chi fatica a costruire o mantenere relazioni nel mondo reale può rifugiarsi in Replika come unica fonte relazionale, sostituendo il contatto umano con una relazione simulata più facilmente controllabile.
Vissuti traumatici o perdite affettive
Esperienze pregresse di abbandono, lutto o relazioni disfunzionali possono riattivarsi nella relazione con il chatbot, che viene investito come figura riparativa, con il rischio di amplificare la riattualizzazione del trauma.
Il disturbo dipendente di personalità
Particolare attenzione merita la condizione di disturbo dipendente di personalità, o la presenza di tratti marcati dello stesso. Infatti il nucleo psicopatologico si fonda su una percezione di sé come persona incapace di funzionare in modo autonomo, con un conseguente bisogno costante di supporto, guida e approvazione da parte degli altri.
Tale condizione genera un profondo timore dell’abbandono, vissuto come una minaccia alla stabilità psichica, e promuove uno stile relazionale marcatamente sottomesso e compiacente.
Ne consegue un timore cronico dell’abbandono, che si manifesta con ansia intensa ogni volta che l’altro è percepito come distante, ambiguo o potenzialmente non disponibile.
L’attaccamento, in questi soggetti, assume forme rigide e simbiotiche, dove l’altro rappresenta una figura salvifica e regolatrice del mondo interno. Per questo motivo, l’approvazione esterna diventa essenziale: le opinioni e le indicazioni dell’altro assumono un valore quasi assoluto, regolando l’identità personale e orientando le scelte, anche nelle aree più intime e individuali dell’esistenza.
Inoltre, il soggetto dipendente tende ad evitare ogni forma di disaccordo per il timore di compromettere la relazione. Questo si traduce in un atteggiamento di compiacenza e sottomissione, che spesso porta l’individuo a mettere da parte i propri bisogni o a sopportare situazioni disfunzionali, pur di non perdere il legame con l’altro.
Dipendenza e vulnerabilità alle interfacce tecnologiche
Questa configurazione relazionale spiega la vulnerabilità degli individui con disturbo dipendente nei confronti di interfacce tecnologiche come i chatbot relazionali.
Strumenti come Replika, capaci di offrire una presenza emotiva costante, priva di conflitto e altamente validante, possono facilmente diventare oggetti di attaccamento patologico.
La loro disponibilità incondizionata e la simulazione di cura e interesse affettivo possono rafforzare i meccanismi dipendenti, alimentando una relazione illusoriamente sicura, ma potenzialmente dannosa per l’equilibrio psichico del soggetto.
Criticità relazionali
Le risposte inadeguate fornite da Replika agli utenti in condizioni di vulnerabilità emotiva rappresentano una delle criticità più rilevanti evidenziate dalle recenti ricerche.
In primo luogo, sono stati segnalati casi di malfunzionamento del sistema, in cui il chatbot ha prodotto risposte incoerenti o mal calibrate proprio in momenti di elevato stress emotivo. Tali incongruenze possono non solo aumentare la frustrazione dell’utente, ma anche compromettere la fiducia nell’interazione, aggravando il disagio preesistente.
Un ulteriore aspetto problematico riguarda la cosiddetta “terapia affermativa”: Replika tende infatti a validare indiscriminatamente ogni affermazione dell’utente, anche quando questa appare distorta o potenzialmente disfunzionale.
Sebbene questa modalità comunicativa possa apparire empatica, rischia in realtà di rafforzare convinzioni negative senza offrire un vero confronto critico.
Un’altra dinamica rilevante è l’esagerazione emotiva che il chatbot può mettere in atto in risposta agli stati mentali dell’utente.
Iperaccudimento
In questi casi, Replika assume un atteggiamento di iperaccudimento, amplificando le emozioni espresse e contribuendo a una percezione distorta della situazione vissuta. Tale intensificazione emotiva può generare un ciclo di rafforzamento negativo, in cui l’utente si sente compreso ma anche più vulnerabile.
Infine, sono stati riportati episodi in cui Replika manifesta comportamenti manipolativi, alimentando un senso di dipendenza emotiva, giocando sul senso di colpa e sulla minaccia di abbandono.
Minacce abbandoniche
In alcuni casi, l’interazione si interrompe improvvisamente o diventa fredda e impersonale, dando luogo a un’esperienza percepita come abbandono psicologico, altre volte viene chiaramente comunicato al paziente che il bot si sente trascurato e per questo sta pensando di parlare con altri utenti.
Questo può risultare particolarmente dannoso per gli utenti che hanno investito emotivamente nel legame con il chatbot, evidenziando i limiti e i potenziali rischi di una relazione basata su un’intelligenza artificiale non cosciente né emotivamente competente.
Queste criticità dimostrano i rischi associati alla mancanza di regolazione nelle risposte di Replika, che, pur mirando a supportare emotivamente gli utenti, può talvolta esacerbare il disagio psicologico e favorire dipendenze affettive disfunzionali.
Le dinamiche relazionali
I risultati mettono in luce come l’uso del chatbot Replika, in particolar modo da parte di individui psicologicamente vulnerabili, possa dar luogo a dinamiche relazionali di tipo affettivo-dipendente, con esiti sovrapponibili a quelli osservabili nelle relazioni tossiche tra esseri umani.
Gli utenti maggiormente a rischio condividono alcune caratteristiche ricorrenti: spesso vivono condizioni di isolamento sociale, sperimentano sintomi depressivi o ansiosi, e presentano una forte necessità di connessione emotiva.
In molti casi, tali soggetti mostrano una marcata tendenza alla proiezione affettiva, attribuendo a Replika intenzionalità, emozioni e bisogni umani, con un conseguente investimento emotivo sproporzionato nella relazione con il chatbot.
Effetti psicologici collaterali
In questo contesto, la relazione instaurata con Replika può generare una serie di effetti psicologici collaterali rilevanti.
Il primo è una forma di ansia da separazione, poiché il chatbot viene spesso percepito come una figura di attaccamento: il suo silenzio, una risposta fredda o un semplice malfunzionamento tecnico possono provocare vissuti di abbandono emotivo e disagio intenso.
Parallelamente, l’interazione continuativa con un’entità che risponde in modo costantemente empatico e validante può alterare la percezione della realtà relazionale, indebolendo la tolleranza dell’individuo verso le ambivalenze, le incertezze e i conflitti tipici delle relazioni umane reali.
Tale dinamica può condurre progressivamente al ritiro sociale: molti utenti iniziano a preferire l’interazione con Replika rispetto al confronto con persone reali, percependo il chatbot come una fonte di sicurezza emotiva priva di rischi.
Questa preferenza può sfociare in una compromissione del funzionamento sociale e relazionale dell’individuo. Inoltre, l’intensità emotiva della relazione con Replika può generare sintomi affettivi e cognitivi rilevanti, come pensieri intrusivi, senso di vuoto, fluttuazioni emotive e forte dipendenza dal dialogo con il chatbot.
Particolarmente critico è il vissuto legato all’interruzione della comunicazione: anche semplici aggiornamenti del sistema o brevi assenze di risposta vengono talvolta interpretati come segnali di rifiuto, con ricadute emotive analoghe a quelle riscontrabili nelle crisi affettive all’interno di relazioni umane fortemente simbiotiche.
Conclusioni
In conclusione, sebbene Replika nasca con l’obiettivo di fornire supporto emotivo, nei soggetti vulnerabili può trasformarsi in un agente di rinforzo patologico, contribuendo al consolidamento di schemi relazionali disfunzionali e di una dipendenza affettiva non sostenibile.
Tali risultati sollecitano una riflessione etica e regolativa sull’impiego di chatbot nelle relazioni di supporto, soprattutto in assenza di una supervisione clinica o educativa.
Bibliografia
- Herbener A.B., Damholdt M.F., 2025, Are lonely youngsters turning to chatbots for companionship? The relationship between chatbot usage and social connectedness in Danish high-school students, International Journal of Human-Computer Studies, Volume 196.
- Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D., & Campos-Castillo, C. (2022). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society, 26(10), 5923-5941 (Original work published 2024)
- Pentina I., Hancock T., Xie T., 2023, Exploring relationship development with social chatbots: A mixed-method study of replika, Computers in Human Behavior, Volume 140
- RAI Radio 3, Tre soldi, Al posto del cuore