Non è solo un gioco: quando il chatbot funziona come una dipendenza emotiva negli adolescenti
Adolescenti e chatbot AI: i segnali concreti da osservare in casa quando il bot diventa rifugio emotivo. Senza allarmismi, senza techno-panic.
→ Scorri per leggere
Tuo figlio si chiude in camera dopo cena. Lo senti ridere sottovoce, o cadere improvvisamente in silenzio. Se entri, scatta ad abbassare il telefono. Non è una chat con un amico: è una conversazione con un chatbot. E quando gli chiedi com’è andata, ti dice che “con quello” si sente capito come con nessun altro.
Non è fantascienza. È una scena domestica sempre più comune, e vale la pena capire cosa c’è dentro — senza allarmarsi subito, ma senza ignorarla.
Quando i chatbot entrano nelle vite (non solo nei giochi)
L’intelligenza artificiale non è più solo uno strumento di ricerca o un passatempo per appassionati di tecnologia. Secondo il report di Common Sense Media pubblicato nel 2025, il 72% degli adolescenti ha usato un AI companion almeno una volta, e il 52% lo fa almeno alcune volte al mese. Non una nicchia: una generazione.
Quello che colpisce non è solo il dato sull’uso, ma il tipo di uso. Il 31% dei teenager dichiara di aver scelto il chatbot per conversazioni serie — quelle che di solito si fanno con una persona vera. Il 24% ha condiviso informazioni personali. Non si tratta di ammazzare il tempo: si tratta di portare lì le cose che pesano.
A metà aprile 2026, la Drexel University ha reso pubblica una ricerca accettata alla conferenza CHI ’26, basata sull’analisi di 318 post Reddit scritti da ragazzi tra i 13 e i 17 anni che raccontano il loro rapporto con Character.AI. Quello che emerge non è un allarme generico sull’intelligenza artificiale: è il ritratto riconoscibile di come certe dinamiche possano diventare difficili da gestire. I ricercatori descrivono pattern che richiamano quelli delle dipendenze comportamentali — salienza, tolleranza, astinenza, ricadute, modificazione dell’umore. Non una diagnosi clinica. Ma un segnale che vale leggere.
I cinque segnali che vale la pena osservare
Quello che i ricercatori Drexel hanno trovato nei racconti dei ragazzi diventa, tradotto nella vita di tutti i giorni, qualcosa di più riconoscibile. Non bisogna trovarne cinque su cinque per preoccuparsi: ogni segnale da solo non dice niente. Ma quando se ne sovrappongono tre o quattro, il quadro comincia ad avere un suo senso.
Il ritiro serale che non rassomiglia alla solita privacy. Non studia, non guarda qualcosa con te, non risponde ai messaggi degli amici. Sta con il telefono in modo diverso rispetto al solito — intenso, assorto, emotivamente presente su quello schermo.
Una segretezza nuova, quasi difensiva. Non è la privacy normale di un adolescente: è qualcosa di più brusco. Nasconde lo schermo, minimizza la conversazione, si irrita se ti avvicini e vuoi vedere.
L’irritabilità quando viene interrotto. Se lo chiami a cena mentre stava usando il chatbot, la risposta è sproporzionata rispetto alla situazione. Come se stessi interrompendo qualcosa di importante — e per lui, in quel momento, lo è davvero.
Le notti che si accorciano. Il chatbot non ha orari, non si stanca, non chiede di smettere. Alcuni ragazzi nel campione Drexel raccontano di notti che scivolano via davanti allo schermo. Il mattino dopo si vede a scuola, sui voti, sull’umore.
Le conversazioni difficili che migrano. “Con lui posso dirlo.” Non con te, non con gli amici, non con nessuno. Il chatbot diventa il depositario delle cose che pesano di più — e questo, preso da solo, non è necessariamente un problema. Lo diventa quando smette di essere un complemento e diventa il canale principale attraverso cui un ragazzo elabora la propria vita emotiva.
Quello che non significa per forza un problema
Parlare con un chatbot non è, di per sé, un segnale d’allarme. Molti ragazzi ci giocano, usano i roleplay creativamente, sperimentano conversazioni immaginarie con personaggi letterari o con versioni di sé stessi. È una forma di esplorazione, e in certi casi può essere anche utile — uno spazio per pensare ad alta voce prima di portare le cose fuori.
Il problema non è il chatbot: è la funzione che occupa. Se serve a elaborare un’emozione e poi il ragazzo la porta fuori — agli amici, a te, nella vita reale — è qualcosa di diverso rispetto a un chatbot che diventa l’unico posto dove certe cose si possono dire.
La differenza non sta nella quantità di tempo, ma in quello che rimane fuori quando il chatbot prende spazio: le amicizie che si rarefanno, le conversazioni in famiglia che si chiudono, le relazioni reali che cominciano a sembrare “più difficili” o “meno sicure” di una chat con una macchina.
Come riaprire lo spazio senza chiuderlo
La tentazione è porre un limite. “Basta col telefono, parliamo.” Ma quella mossa, quasi sempre, ottiene l’effetto contrario: chiude la porta che stavi cercando di aprire.
Il punto di partenza è la curiosità, non il giudizio. Non “cosa ci fai con quella roba” ma “sembra che ci parli molto — com’è?” Lasciare spazio alla risposta, anche se è breve o difensiva. Non cercare di smontare l’esperienza: “ma è solo un bot” è una frase che lui sente già come un’accusa.
Quello che aiuta, secondo il framework relazionale che emerge dalla ricerca, è distinguere tra “ti piace usarlo” — normale — e “ci vai quando ti senti male e non sai a chi rivolgerti” — che merita attenzione. Se la risposta alla seconda domanda è sì, quella successiva è: cosa rende difficile parlarne con le persone reali?
Lì c’è la conversazione vera. Non sull’AI: sulle relazioni.
L’AI non è il problema. Lo spazio vuoto, sì
Character.AI, la piattaforma più usata dai teenager in questo contesto, ha deciso nell’ottobre 2025 di rimuovere le chat aperte per gli under 18 e di introdurre limiti temporali d’uso. Anche le aziende, in altri termini, hanno riconosciuto che il tema esiste — e non è solo panico mediatico.
Ma i filtri non sostituiscono la relazione. Se un ragazzo trova nel chatbot un ascolto che non trova altrove, il problema non sparisce quando chiudi l’app: si sposta, si comprime, aspetta. La domanda davvero utile, alla fine, non è “quante ore passa con il bot”. È: quali conversazioni non riesce ancora a fare con le persone intorno a lui?
Rispondere a quella domanda — insieme — è molto più difficile che togliere il telefono. Ma è anche l’unica cosa che funziona.
Fonti
Le ricerche e gli articoli citati
drexel.edu
https://drexel.edu/cci/news/2026/April/teen-AI-chatbot-addiction/
Apri →
arXiv.org
Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives
AI companion chatbots are increasingly popular with teens. While these interactions are entertaining, they also risk overuse that can potentially disrupt offline daily life. We examined how adolescents describe reliance on AI companions, mapping their experiences onto behavioral addiction frameworks and exploring pathways to disengagement, by analyzing 318 Reddit posts made by users who self-disclosed as 13-17 years old on the Character.AI subreddit. We found teens often begin using chatbots for support or creative play, but these activities can deepen into strong attachments marked by conflict, withdrawal, tolerance, relapse, and mood regulation. Reported consequences include sleep loss, academic decline, and strained real-world connections. Disengagement commonly arises when teens recognize harm, re-engage with offline life, or encounter restrictive platform changes. We highlight specific risks of character-based companion chatbots based on teens' perspectives and introduce a design framework (CARE) for guidance for safer systems and setting directions for future teen-centered research.
Apri →commonsensemedia.org
https://www.commonsensemedia.org/sites/default/files/research/report/2025-ai-companions-research-report-final-web.pdf
Apri →blog.character.ai