Affetto artificiale, quando l’amicizia è troppo lenta

Tempo di lettura: 4 minuti

Quasi un terzo degli adolescenti usa chatbot AI ogni giorno. Il mercato delle AI companion vale miliardi e sta esplodendo. Abbiamo insegnato a un'intera generazione che la relazione è un'app che si apre in un secondo, senza i tempi dell'ascolto umano. L'AI Act norma la trasparenza, ma nessuna legge può rallentare chi ha imparato a ottimizzare l'affetto.

Qualche giorno fa, ad una conferenza davanti a duecento ragazzi delle superiori, ho chiesto chi usasse ChatGPT per farsi aiutare con i messaggi alla persona che gli piace. Silenzio totale. Chi lo usasse come confidente per consigli d’amore. Zero mani alzate. Per stemperare l’imbarazzo ho fatto la battuta: “Ah giusto, quelle sono cose da americani. Noi italiani siamo esperti nell’amore.”

Qualche risatina nervosa. Ma la verità è che lo fanno. Solo che dirlo ad alta voce, davanti ai coetanei, è ancora un tabù.

I numeri però non mentono. Secondo uno studio di Common Sense Media il 72% degli adolescenti americani ha usato chatbot AI come compagni. Quasi un terzo lo fa quotidianamente. Il Pew Research Center conferma: il 64% dei teenager tra 13 e 17 anni ha usato chatbot, e il 28% li usa ogni giorno. Non stiamo parlando di una moda passeggera ma di una generazione che sta normalizzando l’idea di confidarsi con algoritmi.

C’è un altro dato che dovrebbe farci riflettere: secondo uno studio pubblicato su JAMA Network Open, uno su otto adolescenti e giovani adulti usa chatbot AI per consigli sulla salute mentale quando si sente triste, arrabbiato o nervoso. Di questi, il 93% dichiara che i consigli ricevuti sono stati utili. Quel dato ci dice quanto siano soli, ma soprattutto che abbiamo trasformato l’ascolto in un servizio che risponde in 0,3 secondi.

Il mercato lo sa benissimo. Secondo SNS Insider, il mercato globale delle AI companion apps ha raggiunto i 6,93 miliardi di dollari nel 2024. E si prevede che supererà i 31 miliardi entro il 2032. Non stiamo più parlando di una nicchia per nerd ma di un’industria di massa dove l’abbonamento all’affetto costa quanto quello a Spotify, ma fattura molto di più.

Replika, RomanticAI, Anima: app che vendono presenza emotiva su abbonamento. Alcune gratuite solo in apparenza. Se vogliamo che l’AI si comporti come partner empatico, paghiamo il piano mensile. L’intimità diventa prodotto scalabile, la relazione si riduce a funzione, e noi dovremmo continuare a chiamarlo progresso? Io non credo.

L’AI Act europeo si preoccupa di etichettare i deepfake, imporre trasparenza sui modelli, vietare la manipolazione cognitiva. Ma nessuna norma può impedire a un adolescente di preferire un algoritmo che risponde subito a un amico che ha bisogno di tempo per pensare. Nessuna legge può rallentare chi ha imparato che l’affetto si trova senza aspettare.

Il problema è culturale, ma giuridicamente, ci troviamo secondo me in un vuoto pericoloso. Chi risponde quando un servizio a pagamento simula empatia senza averne alcuna responsabilità? Se un adolescente sviluppa dipendenza da un chatbot, se un anziano affida le proprie decisioni a un algoritmo, se qualcuno si fa del male seguendo un consiglio di un modello linguistico, di chi è la colpa? Replika non è soggetta agli stessi obblighi di uno psicologo, Wysa non risponde come un operatore sanitario. Vendono ascolto e incassano abbonamenti, ma per ora non rispondono di quello che succede dopo.

Altri studi recenti mostrano che questi chatbot possono ridurre la solitudine percepita nel breve periodo, ma analisi della Brookings Institution segnalano il rischio opposto: chi sviluppa interazioni più intense con l’AI tende a mostrare isolamento sociale più marcato nel tempo. L’effetto sollievo immediato rischia di alimentare una dipendenza che aggrava il problema che promette di risolvere.

Torno a quei ragazzi davanti a me in silenzio alla conferenza. Non alzavano la mano per vergogna, ma anche perché per loro la domanda era già obsoleta. Noi ci chiediamo ancora se sia giusto confidarsi con un’AI, loro lo stanno già facendo. E lo fanno perché abbiamo insegnato loro che tutto deve essere immediato, ottimizzato, frictionless. Trasformando la relazione in performance, l’ascolto in servizio e riducendo l’affetto a commodity. E ora ci stupiamo se preferiscono la macchina all’amico.

Credo non sia l’algoritmo ad avanzare, ma lo spazio umano a ritirarsi perché richiede lentezza, fatica e imprevedibilità che abbiamo smesso di considerare accettabili. Se noi adulti normiamo la tecnologia ma insegniamo l’efficienza come valore assoluto, quel silenzio sarà definitivo.

Quindi cosa ci resta, se ottimizziamo anche l’affetto?

Gabriele Gobbo

di Gabriele Gobbo

Divulgatore, docente e consulente di comunicazione digitale. Da oltre trent’anni studia l’impatto delle tecnologie sui processi decisionali, sulla società e sulle istituzioni, con particolare attenzione alle implicazioni etiche e di governance. Autore di Digitalogia e ideatore del concetto di Sonnambuli Digitali, promuove un approccio critico e consapevole al digitale. È vicepresidente del Digital Security Festival e conduce il programma televisivo FvgTech.