Editoriale

It’s not a fair game, amore mio.

Antonino Polimeni

Avvocato, fondatore di Polimeni.Legal, da oltre vent’anni si occupa di diritto applicato al mondo digitale. Autore di numerosi libri, è presidente dell’Associazione Digital for Children, con cui promuove l’educazione digitale e guida missioni umanitarie nel mondo. Difende un’idea semplice: la tecnologia deve servire alle persone, non dominarle.

Sul ring dei social network si sfidano due giocatori.

Da una parte c’è un ragazzo di tredici anni, con un’identità che si forma giorno per giorno, con un bisogno di appartenenza crescente, con un cervello che le neuroscienze hanno dimostrato essere ancora incompiuto nelle aree che governano il controllo degli impulsi e la valutazione del rischio. Dall’altra ci sono le piattaforme, con un apparato industriale di proporzioni che non hanno precedenti nella storia dell’uomo, che ha assunto migliaia di ingegneri comportamentali, psicologi cognitivi, designer che lavorano su milioni di varianti al giorno per capire quale colore del pulsante, quale sequenza di notifiche, quale ritmo di scorrimento produca il tempo di permanenza più lungo. Chi vincerà?

Eppure ce la prendiamo ogni giorno con il giocatore più debole, “spegni il telefono!”, affidando l’intera partita alla forza di volontà dell’adolescente, mentre egli sfida, senza alcuna speranza, la più raffinata intelligenza artificiale creata proprio per aggirare quella la forza di volontà, allo scopo di tenere il suo avversario fisso online, per far guadagnare più soldi alla piattaforma.

Un adulto fatica a resistere a sistemi progettati con quella precisione. Pretendere che un cervello in sviluppo ci riesca per effetto dell’educazione familiare è un pensiero magico, irrealizzabile.

Puntare il dito contro i nostri figli, significa sbagliare completamente bersaglio, spostando completamente l’attribuzione delle responsabilità.

Serve invece intervenire sulle piattaforme, sul design, sulla profilazione, sulla logica che premia contenuti polarizzanti. Serve affermare che esistono limiti per le big tech quando in gioco c’è la salute mentale.

Per comprendere davvero il problema occorre, ancora una volta, spiegare in modo semplice che cos’è un algoritmo di raccomandazione.
È un sistema in cui ogni interazione viene registrata: quanto tempo resti su un video, se metti like, se condividi, se torni indietro. Questi dati vengono elaborati per prevedere quali contenuti avranno maggiore probabilità di trattenerti più a lungo. L’obiettivo è massimizzare il tempo di permanenza e le reazioni emotive perché da quelle reazioni derivano i ricavi pubblicitari.

Se un ragazzo clicca su un contenuto che parla di diete estreme, il sistema registra quell’interesse e propone contenuti simili, ancora più radicali, perché ha imparato che quel tema genera attenzione.
Se un adolescente interagisce con contenuti che enfatizzano modelli estetici irraggiungibili, l’algoritmo rafforza quella traiettoria.

In questo contesto, chiedere a un minore di “spegnere” significa ignorare la struttura del campo. È come invitare qualcuno a sottrarsi a una dinamica che è stata calibrata per aggirare la sua forza di volontà. E quando non ci riesce, quando sviluppa dipendenza, ansia o isolamento, la reazione sociale tende a colpevolizzare lui o la famiglia, quasi fosse una mancanza educativa.

Non possiamo chiedere a un bambino di vincere una partita che è stata costruita per farlo perdere. Non è giusto. Dobbiamo rivolgere lo sguardo verso chi ha progettato il campo e stabilire che certe dinamiche non sono accettabili.

Nè possiamo tifare per divieti assoluti, che incidono sulla FOMO dei ragazzini e che la storia ci ha raccontato essere inutili.

Come per esempio in Australia, il primo paese a introdurre un divieto totale di accesso ai social per i minori di sedici anni. Pochi mesi dopo l’entrata in vigore, il 72% degli under 16 australiani intervistati ha dichiarato di ritenere che la legge non funzionerà, e tre quarti ha detto che continuerà a usare i social comunque. Francia, Spagna, Danimarca, Norvegia e Grecia stanno seguendo con proposte simili, con soglie che oscillano tra i 15 e i 16 anni. In Italia, in Senato, giace un disegno di legge.

Tra l’altro c’è un tema anche di diritti. Escludere completamente i minori dall’accesso alle piattaforme digitali significa limitare la loro libertà di informarsi, di partecipare al dibattito pubblico, di costruire relazioni con i propri pari in uno spazio che, piaccia o meno, è diventato parte integrante della vita sociale contemporanea. Questa non è un’obiezione secondaria, anche se viene spesso trattata come tale.

La Commissione Europea, quindi, sembrerebbe aver scelto una direzione diversa, più aderente alla natura del problema: l’intervento deve riguardare il funzionamento delle piattaforme: vietare lo scroll infinito per i minori, eliminare la riproduzione automatica, smettere di usare sistemi di raccomandazione basati sull’engagement quando gli utenti hanno meno di diciotto anni. Cambiare le regole del campo, non allontanare i giocatori dal bordo.

Questa è, probabilmente, la direzione giusta, anche se richiede una capacità tecnica di verifica e sanzione che l’Europa non ha ancora del tutto costruito. Richiede anche di resistere alla pressione di chi, dentro e fuori le istituzioni, continua a trattare la regolamentazione delle piattaforme come un attacco all’innovazione o alla libertà di mercato.

Bisogna agire sul meccanismo. Senza ambiguità. Il campo è stato costruito contro i ragazzi. Spetta a noi adulti – legislatori, regolatori, cittadini – decidere se vogliamo continuare a fingere che il problema sia la forza di volontà dei ragazzi.

Nessuno costringeva i bambini ad andare nel Paese dei Balocchi. Arrivavano da soli, di corsa, trascinandosi dietro gli amici, attratti con la promessa del divertimento infinito. La terribile trasformazione era lenta, invisibile, e quando i bambini si accorsero delle orecchie da asino, ormai era già tardi. Collodi volevsa scrivere solo una favola. Ma aveva descritto un algoritmo.