Ecco come funzionerebbe, nel dettaglio, il sistema “chat control”

Tempo di lettura: 5 minuti

Chat Control: un percorso passo dopo passo che parte dalla valutazione del rischio da parte dell’autorità nazionale, prosegue con l’ordine emesso dal giudice e la scansione affidata ai provider, passa dal filtro tecnico e umano del Centro europeo e si conclude con l’invio dei soli casi fondati a Europol e alle autorità nazionali. Ecco come funziona, in concreto, la nuova proposta europea.

Contesto e quadro di riferimento

La proposta della Commissione europea, di cui si fa un gran parlare nelle ultime settimane, denominata comunemente “Chat control” mira a prevenire e contrastare l’abuso sessuale su minori online, intervenendo su tre aree principali: la diffusione di materiale già noto, l’individuazione di nuovo materiale e la rilevazione di tentativi di adescamento (grooming). L’obiettivo dichiarato è duplice: da un lato proteggere le vittime, dall’altro creare un quadro uniforme nel mercato unico digitale ed evitare la frammentazione normativa tra Stati membri. Il contesto di partenza è segnato dal fatto che l’abuso online sfrutta infrastrutture di hosting, messaggistica e piattaforme social, mentre l’attuale schema, fondato su segnalazioni volontarie e norme nazionali disomogenee, produce lacune operative e risultati incerti. Per questo il legislatore europeo ha scelto di introdurre obblighi armonizzati accompagnati da garanzie, tra cui ordini mirati e temporalmente limitati, proporzionalità, trasparenza e diritto al ricorso.

Cosa stabilisce la normativa (in sintesi operativa)

La normativa prevede anzitutto che i provider considerati a rischio debbano condurre una valutazione specifica sulla possibilità che i loro servizi vengano utilizzati per la diffusione di materiale di abuso su minori o per attività di grooming e adottare misure idonee a mitigare tale rischio. Se, nonostante queste misure, persiste un rischio significativo, l’autorità di coordinamento nazionale può richiedere a un’autorità giudiziaria o amministrativa indipendente l’emissione di un ordine di rilevazione, che deve essere mirato e temporaneo, con indicazione chiara dell’oggetto, della portata e della durata. Una volta ricevuto l’ordine, il provider è tenuto ad eseguirlo utilizzando tecnologie conformi allo stato dell’arte e con il minor grado possibile di invasività, potendo (ma non dovendo per forza) ricorrere agli indicatori e agli strumenti, anche gratuiti e certificati, messi a disposizione dal Centro europeo. Nel caso dei servizi protetti da crittografia end-to-end, l’esecuzione può implicare un’analisi lato client, con tutte le cautele e le garanzie necessarie a preservare la sicurezza complessiva. I contenuti sospetti rilevati vengono segnalati al Centro europeo, che svolge un ruolo di filtro fondamentale: esamina le segnalazioni, elimina i falsi positivi e inoltra solo i casi fondati a Europol e alle autorità nazionali, attivando parallelamente procedure di rimozione e, quando necessario, di blocco dei contenuti illegali. L’intero meccanismo è accompagnato da garanzie strutturali: proporzionalità degli ordini, durata limitata, audit e supervisione costante, diritto di ricorso per utenti e provider, tempi stretti di conservazione dei dati, trasparenza periodica e obbligo di minimizzazione nel trattamento.

Come funziona nel dettaglio: schema di attivazione e flusso di controllo

Per comprendere appieno il funzionamento pratico della proposta si rende necessario entrare nel dettaglio del flusso di attivazione e gestione delle segnalazioni, così da coglierne i passaggi chiave e le garanzie connesse.
Ecco quindi, un breve schema sequenziale del processo di attivazione e gestione delle segnalazioni:

Autorità di coordinamento nazionale → valuta rischio significativo → presenta richiesta

Autorità giudiziaria o amministrativa indipendente → emette ordine di rilevazione

Ordine notificato a:
 • Provider (che deve eseguire la rilevazione)
 • Centro europeo (che viene informato, ma non autorizza)

Provider → applica tecnologia di rilevazione → individua contenuti sospetti

Segnalazioni → inviate dal provider al Centro europeo

Centro europeo → filtra ed elimina falsi positivi → inoltra i casi fondati a Europol e alle autorità nazionali competenti.

Note operative:

  • l’ordine è eccezionale, mirato e temporaneo; non abilita monitoraggi generalizzati “a prescindere”;
  • l’intervento umano è previsto nella verifica delle segnalazioni presso il Centro europeo per ridurre i falsi positivi;
  • rimozione e blocco seguono canali standardizzati con tracciabilità e possibilità di contestazione.

Sicurezza, rischi di uso illecito e leve di mitigazione

Lo schema delineato dalla proposta europea aumenta le capacità di rilevazione e di coordinamento introducendo standard tecnici comuni e un filtro centrale per garantire qualità alle segnalazioni, con garanzie di proporzionalità e temporalità che riducono l’ingerenza e con particolare attenzione ai casi in cui esista la crittografia end‑to‑end, dove l’eventuale analisi lato client deve rispettare principi di necessità, minimizzazione, audit indipendenti e trasparenza tecnica. I rischi di uso illecito emergono soprattutto laddove gli strumenti possano essere estesi oltre lo scopo originario, generando fenomeni di function creep, oppure se venissero introdotti varchi strutturali sfruttabili da terzi. Per questo motivo il legislatore ha previsto presidi tecnici e giuridici solidi come l’esclusione di qualunque porta universale, la segregazione degli accessi, la registrazione immodificabile dei log, audit esterni periodici, una stretta delimitazione dell’oggetto dell’ordine e l’obbligo di reporting pubblico. A rafforzare la tenuta del sistema concorrono vari elementi: gli ordini devono essere mirati e motivati, di durata limitata e soggetti a riesame obbligatorio. La catena decisionale include autorità indipendenti e un doppio controllo tra coordinamento nazionale e autorità giudiziaria o amministrativa. In aggiunta a tutto questo, il Centro europeo svolge un ruolo tecnico di filtro senza alcun potere di autorizzazione e garantisce che un intervento umano verifichi i casi per scartare i falsi positivi
Inoltre, il principio di minimizzazione obbliga a trattare solo i dati strettamente necessari con conservazione breve e anonimizzazione ove possibile. Non dimentichiamo infine che, oltre a quanto sopra, sono previsti anche obblighi di trasparenza, canali di ricorso per utenti e provider, nonché audit e certificazioni delle tecnologie impiegate secondo criteri di privacy by design.

In questa prospettiva la paura di possibili abusi non può essere l’unico criterio di policy: non si vietano i coltelli da cucina perché potenzialmente pericolosi, ma si fissano regole d’uso, controlli, responsabilità e sanzioni. Qui vale lo stesso principio, poiché il bene da proteggere è tra i più alti e le misure tecniche e giuridiche devono essere costruite in modo da raggiungere l’obiettivo senza compromettere la libertà e la riservatezza di tutti.