Londra accelera sul riconoscimento facciale, l’Europa lo frena

Tempo di lettura: 3 minuti

Il governo britannico vuole rendere permanente l’uso di telecamere con riconoscimento facciale da parte della polizia, mentre l’Unione Europea ha scelto un approccio opposto con l’AI Act. La normativa europea vieta l’impiego in tempo reale in spazi pubblici, salvo eccezioni molto ristrette. Lo scontro tra modelli normativi apre un dibattito sulla direzione futura della sicurezza digitale.

Il governo britannico ha annunciato l’intenzione di ampliare l’uso del riconoscimento facciale in tempo reale da parte delle forze di polizia, citando come esempio l’esperienza di Croydon, sobborgo londinese dove le telecamere sono già operative in via permanente. Secondo la ministra della polizia Sarah Jones, il sistema rappresenta un successo e deve essere adottato in modo più ampio in Inghilterra e Galles. Parallelamente è stata avviata una consultazione pubblica per definire le regole d’impiego, con un documento di orientamento atteso entro la fine dell’anno.

Attualmente la tecnologia è impiegata per confrontare i volti dei passanti con una lista circoscritta di persone sospette. Si tratta di un esperimento pilota, sostanzialmente. L’eventuale intervento resta a discrezione degli agenti, senza automatismi che portino a un fermo immediato. Nonostante questo, alcuni episodi hanno sollevato dubbi sull’affidabilità del sistema: un cittadino nero, Shaun Thompson, è stato fermato senza essere inserito nella lista, caso che ha dato origine a un ricorso legale. Diversi studi hanno evidenziato che il riconoscimento facciale presenta tassi di errore più elevati con persone non bianche, alimentando il rischio di discriminazioni, facendo riaffiorare alla mente le prime applicazioni dell’AI al riconoscimento facciale e sollevando dubbi sulle attività di risk assessment e minimizzazione degli errori.

Il modello britannico e le critiche

Il progetto di Londra si inserisce in un contesto internazionale in cui l’uso del riconoscimento facciale è oggetto di forte dibattito. Le autorità britanniche puntano a un’applicazione stabile della tecnologia, sottolineando la sua utilità nella prevenzione e repressione dei reati. I detrattori, invece, richiamano il pericolo di una sorveglianza pervasiva e il rischio che errori algoritmici producano conseguenze concrete su persone innocenti. La discussione si concentra quindi sull’equilibrio tra sicurezza e tutela dei diritti, argomento già trattato dal Parlamento europeo durante l’iter legislativo che ha portanto all’emanazione dell’AI Act.

Il confronto con l’AI Act europeo

La strategia britannica, infatti, sembra contrastare con l’impostazione adottata dall’Unione Europea. L’AI Act, infatti, vieta l’uso del riconoscimento facciale in tempo reale negli spazi pubblici, classificandolo come pratica ad alto rischio per i diritti fondamentali. Sono ammesse soltanto eccezioni molto ristrette e anche in questi casi è necessaria un’autorizzazione preventiva da parte di un’autorità indipendente, con limiti precisi di luogo e tempo, oltre a meccanismi di supervisione e trasparenza.

Il confronto mette in luce due visioni opposte: mentre il Regno Unito tende a integrare il riconoscimento facciale nel quotidiano delle forze di polizia, l’UE lo circoscrive a scenari eccezionali e controllati. Ciò significa che telecamere permanenti come quelle di Croydon difficilmente potrebbero trovare spazio in Europa senza entrare in conflitto con il quadro normativo comunitario, anche se, a guardar bene, in Europa, resta un nodo irrisolto. Infatti, le eccezioni previste dall’AI Act si fondano su formule come “sicurezza pubblica” o “reati gravi”. Espressioni di questo tipo, poco delimitate, lasciano spazio a interpretazioni ampie e a possibili abusi. Il rischio è che concetti vaghi diventino il grimaldello per un uso estensivo della biometria, svuotando di fatto la portata del divieto generale.

Sotto il punto di vista del mercato dell’AI, invece, il divario normativo si traduce in scenari diversi. Nel Regno Unito potrebbero svilupparsi soluzioni tecnologiche orientate a un uso esteso e continuativo, mentre in Europa i fornitori dovranno adattarsi a standard più restrittivi, con investimenti mirati alla conformità legale e alla protezione dei diritti civili. La distanza tra i due modelli è strategica, ancor prima che giuridica e rischia di influenzare profondamente la direzione delle innovazioni nel campo della sicurezza digitale, nel bene e nel male.