Tre disegni di legge coordinati, elaborati congiuntamente dal ministero dell’Interno guidato da Alexander Dobrindt e dal ministero della Giustizia retto da Stefanie Hubig, puntano a dotare il BKA e la Bundespolizei di capacità investigative digitali oggi prive di base legale in Germania. La proposta ruota attorno a due strumenti: il confronto biometrico automatizzato su immagini raccolte dalla rete pubblica, inclusi i social network, e l’analisi incrociata di grandi archivi di dati tramite piattaforme di intelligenza artificiale. I testi sono stati resi disponibili per la consultazione con un termine fissato al 2 aprile 2026, dopo il quale il percorso prevede il passaggio al Consiglio dei ministri federale, al Bundestag e infine al Bundesrat.
Cosa prevedono i tre disegni di legge
Il primo strumento consentirebbe agli investigatori di raccogliere sistematicamente foto e video da fonti accessibili online per confrontarle con le caratteristiche biometriche di sospettati, testimoni o latitanti. Il secondo riguarda l’analisi automatizzata dei dati: la proposta prevede di collegare archivi oggi isolati, in modo da far emergere connessioni tra reati e persone coinvolte che le procedure manuali difficilmente riuscirebbero a individuare. Le autorità hanno indicato come campo di applicazione principale le indagini su terrorismo, criminalità organizzata e reati gravi, dove la mole di informazioni da elaborare supera regolarmente le capacità operative degli investigatori. Il terzo testo estende alcune delle nuove facoltà anche al BAMF, l’ufficio federale per le migrazioni e i rifugiati, limitatamente al confronto biometrico di immagini di richiedenti asilo privi di documenti validi con foto presenti in rete.
L’iniziativa non nasce dal nulla. Un tentativo simile era già stato avanzato nell’autunno del 2024, nell’ambito del cosiddetto “pacchetto sicurezza”: in quella circostanza il Bundesrat aveva bloccato le disposizioni sui poteri di analisi digitale della polizia, approvando soltanto le misure in materia migratoria. Il nuovo pacchetto legislativo riprende quelle misure cercando di costruire un quadro normativo capace di superare i nodi giuridici che avevano portato all’impasse.
Il nodo Palantir e la Corte costituzionale
Al centro del dibattito c’è il software Palantir, sistema di data mining prodotto dall’omonima società americana già attiva in diversi Länder tedeschi.
Baviera, Assia e Renania Settentrionale-Vestfalia lo usano rispettivamente con i nomi VeRA, Hessendata e DAR; nel luglio 2025 anche il Baden-Württemberg ha firmato un contratto da 25 milioni di euro, in attesa di una legge statale che ne legittimasse l’impiego. Proprio su Palantir il Bundesverfassungsgericht si era pronunciato nel 2023, dichiarando incostituzionale l’uso del sistema in Assia e Amburgo per insufficienza delle garanzie a tutela dei diritti fondamentali: la Corte aveva rilevato l’assenza di soglie di intervento chiare, di meccanismi di controllo preventivo e del rispetto dei principi di minimizzazione dei dati e di limitazione delle finalità. Il nuovo disegno di legge federale punta a superare quei vincoli ridisegnando le condizioni d’uso, ma diversi esperti giuridici ritengono che l’operazione si configuri come un tentativo esplicito di aggirare l’orientamento dei giudici costituzionali piuttosto che di conformarsi ad esso. Dobrindt ha dichiarato di non avere obiezioni al software per la sola ragione della sua provenienza americana, una posizione che ha alimentato ulteriori polemiche considerando che Palantir è stata fondata con capitali della CIA e che almeno dieci membri dell’attuale amministrazione statunitense risultano azionisti della società. La Gesellschaft für Informatik, in una presa di posizione di dicembre 2025, aveva già avvertito che i testi nella loro formulazione attuale rischiano di azzerare in pratica la minimizzazione dei dati e la limitazione delle finalità, e che l’impiego di prodotti di fornitori stranieri espone la Germania a rischi concreti di perdita di sovranità digitale, tanto più per via dell’applicabilità del Cloud Act statunitense ai dati trattati da aziende americane.
La questione della sovranità sui dati è rimasta in secondo piano nel dibattito pubblico, eppure incide direttamente sulla catena di responsabilità: se i dati biometrici dei cittadini tedeschi transitano su infrastrutture soggette alla giurisdizione americana, le garanzie offerte dal diritto europeo diventano difficilmente azionabili nella pratica.
Il rischio della scatola nera algoritmica
Le preoccupazioni di carattere tecnico si intrecciano con quelle giuridiche in modo difficilmente separabile. Matthias Marx del Chaos Computer Club ha evidenziato che né la logica interna degli algoritmi impiegati né i casi di errore vengono resi pubblici, e ha ricordato che negli Stati Uniti si sono già verificati episodi documentati di persone arrestate per errori di riconoscimento facciale, con gli effetti distorsivi emersi soltanto a posteriori. Matthias Spielkamp di AlgorithmWatch ha usato l’espressione “regime di sorveglianza” per descrivere l’effetto concreto della proposta: milioni di immagini già presenti in rete potrebbero essere indicizzate e analizzate biometricamente senza che i soggetti ritratti ne abbiano conoscenza o possibilità di opporsi. Il Verfassungsblog ha documentato come in tutta Europa le forze dell’ordine stiano acquisendo poteri basati sull’intelligenza artificiale secondo approcci molto differenti – Germania, Francia e Lussemburgo mostrano scelte legislative difficilmente confrontabili – con il risultato che i diritti fondamentali godono di protezioni diseguali a seconda del Paese in cui il cittadino si trova. La Commissione europea avrebbe dovuto pubblicare le linee guida sui sistemi AI ad alto rischio previste dall’AI Act entro febbraio 2026, ma il ritardo nell’adozione lascia un vuoto che i legislatori nazionali stanno riempiendo con le proprie soluzioni. Nel frattempo il BKA ha già introdotto, nel settembre 2024, un sistema di riconoscimento facciale rinnovato basato sull’intelligenza artificiale che il presidente dell’ufficio Holger Münch ha descritto come uno dei più potenti al mondo, capace di operare anche in condizioni di scarsa illuminazione o con differenze anagrafiche fino a trent’anni tra la foto di riferimento e il soggetto da identificare. L’accuratezza dichiarata è talmente elevata che la verifica manuale da parte degli esperti fotografici risulterebbe, secondo i tecnici del BKA, sostanzialmente superflua: viene mantenuta soltanto per rispettare i requisiti formali imposti dall’AI Act europeo.
Le associazioni di categoria della polizia investigativa tedesca sostengono la proposta, argomentando che sarebbe paradossale vietare agli investigatori l’uso di strumenti disponibili a chiunque in rete. L’argomento ha una sua logica pratica, ma lascia irrisolto il problema centrale: quando un sistema automatizzato determina quali connessioni tra indagini diverse siano “rilevanti”, il ragionamento investigativo entra in una catena causale che gli stessi operatori non riescono a ripercorrere interamente, con conseguenze che diventano visibili – se diventano visibili – solo dopo che le decisioni sono già state prese.
