L’Unione Europea ha ritirato la legge che avrebbe regolato la responsabilità dell’intelligenza artificiale, e il Parlamento ha scelto di non reagire. La scelta di Bruxelles, arrivata in un momento di crescente pressione politica e industriale, apre un vuoto normativo che rischia di rallentare la costruzione di un mercato europeo dell’intelligenza artificiale trasparente e affidabile.
L’Europa rinuncia alla legge sulla responsabilità dell’IA
In buona sostanza, il Parlamento europeo ha deciso di non fare causa alla Commissione per il ritiro della direttiva sulla responsabilità dei sistemi di intelligenza artificiale. La proposta, elaborata per chiarire chi dovesse rispondere di eventuali danni causati da algoritmi e tecnologie autonome, è stata archiviata insieme a un’altra iniziativa sul diritto dei brevetti. La decisione, annunciata a febbraio, ha colto di sorpresa molti eurodeputati e sollevato perplessità tra le imprese che chiedevano certezze giuridiche in materia di innovazione digitale.
La direttiva avrebbe dovuto affiancare l’AI Act come pilastro normativo del nuovo ecosistema europeo dell’intelligenza artificiale. La sua assenza lascia un vuoto significativo: le regole sull’uso e lo sviluppo dei sistemi intelligenti esistono, ma mancano quelle che definiscono la responsabilità civile. È un’assenza che pesa soprattutto per le aziende che integrano soluzioni di IA nei propri servizi, chiamate a gestire rischi senza un quadro legale preciso.
Pressioni politiche e domande di trasparenza
Il ritiro della proposta è avvenuto poco dopo l’incontro tra la presidente della Commissione Ursula von der Leyen e il vicepresidente statunitense JD Vance al Paris AI Action Summit. Durante quell’evento, Vance aveva criticato l’approccio regolatorio europeo, definendolo eccessivamente rigido. Alcuni parlamentari, come il socialdemocratico Tiemo Wölken, hanno chiesto chiarimenti avviando una causa di trasparenza per ottenere i documenti relativi alla riunione, sospettando che fattori politici o pressioni esterne possano aver influenzato la decisione.
Il punto non è soltanto la scelta di ritirare una legge, ma il modo in cui è stata presa: senza spiegazioni pubbliche e in un momento in cui la fiducia nelle istituzioni digitali dovrebbe essere rafforzata, non indebolita.
L’assenza di una normativa dedicata alla responsabilità rischia di creare disparità tra Paesi membri, che potrebbero decidere di legiferare in modo autonomo. In un mercato unico, questo significherebbe frammentazione e maggiore incertezza legale per le imprese tecnologiche europee.
Un vuoto che pesa su innovazione e fiducia
Senza una direttiva chiara, le conseguenze pratiche riguardano sia la tutela dei cittadini sia la competitività delle aziende. Chi sviluppa soluzioni basate su algoritmi di machine learning o generative AI si trova in una zona grigia, dove non è definito se la responsabilità ricada sul produttore, sull’utilizzatore o sul fornitore della piattaforma. È un limite che scoraggia gli investimenti e rallenta l’adozione di nuove tecnologie.
Forse l’Europa teme di muoversi troppo in fretta, ma il rischio è rimanere indietro proprio nel momento in cui servono regole che creino fiducia. Senza trasparenza, la tecnologia diventa un terreno di opacità e sospetto.
Nel frattempo, altri dossier continuano ad avanzare: l’AI Act è entrato nella fase finale dei negoziati e le istituzioni europee cercano un equilibrio tra innovazione e responsabilità. Ma il caso della direttiva sulla responsabilità mostra che la strada verso un’Europa realmente digitale e giuridicamente solida è ancora lunga.
Verso quale responsabilità digitale?
Il Parlamento europeo ha scelto la prudenza, rinunciando a una battaglia legale che avrebbe potuto ridefinire i confini istituzionali tra le istituzioni dell’UE. Tuttavia, la questione di fondo rimane: in un’epoca in cui l’intelligenza artificiale influenza decisioni economiche, sanitarie e giudiziarie, non esiste ancora una norma che stabilisca con chiarezza chi risponde dei danni. Se il diritto non segue la tecnologia, sarà la tecnologia a definire le regole da sola e non è detto che lo faccia nel modo più equo.
