Ziccardi: “Governare l’IA con regole, etica e conoscenza: la sfida è culturale”

Tempo di lettura: 19 minuti

In questa intervista esclusiva per ByteLegali, il giurista e docente Giovanni Ziccardi affronta i temi più caldi dell’intelligenza artificiale: dalla regolamentazione europea con l’AI Act al delicato equilibrio tra innovazione e tutela dei diritti, passando per il ruolo dell’IA nella professione legale, i rischi di deepfake e disinformazione, le nuove responsabilità giuridiche e la necessità urgente di alfabetizzazione digitale. Con un linguaggio chiaro e una visione lucida, Ziccardi propone soluzioni concrete per costruire un ecosistema digitale sicuro, giusto e democratico, mettendo al centro la persona e la conoscenza

Di Riccardo Tripepi

Siamo particolarmente lieti di ospitare tra le prime interviste di ByteLegali il professor Giovanni Ziccardi, ordinario di Filosofia del Diritto all’Università degli Studi di Milano, tra i massimi esperti italiani di diritto e nuove tecnologie.

Il professor Ziccardi è stato protagonista della prima edizione di Forw>>rd.Talks, evento organizzato da PolimeniLegal nell’ottobre 2024, con un intervento in cui ha offerto una lettura lucida e appassionata del percorso che ha portato all’approvazione dell’AI Act europeo, sottolineando i retroscena, le difficoltà normative e le sfide culturali legate all’intelligenza artificiale.

A distanza di un anno, lo ritroviamo sulle nostre pagine per approfondire i temi più attuali: dall’impatto della nuova legge italiana sull’IA all’introduzione del reato di deepfake, fino alle questioni cruciali per la professione legale e la democrazia digitale.

Come valuta l’attuale spinta regolatoria sull’intelligenza artificiale, si pensi all’AI Act europeo, rispetto al rapido avanzare della tecnologia? Esiste il rischio che un eccesso di norme freni l’innovazione, oppure ritiene queste regole indispensabili per tutelare diritti e sicurezza nell’era dell’IA?

La spinta regolatoria che stiamo osservando, con l’AI Act europeo come caso emblematico, nasce da una consapevolezza: l’intelligenza artificiale non è soltanto un insieme di algoritmi sofisticati, ma una tecnologia pervasiva, capace di incidere su diritti fondamentali, mercati, sicurezza nazionale e, persino, processi democratici. L’Unione Europea, coerente con la sua tradizione giuridica centrata sulla tutela dei diritti e sulla costruzione di un mercato interno equo, ha scelto un approccio risk-based: non un divieto generalizzato, né una deregulation che lasci mano libera alle imprese, ma una graduazione delle regole in base al livello di rischio che un sistema di IA comporta per individui e società.

Ora, il nodo critico che lei solleva – il rischio di un eccesso normativo – è reale e non va liquidato con superficialità. La storia della regolazione tecnologica mostra che il diritto è per sua natura più lento della tecnologia: norme troppo rigide o calate dall’alto possono soffocare l’innovazione, spingendo le imprese verso contesti normativi più permissivi e creando quello che in dottrina si definisce forum shopping normativo. Tuttavia, l’alternativa non può essere il vuoto regolatorio. Senza regole chiare su trasparenza, responsabilità, tracciabilità e sicurezza, rischiamo di trovarci di fronte a tecnologie opache, difficili da controllare, con conseguenze potenzialmente devastanti sui diritti delle persone.

Il punto, dunque, non è scegliere tra innovazione e regolazione, ma trovare un equilibrio dinamico. Le norme devono essere sufficientemente chiare da fornire certezza giuridica, ma anche abbastanza flessibili da adattarsi ai rapidi mutamenti tecnologici. L’AI Act, con i suoi meccanismi di revisione periodica e con l’attenzione a standard tecnici in continua evoluzione, prova a muoversi in questa direzione.

La regolazione dell’IA non va intesa come freno, ma come condizione abilitante per un’innovazione sostenibile e socialmente accettabile: solo in un contesto di fiducia, sicurezza e rispetto dei diritti l’intelligenza artificiale potrà svilupparsi pienamente senza generare nuove forme di disuguaglianza o rischio sistemico.

Il Garante Privacy italiano ha sanzionato OpenAI con 15 milioni di euro per le violazioni commesse da ChatGPT nel trattamento dei dati personali, provvedimento poi sospeso cautelativamente dal Tribunale di Roma a marzo 2025 previa prestazione di cauzione da parte dell’azienda. Come si possono bilanciare lo sviluppo dell’IA generativa e il rispetto della privacy? Quali lezioni dovrebbero trarre giuristi e legislatori dal “caso ChatGPT” per aggiornare le tutele dei dati nell’epoca dei modelli linguistici di larga scala?

Il cosiddetto caso ChatGPT rappresenta una svolta paradigmatica nel rapporto tra innovazione tecnologica e diritto alla protezione dei dati personali. La sanzione del Garante Privacy italiano, che ha inflitto a OpenAI 15 milioni di euro per presunte violazioni nel trattamento dei dati, e la successiva sospensione cautelare disposta dal Tribunale di Roma a condizione della prestazione di una cauzione, hanno messo in luce una tensione che caratterizzerà l’intero futuro della regolazione digitale: da un lato la necessità di promuovere lo sviluppo dell’IA generativa, dall’altro l’esigenza di garantire il rispetto della privacy e dei diritti fondamentali.

La natura stessa dei modelli linguistici su larga scala, alimentati da enormi quantità di dati provenienti da fonti eterogenee e spesso non del tutto trasparenti, pone interrogativi delicatissimi sulla liceità della raccolta e sull’uso delle informazioni, sulla base giuridica del trattamento e, soprattutto, sulla reale possibilità di garantire ai cittadini i diritti di accesso, rettifica, cancellazione e opposizione previsti dalla normativa europea. L’opacità intrinseca dei modelli di machine learning rende questi diritti, almeno in parte, difficili da esercitare e impone una riflessione profonda su come tradurre i principi giuridici in strumenti tecnici realmente efficaci.

Il bilanciamento tra innovazione e tutela dei diritti, dunque, non può essere ridotto a un aut aut. L’esperienza di ChatGPT suggerisce che occorra un approccio regolatorio capace di combinare norme generali come il GDPR, pensate per tutelare in via ampia la riservatezza e la dignità delle persone, con strumenti più specifici e flessibili come l’AI Act e gli standard tecnici in costante aggiornamento. È da questo intreccio che può nascere un sistema normativo in grado di reggere il ritmo del progresso tecnologico senza sacrificare i valori fondamentali della persona.

La lezione che giuristi e legislatori dovrebbero trarre è chiara: la protezione dei dati nell’epoca dei modelli linguistici richiede categorie interpretative nuove e un legislatore capace di interventi dinamici e adattabili. Solo così l’innovazione potrà svilupparsi in un contesto di fiducia, sicurezza e rispetto dei diritti, trasformandosi in un alleato della libertà individuale anziché in una minaccia silenziosa.

La sua ultima pubblicazione “Intelligenza artificiale: una guida semplice per il giurista del futuro” (Giuffrè, 2025) nasce dalla Sua esperienza pratica con ChatGPT e altri strumenti di IA generativa, offrendo una “bussola” per i professionisti del diritto in un mercato tecnologico in continua evoluzione. Quali opportunità e rischi principali vede nell’adozione dell’IA da parte di avvocati e giuristi? Che consigli darebbe a un giurista del futuro per usare queste tecnologie in modo efficace ed etico, nel rispetto delle norme deontologiche?

Nella mia ultima pubblicazione, “Intelligenza artificiale. Una guida semplice per il giurista del futuro”, ho cercato di tradurre in un linguaggio accessibile ciò che l’esperienza pratica con strumenti come ChatGPT mi ha insegnato: l’IA rappresenta al tempo stesso un’enorme opportunità e una sfida complessa per i professionisti del diritto.

Le opportunità sono evidenti. L’intelligenza artificiale può supportare avvocati e giuristi nell’analisi di grandi volumi di testi, nella ricerca giurisprudenziale, nella redazione di bozze contrattuali o di pareri e persino nella simulazione di scenari processuali. In altre parole, può liberare tempo e risorse da attività ripetitive a basso valore aggiunto, consentendo ai professionisti di concentrarsi sugli aspetti strategici e interpretativi del diritto, quelli che richiedono creatività, giudizio critico e sensibilità umana. È la prospettiva di un giurista aumentato, capace di integrare la propria competenza con strumenti tecnologici sempre più sofisticati.

Ma sarebbe illusorio ignorare i rischi. Gli algoritmi non sono infallibili: i dati con cui vengono addestrati possono riflettere pregiudizi, i modelli possono generare errori o allucinazioni, e l’opacità delle loro logiche interne pone interrogativi di trasparenza, responsabilità e conformità normativa. Inoltre, la dipendenza eccessiva da strumenti automatizzati potrebbe ridurre la capacità critica dei professionisti, trasformando il giurista da interprete consapevole a semplice “utente” di tecnologie che non sempre comprende a fondo.

Per questo, il consiglio che darei a un giurista del futuro è duplice. Da un lato, abbracciare la tecnologia con curiosità e spirito innovativo, imparando a comprenderne i meccanismi di base e le potenzialità; dall’altro, mantenere saldo il presidio etico e deontologico che da sempre caratterizza le professioni legali. Usare l’IA in modo efficace non significa delegare ogni decisione all’algoritmo, ma integrarlo nel proprio lavoro con senso critico, trasparenza verso i clienti, attenzione alla riservatezza e pieno rispetto delle normative vigenti.

Solo così sarà possibile trasformare l’intelligenza artificiale in uno strumento di “emancipazione professionale” e non in una fonte di nuovi rischi, preservando quella fiducia nel sistema giuridico che è il fondamento stesso della nostra democrazia.

In una sua riflessione ha affermato che, in tema di cybersicurezza, il problema non è se i nostri dati verranno violati, ma quando. Secondo il rapporto dell’Agenzia per la Cybersicurezza Nazionale, solo nel 2023 gli attacchi informatici in Italia sono aumentati del 29%. Alla luce di questi trend e dell’impiego crescente di strumenti di IA, quali strategie ritiene più urgenti per proteggere dati e sistemi critici?

Quando affermo che, in materia di cybersicurezza, il problema non è se i nostri dati verranno violati, ma quando, intendo sottolineare un principio ormai consolidato nella comunità scientifica e nelle pratiche operative: la sicurezza informatica assoluta non esiste. La crescente sofisticazione degli attacchi, unita alla pervasività di sistemi digitali interconnessi e, oggi, alla potenza degli strumenti di intelligenza artificiale, rende inevitabile un cambiamento di prospettiva: non possiamo limitarci alla prevenzione, ma dobbiamo adottare un approccio integrato e resiliente, che combini prevenzione, rilevamento, risposta rapida e capacità di recupero.

Il dato fornito dall’Agenzia per la Cybersicurezza Nazionale – un aumento del 29% degli attacchi nel solo 2023 – è eloquente. E l’introduzione di tecniche di IA, utilizzate tanto dagli attaccanti quanto dai difensori, amplifica le sfide: da un lato, i criminali informatici possono sfruttare modelli generativi per creare phishing più credibili o malware più adattivi; dall’altro, le stesse tecnologie possono essere impiegate per rilevare anomalie, automatizzare la risposta agli incidenti e rafforzare i sistemi di autenticazione.

Alla luce di questi trend, ritengo urgenti almeno tre linee strategiche. Anzitutto, una cultura della sicurezza diffusa, che coinvolga non solo i tecnici ma anche manager, dipendenti e cittadini: la maggior parte delle violazioni sfrutta ancora errori umani o configurazioni errate, e senza consapevolezza diffusa ogni tecnologia difensiva rischia di essere vana. In secondo luogo, l’adozione di standard tecnici e normativi chiari, come quelli previsti dal Cyber Resilience Act europeo, che impongano requisiti minimi di sicurezza per i prodotti digitali e responsabilità più definite per i produttori di software e servizi. Infine, investimenti mirati in tecnologie di difesa basate sull’IA, capaci di operare in tempo reale e di adattarsi alle minacce in evoluzione, uniti a solide strategie di incident response e business continuity che consentano di limitare i danni quando l’attacco – inevitabilmente – avverrà.

La sicurezza del futuro non sarà garantita da una barriera invalicabile, ma da un ecosistema digitale resiliente, nel quale tecnologia, diritto e consapevolezza collettiva lavorino insieme per proteggere dati e infrastrutture critiche in un mondo sempre più interconnesso e vulnerabile.

In “Tecnologie per il potere” ha esaminato l’uso delle tecnologie digitali nei meccanismi del potere politico, e in L’odio online ha affrontato il tema dei discorsi d’odio in rete. Oggi strumenti di IA generativa permettono di creare fake news, deepfake e campagne di disinformazione automatizzate su larga scala. Dal suo punto di vista, quanto inciderà l’IA sui processi democratici e sul dibattito pubblico? Quali rischi concreti intravede e che tipo di interventi, normativi o tecnologici, reputa necessari per salvaguardare la democrazia digitale dalla minaccia di informazioni generate artificialmente?

L’avvento dell’IA generativa segna una fase del tutto nuova nell’intersezione tra tecnologia, potere e informazione. Se già in “Tecnologie per il potere” avevo evidenziato come le tecnologie digitali fossero divenute strumenti centrali nei meccanismi di influenza politica e nel controllo sociale, e in “L’odio online” avevo analizzato l’impatto dei discorsi d’odio nei contesti digitali, oggi con i sistemi di IA generativa ci troviamo davanti a un salto di qualità senza precedenti.

La capacità di produrre testi, immagini, video e persino voci sintetiche indistinguibili da quelle reali consente di creare fake news, deepfake e intere campagne di disinformazione con una velocità, una scala e una verosimiglianza mai sperimentate prima. Questo rischia di alterare profondamente i processi democratici, già fragili in un’epoca segnata da polarizzazione e sfiducia nelle istituzioni. Le elezioni, i dibattiti pubblici e perfino le emergenze globali – si pensi a una crisi sanitaria o a un conflitto armato – potrebbero essere influenzati da flussi di informazioni manipolate che disorientano l’opinione pubblica e minano la possibilità stessa di un confronto basato su fatti verificabili.

I rischi concreti sono molteplici. Vi è innanzitutto la possibilità di una manipolazione sistematica della realtà, capace di erodere il terreno comune della verità condivisa su cui si fonda ogni democrazia. A ciò si aggiunge la difficoltà di attribuire correttamente le responsabilità: chi risponde di una campagna di deepfake virale, magari generata da server collocati in giurisdizioni diverse? Infine, vi è il pericolo che l’opinione pubblica, sommersa da contenuti indistinguibili tra vero e falso, cada in una sorta di “cinismo informativo”, rinunciando a distinguere del tutto la realtà dalla manipolazione.

Di fronte a questa sfida, ritengo necessaria una strategia a più livelli. Sul piano normativo, occorrono regole chiare sulla trasparenza dei contenuti generati artificialmente, come quelle previste dall’AI Act europeo con l’obbligo di “etichettatura” dei deepfake, insieme a meccanismi di responsabilità che coinvolgano piattaforme e fornitori di tecnologie. Sul piano tecnologico, servono strumenti di tracciabilità e autenticazione dei contenuti, come firme digitali o protocolli di content provenance, capaci di attestare l’origine di un’informazione e le sue eventuali manipolazioni. Ma tutto questo deve essere accompagnato da un investimento massiccio in alfabetizzazione digitale: senza cittadini in grado di comprendere le dinamiche della disinformazione, anche le migliori leggi e tecnologie rischiano di essere inefficaci.

L’IA generativa può trasformarsi in una straordinaria opportunità per arricchire il dibattito pubblico, ma senza adeguate garanzie rischia di diventare un moltiplicatore di caos informativo. Proteggere la democrazia digitale significa quindi agire insieme su norme, tecnologie e cultura civica, perché solo così sarà possibile preservare uno spazio pubblico fondato su verità, responsabilità e libertà.

Molti modelli di IA avanzati operano come una “scatola nera”, difficilmente comprensibile dall’esterno, e possono produrre errori imprevedibili o allucinazioni. Ciò pone un problema di responsabilità quando tali sistemi vengono adottati in ambiti critici, come sanità o giustizia. Chi dovrebbe legalmente rispondere di un danno causato da una decisione automatizzata o da un output sbagliato generato dall’IA? Ritiene che il quadro normativo attuale offra già strumenti adeguati per attribuire questa responsabilità, oppure c’è bisogno di nuove soluzioni giuridiche?

Il problema della responsabilità per i danni causati da sistemi di intelligenza artificiale, soprattutto quando parliamo di modelli complessi e opachi come quelli di tipo “scatola nera”, rappresenta oggi una delle questioni giuridiche più delicate e controverse. Quando un algoritmo utilizzato in sanità formula una diagnosi errata, o quando un sistema automatizzato contribuisce a una decisione giudiziaria viziata da errori o bias, diventa immediatamente cruciale capire chi debba rispondere di quelle conseguenze.

Il quadro normativo attuale, a livello europeo, offre alcuni punti di partenza ma lascia ancora ampie aree d’ombra. Il diritto civile tradizionale – pensiamo alla responsabilità contrattuale o a quella extracontrattuale – consente di risalire al produttore del software, al fornitore del servizio o all’operatore umano che ne ha fatto uso, applicando criteri come la colpa, il difetto del prodotto o la negligenza professionale. Ma questo schema, concepito per tecnologie relativamente “deterministiche”, fatica a reggere di fronte a sistemi che apprendono, evolvono e generano output non sempre prevedibili neppure dai loro creatori.

Proprio per colmare questo vuoto, l’Unione Europea stava lavorando su due fronti normativi: da un lato l’AI Act, che è riuscito a introdurre requisiti stringenti di trasparenza, sicurezza e gestione del rischio per i sistemi ad alto impatto; dall’altro vi era la proposta di AI Liability Directive, accantonata nel febbraio di quest’anno, che mirava a facilitare l’onere probatorio per le vittime e a chiarire i casi di responsabilità civile connessi all’uso dell’IA. Si tratta di tentativi (alcuni andati a buon fine) di adattare categorie giuridiche tradizionali a tecnologie che tradizionali non sono più, senza però introdurre – almeno per ora – regimi completamente nuovi come una responsabilità oggettiva del produttore o personalità giuridiche per le macchine.

A mio avviso, la sfida non è soltanto giuridica, ma anche concettuale. Dobbiamo evitare due estremi: da un lato, quello di scaricare tutta la responsabilità su chi utilizza l’IA, trasformando i professionisti in meri capri espiatori; dall’altro, quello di immaginare una sorta di “zona franca” in cui nessuno risponde, con il rischio di deresponsabilizzare produttori e sviluppatori. L’obiettivo dovrebbe essere un sistema di responsabilità condivisa e graduata, che tenga conto della complessità della filiera tecnologica (o “catena di valore” della IA): chi progetta, chi fornisce, chi integra e chi utilizza devono essere chiamati a rispondere in misura proporzionata al ruolo che hanno avuto nella generazione del danno.

Gli strumenti normativi attuali rappresentano un punto di partenza, ma la rapidità con cui l’IA evolve richiederà inevitabilmente nuove soluzioni giuridiche, capaci di conciliare tutela delle vittime, incentivo all’innovazione e chiarezza delle regole, senza cadere in semplificazioni che rischierebbero di frenare lo sviluppo o di lasciare spazi di impunità.

Il ddl sull’intelligenza artificiale approvato in terza lettura al Senato introduce, tra le altre novità, il reato di deepfake, demandando ai decreti attuativi la definizione puntuale delle fattispecie e delle pene. Secondo Lei, questa scelta normativa rappresenta un passo avanti concreto nella tutela della reputazione e della democrazia digitale, oppure rischia di rimanere una norma “di principio” senza reale efficacia pratica? Come andrebbe costruito, a Suo giudizio, un sistema sanzionatorio equilibrato che colpisca gli abusi senza comprimere libertà di espressione?

L’introduzione del reato di deepfake nel ddl sull’intelligenza artificiale approvato al Senato rappresenta, almeno sul piano simbolico, un passo avanti importante nella presa di coscienza del legislatore italiano rispetto ai rischi che le manipolazioni digitali pongono alla reputazione individuale e alla tenuta della democrazia. Il fatto che la norma rinvii ai decreti attuativi la definizione puntuale delle fattispecie e delle pene mostra però che siamo ancora di fronte a una cornice normativa incompleta, che rischia di restare di principio se non sarà accompagnata da un lavoro tecnico-giuridico di dettaglio.

Il deepfake, infatti, è una tecnologia ambivalente: può avere usi legittimi, persino creativi o giornalistici, ma può anche diventare strumento di disinformazione, revenge porn, estorsioni e campagne diffamatorie su larga scala. Il rischio, dunque, è duplice: da un lato, che una disciplina troppo generica finisca per essere inapplicabile nella prassi giudiziaria; dall’altro, che una norma eccessivamente repressiva si trasformi in una minaccia per la libertà di espressione, soprattutto in contesti artistici, satirici o di critica politica.

A mio avviso, un sistema sanzionatorio equilibrato dovrebbe poggiare su alcuni principi chiave. In primo luogo, tipizzare con chiarezza le condotte illecite, distinguendo tra manipolazioni che ledono diritti fondamentali – come la reputazione, la dignità o la sicurezza pubblica – e usi legittimi protetti dal diritto di cronaca o di critica. In secondo luogo, occorre graduare le pene in base alla gravità del danno e all’intenzionalità: non sono la stessa cosa un deepfake satirico e una campagna coordinata per destabilizzare un’elezione. Infine, sarebbe necessario affiancare alla repressione penale strumenti preventivi e tecnologici, come l’obbligo di etichettatura dei contenuti sintetici previsto dall’AI Act europeo o sistemi di tracciabilità digitale che rendano più semplice individuare l’origine dei materiali manipolati.

Solo un approccio che combini chiarezza normativa, proporzionalità sanzionatoria e innovazione tecnologica potrà evitare che il reato di deepfake resti lettera morta o, al contrario, diventi un’arma per comprimere la libertà di espressione in rete. La sfida sarà costruire un equilibrio in cui la tutela della reputazione e della democrazia digitale non si traduca mai in censura, ma in responsabilità.

Nel suo intervento a Milano, l’anno scorso, alla prima edizione del Forw>>rd.Talks ha sottolineato che l’AI Act è il primo regolamento europeo a prevedere l’alfabetizzazione dei cittadini come condizione per la sua attuazione, e che questa sarà forse la sfida più difficile. Guardando al 2030, come immagina l’evoluzione delle competenze digitali in Italia ed Europa? E quale ruolo dovrebbero giocare università, ordini professionali e istituzioni per colmare il divario che ancora oggi frena la cultura digitale?

Quando, lo scorso anno a Milano, sottolineavo come l’AI Act fosse il primo regolamento europeo a legare esplicitamente l’efficacia delle proprie norme al livello di alfabetizzazione digitale dei cittadini, intendevo richiamare un punto spesso trascurato: nessuna regolazione, per quanto sofisticata, può funzionare se gli utenti finali non dispongono delle competenze necessarie per comprenderne i presupposti e le finalità.

Guardando al 2030, immagino un’Europa in cui la cultura digitale non sarà più un requisito opzionale, ma una condizione strutturale della cittadinanza democratica. L’alfabetizzazione non dovrà limitarsi a un uso strumentale delle tecnologie, ma dovrà includere la capacità di comprendere come funzionano gli algoritmi, quali dati trattano, quali diritti vengono coinvolti e quali rischi ne derivano. In altre parole, non si tratterà soltanto di insegnare a “usare” le macchine, ma di formare cittadini consapevoli in grado di esercitare un controllo critico sul potere tecnologico.

Per colmare l’attuale divario, il ruolo delle istituzioni educative e professionali sarà decisivo. Le università dovranno integrare nei percorsi formativi moduli di diritto e tecnologia, etica dell’IA e competenze digitali avanzate, superando la tradizionale separazione tra discipline umanistiche e scientifiche. Gli ordini professionali, dal canto loro, dovranno trasformarsi in luoghi permanenti di aggiornamento e formazione continua, capaci di accompagnare avvocati, medici, ingegneri e altri professionisti nel comprendere le implicazioni pratiche ed etiche dell’IA nei rispettivi settori. Infine, le istituzioni pubbliche avranno il compito di promuovere campagne di educazione civica digitale rivolte all’intera popolazione, per evitare che la transizione tecnologica ampli ulteriormente le disuguaglianze sociali e culturali.

Se riusciremo a combinare queste azioni, entro il 2030 potremmo immaginare una società europea in cui la cultura digitale diffusa non solo consenta di applicare in modo efficace normative complesse come l’AI Act, ma diventi il fondamento stesso di una cittadinanza capace di governare, e non subire, le trasformazioni dell’intelligenza artificiale.