MILANO – Si è chiusa, negli spazi dell’Università Bocconi, l’edizione 2026 dell’AI Festival, due giornate che hanno messo al centro un passaggio ormai evidente per chi lavora nel digitale. L’intelligenza artificiale sta entrando in una fase in cui i sistemi AI non possono più essere considerati come semplici strumenti e iniziano ad agire, decidere e interagire in modo autonomo. L’“Agentic Era”, tema dichiarato del Festival, è stata affrontata con un taglio meno celebrativo del solito e più attento alle conseguenze pratiche, giuridiche e politiche di questa trasformazione.
La Plenaria ha tenuto insieme industria, ricerca e istituzioni, ma i momenti più densi sono arrivati quando il confronto si è spostato dal piano tecnico a quello democratico. In quel passaggio è emerso con chiarezza che l’aumento di autonomia dei sistemi comporta un aumento proporzionale della posta in gioco sul piano dei diritti, della trasparenza e della capacità degli Stati di governare infrastrutture che incidono direttamente sulla vita delle persone.
AI agentica e uso politico della tecnologia
La prima giornata ha segnato uno dei passaggi più netti dell’intero Festival con l’intervento in Plenaria della scrittrice e attivista per i diritti umani Pegah Moshir Pour. Il suo racconto sulla repressione digitale in Iran ha riportato il dibattito su un terreno spesso rimosso nei contesti dell’innovazione. Quando la tecnologia diventa infrastruttura di controllo, la neutralità smette di essere una categoria utile.
Nel dialogo sul palco è stato descritto un Paese isolato dal punto di vista informativo, con interruzioni e oscuramenti della rete utilizzati per impedire la documentazione di proteste e violenze. In questo quadro, strumenti digitali avanzati, inclusi sistemi basati su intelligenza artificiale, possono essere impiegati per amplificare disinformazione, sorveglianza e silenziamento delle voci scomode. Il messaggio, diretto e difficile da ignorare, è che chi controlla le leve tecniche può trasformarle rapidamente in leve politiche.
“La scuola educa a pensare in un solo modo, a costruire un nemico invisibile che “viene da fuori”, ma che in realtà è dentro ilsistema stesso. La maggior parte dei manifestanti ha meno di 35 anni. E stanno morendo” queste le parole di Pegah Moshir Pour. Intervistata da Cosmano Lombardo, Founder e Ceo di Search On Media Group e ideatore di AI Festival, Pour ha proseguito: “L’Iran in questo momento è nel buio totale e ancor peggio, nel silenzio globale. Internet è stato tolto dal regime proprio per non dare la possibilità di documentare e raccontare quello che sta accadendo. Hanno provato ad usare l’intelligenza artificiale creando delle fake news, ma siamo stati in grado di capire e segnalare immediatamente. L’intelligenza artificiale può essere usata per salvare e non per reprimere”. Pour accende una luce sull’attuale situazione iraniana, attraversata da un’ondata di proteste e della violenta repressione governativa che sta causando migliaia di vittime, riportando le testimonianze di ragazzi arrestati, torturati, lasciati per giorni senza cibo né acqua, di madri che cercano i figli credendoli morti.
“Non abbiamo capito la gravità di quello che sta accadendo in Iran: da oltre venti giorni 92 milioni di persone sono senza connessione, senza voce, senza possibilità di documentare. Da 47 anni gli iraniani cercano di costruire un futuro diverso. Questa volta non si tratta di semplici rivolte: è una rivoluzione, iniziata il 28 dicembre e diffusa dalle grandi alle piccole città. Oltre il 90% della popolazione non vuole più questo regime” che Moshir definisce “non una repubblica, ma un regime fascista, misogino, razzista e sanguinario. Vivere oggi in Iran, soprattutto per una donna o per un giovane, significa nascere con un destino già scritto.” Interrogata su cosa si possa fare, da qui, risponde: “Chi vive fuori dall’Iran ha una responsabilità ancora maggiore: chiedere responsabilità politica, prima ancora che solidarietà. Dobbiamo agire ora. Prima come esseri umani. Poi come cittadini”
Questo intervento ha funzionato come una sorta di stress test per il concetto stesso di AI agentica. Più i sistemi acquisiscono capacità di azione autonoma, più diventa centrale il tema di chi definisce i limiti, chi controlla l’uso e quali strumenti reali esistono per tutelare diritti e libertà quando il contesto politico è ostile. La prima giornata è stata poi chiusa dall’ex componente del Garante della Privacy Guido Scorza che ha spiegato le ragioni delle sue dimissioni e argomentato sulla necessità di una nuova regolamentazione per la tutela dei dati. Il suo intervento lo trovate qui: Guido Scorza ospite all’AI Festival: “Un passo indietro per salvaguardare l’autorevolezza del Garante” – Byte.Legali.
AI Act e fase attuativa europea
La seconda giornata ha spostato l’attenzione sul fronte istituzionale europeo con l’intervento dell’europarlamentare Brando Benifei, che ha inquadrato l’AI Act come una normativa entrata nella sua fase più delicata: quella dell’attuazione concreta. Il passaggio chiave del suo intervento è stato il richiamo al fatto che alcune scelte di valore si sono già tradotte in limiti operativi e divieti effettivi.
Secondo Benifei “L’utilizzo dei sistemi di intelligenza artificiale è entrato nella sua fase di implementazione vera e propria”. Nonostante il quadro normativo sia ancora in fase di completamento, alcuni pilastri sono già operativi. “Oggi in Europa sono in vigore alcuni divieti di usi ritenuti non desiderabili,” ha spiegato l’eurodeputato, citando esplicitamente il divieto di riconoscimento delle emozioni nei luoghi di lavoro e di studio e il contrasto alla polizia predittiva. Su quest’ultimo punto, Benifei è stato categorico: bisogna evitare sistemi che indovinino “l’attitudine criminale di una persona solo sulla base di caratteristiche personali, una sorta di Lombroso elettronico contro la presunzione di innocenza e i principi dello stato di diritto”.
Un tema centrale riguarda l’uso delle telecamere biometriche. Benifei ha sottolineato come l’Europa abbia scelto di “mettere un argine all’idea che si possa fare sorveglianza massiccia nello spazio della nostra democrazia”. L’uso di tecnologie per il riconoscimento biometrico sarà limitato: “Soltanto con l’autorizzazione di un giudice una telecamera potenziata dall’IA può essere utilizzata per crimini gravi, ricerca di vittime o prevenzione del terrorismo”.
L’attenzione del Parlamento europep è rivolta anche ai rischi sociali della Generative AI. “Abbiamo parlato molto di abuso dei deepfakes e di uso dell’IA per fare la ‘nudificazione’, come nel caso di Grock,” ha riferito Benifei, aggiungendo che l’AI Act affronterà questi temi attraverso l’obbligo di trasparenza. L’obiettivo è rendere i contenuti generati dall’IA sempre riconoscibili, proteggendo i cittadini anche da contenuti estremi, come i “chatbot che incitano al suicidio”.
Non c’è solo regolamentazione, ma anche una forte spinta allo sviluppo. Benifei ha evidenziato la necessità di supportare startup e PMI, spesso frenate dalla “assenza di accesso ai capitali e dalla mancanza di chiarezza normativa”. In questo contesto, l’Italia giocherà un ruolo chiave: “In Italia ci sarà una ‘AI Factory’ a Bologna, con il potenziamento del supercomputer Leonardo”.
Tuttavia, l’eurodeputato ha richiamato l’Europa a una maggiore unità politica per evitare che gli sforzi nazionali risultino frammentati: “Serve un’Europa più unita nel far valere non solo delle regole, ma anche la capacità di sviluppare investimenti e capacità computazionale”.
Il futuro dell’IA si gioca infine sui tavoli internazionali. Benifei ha annunciato la sua partecipazione al prossimo forum mondiale sull’IA a Nuova Delhi, su invito del governo indiano, per discutere di AI Safety e rischi esistenziali, come quelli legati ai “killer robots”.
“Abbiamo bisogno che gli attori, a partire dalla coalizione delle democrazie ma anche con gli attori non democratici, trovino dei punti in comune,” ha concluso Benifei, affinché l’IA non diventi un fattore di rischio ma “uno strumento di emancipazione e miglioramento della nostra vita, nel rispetto dei valori democratici”.
L’AI Festival 2026 si conferma, dunque, come uno dei principali luoghi di confronto italiani sull’intelligenza artificiale, non solo per la qualità dei contenuti proposti, ma per la capacità di mettere in dialogo mondi che spesso restano separati: ricerca, industria, istituzioni, diritto e società civile. La scelta di affiancare visione tecnologica, riflessione politica e testimonianze sui diritti ha rafforzato il profilo del Festival come spazio di discussione matura sull’AI, lontano tanto dall’entusiasmo acritico quanto da un approccio difensivo.
Per gli attori del digitale, imprese, professionisti, policymaker e innovatori, l’evento ha rappresentato un punto di aggiornamento reale sulla fase che l’intelligenza artificiale sta attraversando, quella dell’implementazione concreta, delle regole che entrano in vigore, delle responsabilità che si definiscono. In questo senso, l’AI Festival si conferma vetrina dell’innovazione, ma costituisce anche un termometro dello stato del dibattito europeo, utile a comprendere dove stanno andando tecnologia, mercato e governance.
