La decisione del tribunale italiano che ha annullato la sanzione da 15 milioni di euro inflitta a OpenAI riapre un confronto già acceso tra regolatori e aziende tecnologiche, inserendosi in una fase in cui l’applicazione delle norme sulla protezione dei dati ai sistemi di intelligenza artificiale resta ancora in evoluzione.
Annullamento della multa a Openai su Chatgpt
Il provvedimento del Garante Privacy era nato da contestazioni legate all’uso dei dati personali per l’addestramento di ChatGPT e alla trasparenza nei confronti degli utenti, con l’ipotesi che il trattamento fosse avvenuto senza una base giuridica adeguata. Il tribunale ha però ritenuto non legittima la sanzione, intervenendo su un caso che fin dall’inizio aveva sollevato dubbi sulla possibilità per un’autorità nazionale di agire su un soggetto con operatività globale, soprattutto in assenza di un coordinamento pienamente definito a livello europeo.
La pronuncia segna un passaggio rilevante perché incide su uno dei primi tentativi concreti di applicare il quadro normativo esistente a sistemi generativi su larga scala, con implicazioni dirette per chi sviluppa, integra o utilizza tecnologie basate su modelli di intelligenza artificiale.
Mancano le motivazioni della sentenza
Un elemento centrale resta l’assenza delle motivazioni della decisione, che al momento non sono state rese pubbliche e quindi impediscono di comprendere quali siano i presupposti giuridici su cui si fonda l’annullamento della multa.
Questa mancanza limita la possibilità di interpretare il perimetro della pronuncia, lasciando aperte diverse letture operative: non è chiaro se il giudice abbia ritenuto carente la procedura seguita dall’autorità, se abbia individuato un problema di competenza territoriale oppure se abbia valutato in modo diverso il rapporto tra trattamento dei dati e funzionamento dei modelli generativi. In un contesto in cui le imprese cercano indicazioni pratiche per orientare le proprie strategie di compliance, l’assenza di queste informazioni riduce la portata immediata della decisione e rimanda ogni valutazione a un momento successivo.
Per chi opera nel digitale, questo significa continuare a muoversi in uno scenario in cui le regole vengono interpretate caso per caso, senza un riferimento stabile che permetta di anticipare con precisione il rischio regolatorio.
Posizione di Openai e silenzio del Garante
OpenAI ha accolto positivamente la decisione, limitandosi a sottolineare l’importanza del confronto con le autorità e ribadendo il proprio impegno sul tema della protezione dei dati, in linea con una strategia comunicativa orientata a rafforzare la legittimità del proprio operato nel contesto europeo.
Dal lato istituzionale, il Garante Privacy non ha rilasciato dichiarazioni ufficiali nell’immediato, elemento che contribuisce a mantenere il quadro aperto e che lascia spazio a possibili sviluppi, inclusa l’eventualità di ulteriori azioni o chiarimenti. La vicenda si inserisce in un percorso più ampio in cui le istituzioni europee stanno cercando di definire strumenti più adatti a governare l’intelligenza artificiale, mentre le aziende continuano a operare su scala globale con modelli difficili da inquadrare nelle categorie giuridiche tradizionali.
