Bruxelles studia nuove regole per gli agenti AI che stipulano contratti

Tempo di lettura: 3 minuti

La Commissione Europea sta valutando come disciplinare gli agenti autonomi dotati di intelligenza artificiale in grado di stipulare contratti. Due le ipotesi sul tavolo: adottare un modello giuridico internazionale o introdurre linee guida di tipo soft law. Il tema apre un nuovo fronte nella regolazione tecnologica.

La Commissione Europea sta esplorando nuove strade normative per disciplinare gli agenti autonomi basati su intelligenza artificiale, capaci di stipulare contratti senza supervisione umana. L’emergere di questi sistemi pone sfide significative per il diritto, che deve confrontarsi con nuove forme di responsabilità e con l’attribuzione di effetti giuridici ad azioni compiute da entità non umane.

Agenti AI e contrattualistica: due ipotesi sul tavolo

Secondo quanto riportato da Euractiv, l’esecutivo europeo starebbe valutando due approcci distinti. Da un lato, si ragiona sull’adozione di un testo giuridico modello sviluppato sotto l’egida delle Nazioni Unite. Questo documento, già condiviso a livello internazionale, offrirebbe una base armonizzata per riconoscere la validità degli atti contrattuali generati da agenti artificiali. Dall’altro lato, prende piede l’idea di intervenire con strumenti di soft law: linee guida non vincolanti, codici di condotta o raccomandazioni capaci di orientare il comportamento degli operatori, senza incidere formalmente sul quadro giuridico esistente.

Questa seconda via risponde alla volontà di non irrigidire un settore in rapida evoluzione, preservando margini di flessibilità per imprese e sviluppatori. Allo stesso tempo, lascia aperto il problema della certezza del diritto, soprattutto nei casi in cui gli agenti AI siano impiegati in contesti ad alto rischio come la finanza, il procurement o l’e-commerce. La questione è tutt’altro che teorica: la capacità di questi agenti di prendere decisioni autonome solleva interrogativi concreti sull’attribuzione della volontà contrattuale, sulla tutela delle parti coinvolte e sulla validità stessa degli accordi generati.

L’architettura normativa esistente e i margini d’azione

Il tema si inserisce in un contesto già tracciato dal Regolamento europeo sull’intelligenza artificiale, approvato nel 2024. Tale regolamento introduce obblighi articolati per i sistemi ad alto rischio, promuove trasparenza e sicurezza e istituisce un’Autorità centrale: l’AI Office. Questo organismo, attivo dal 2025, ha tra i suoi compiti anche quello di elaborare strumenti di soft governance, come il Codice di Pratica volontario recentemente pubblicato per i modelli generativi.

Una delle possibilità al vaglio è proprio quella di estendere questo codice anche agli agenti autonomi con funzioni contrattuali, in attesa di un’eventuale iniziativa legislativa più strutturata. La logica è incrementale: prima si sperimenta una cornice di autoregolazione, poi – se necessario – si interviene con norme vincolanti. Questo approccio graduale consente di osservare il comportamento del mercato e calibrare gli strumenti normativi senza soffocare l’innovazione.

L’interesse verso questi agenti deriva dalla loro crescente capacità di operare in ambienti dinamici, negoziare clausole, selezionare controparti e concludere contratti in modo automatizzato. La diffusione di tali strumenti non è ancora ampia, ma il loro impatto potenziale è tale da richiedere un’attenzione preventiva, soprattutto in ambito europeo, dove il mercato unico impone coerenza normativa tra Stati membri.

In definitiva, la riflessione avviata dalla Commissione UE rappresenta un passaggio cruciale per il futuro del diritto contrattuale nell’era digitale. Che si scelga la via della standardizzazione internazionale o quella più flessibile delle soft rules, la sfida sarà quella di garantire al tempo stesso innovazione, responsabilità e certezza giuridica.