L’intelligenza artificiale applicata al diritto è oggi uno dei terreni più delicati dell’innovazione europea. Non si tratta soltanto di efficienza o automazione, ma di affidabilità delle fonti, responsabilità professionale e sostenibilità normativa in un contesto regolatorio sempre più articolato, dall’Open Data Directive all’AI Act.
In questo scenario si inserisce Lexroom, startup italiana nata nel pieno della rivoluzione dei modelli linguistici, che ha scelto di sviluppare una piattaforma di intelligenza artificiale specializzata per il settore legale, con un’attenzione particolare alla verificabilità delle fonti e al controllo umano sull’output generato.
Ne abbiamo parlato con Martina Domenicali, co-founder di Lexroom, per capire come si costruisce un’AI giuridica europea capace di essere insieme competitiva, conforme e coerente con la tradizione europea di tutela dei diritti fondamentali.
Come nasce l’idea di Lexroom e qual è la visione alla base della piattaforma?
Lexroom è una startup innovativa nata nel giugno 2023, quindi in piena esplosione dell’intelligenza artificiale generalista. La nostra visione è stata fin dall’inizio quella di portare i Large Language Models all’interno di un contesto altamente specializzato come quello legale, con l’obiettivo di amplificare il giudizio critico del professionista, senza sostituirlo.
Abbiamo costruito la piattaforma per ridurre il rischio di allucinazioni tipico dei modelli generalisti, citando sempre le fonti utilizzate per generare una risposta e permettendo all’avvocato di verificarle. In questo modo il professionista può sfruttare il potere computazionale dell’AI per efficientare il proprio lavoro, mantenendo però certezza giuridica e responsabilità.
Quanto contano gli open data nello sviluppo di un’intelligenza artificiale europea?
Sono fondamentali. Il dato è il petrolio dell’intelligenza artificiale: più è aggregato, strutturato e raffinato, più gli algoritmi riescono a produrre output coerenti e affidabili. La Open Data Directive nasce con una ratio corretta e favorevole allo sviluppo delle imprese europee, perché prevede la disponibilità dei dati pubblici, come la giurisprudenza o i documenti delle autorità amministrative. Il problema è l’implementazione: spesso questi dati, pur essendo pubblici per natura, non sono realmente accessibili o facilmente reperibili.
Ci rendiamo conto che è una criticità che non riguarda solo l’Italia. Anche nei nostri percorsi di espansione in Paesi come Spagna e Germania riscontriamo difficoltà simili. La normativa c’è, ma manca una reale applicazione uniforme.
L’AI Act è spesso presentato come una garanzia per i cittadini. Ma per una startup, cosa significa davvero in termini operativi?
Nel nostro caso l’AI Act classifica Lexroom come piattaforma a basso rischio, quindi non pone limiti diretti allo sviluppo del prodotto. Tuttavia, l’impatto in termini di compliance è stato molto rilevante. Per un’azienda con poco più di due anni di vita, l’AI Act ha richiesto un investimento significativo di tempo, risorse e persone. Abbiamo dovuto dedicare risorse interne e consulenze esterne esclusivamente alla conformità normativa, rallentando inevitabilmente lo sviluppo e l’operatività.
Il nostro è stato un caso fortunato, perché abbiamo raccolto 20 milioni di euro di investimenti e abbiamo potuto allocare risorse adeguate per essere compliant fin dal primo giorno. Ma non tutte le startup possono permetterselo.
Questo tema si lega al dibattito sulla semplificazione normativa. Qual è il giusto equilibrio?
A mio avviso la semplificazione non deve significare eliminazione della compliance, ma differenziazione. Se vogliamo permettere alle imprese giovani di crescere velocemente e competere con player statunitensi e cinesi, è necessario modulare gli obblighi in base alla capacità dell’operatore economico. Oggi il rischio è che le aziende europee debbano investire una quantità enorme di risorse nella compliance, mentre i competitor extraeuropei possono concentrarsi quasi esclusivamente sul prodotto. La velocità di sviluppo è un fattore competitivo decisivo.
Come cambia la responsabilità professionale dell’avvocato con l’uso dell’AI?
La responsabilità resta in capo al professionista, ed è un punto per noi centrale. L’approccio di Lexroom non è sostitutivo, ma di supporto critico. Ogni volta che la piattaforma produce un output – una ricerca giuridica, un contratto, l’analisi di una policy – vengono sempre citate le fonti giuridiche utilizzate, con il riferimento al PDF ufficiale. Anche in caso di errore interpretativo dell’algoritmo, l’avvocato può verificare direttamente la fonte e correggere. In questo modo la tecnologia potenzia il lavoro umano, ma non lo deresponsabilizza.
L’intelligenza artificiale cambierà davvero la professione legale?
Sì, sarà un cambiamento radicale. A differenza di altre tecnologie che hanno avuto un impatto limitato sul lavoro dell’avvocato, l’AI incide direttamente sul modello di business e sul modo di fornire la consulenza. Penso, ad esempio, agli studi legali che lavorano a billable hours: questa tecnologia modifica profondamente la gestione del tempo e il valore del servizio. Il futuro sarà un servizio legale erogato attraverso la tecnologia, con l’human in the loop: l’umano mantiene il controllo, valida e interpreta ciò che la macchina produce.
Servono nuove competenze? E quando dovrebbero essere acquisite?
Servono competenze nuove e servono subito. Il professionista junior che oggi entra in uno studio dovrebbe già saper lavorare con l’intelligenza artificiale e usarla con pensiero critico. Per questo crediamo che queste competenze debbano entrare già nella formazione universitaria. Anche i professionisti senior stanno investendo sempre di più in formazione. Il rischio di rimanere fuori mercato è molto alto: o si rifiuta la tecnologia, o la si usa senza comprenderla davvero, con conseguenze potenzialmente gravi sulla qualità del lavoro.
Semplificazione normativa e tutela dei diritti fondamentali possono convivere?
La natura protettiva dell’Europa sui diritti fondamentali non deve cambiare. Il punto non è ridurre le norme, ma migliorare la loro implementazione. Spesso non è l’overproduzione normativa a rafforzare la tutela dei diritti, ma la capacità di applicare efficacemente le regole in un contesto tecnologico che evolve molto rapidamente. Se ci concentriamo solo sulla scrittura delle norme e non sulla loro attuazione, rischiamo di lasciare il mercato in mano a player extraeuropei.
