ChatGPT sotto esame, possibile designazione come VLOP nel 2026 con applicazione del DSA

Tempo di lettura: 3 minuti

La Commissione europea analizza se ChatGPT superi le soglie del Digital Services Act e possa essere qualificato come piattaforma o motore di ricerca di grandi dimensioni. La decisione, attesa nel 2026, potrebbe estendere agli strumenti di intelligenza artificiale generativa gli obblighi più severi di trasparenza, gestione dei rischi e vigilanza previsti dal DSA

La Commissione europea ha avviato una valutazione formale per stabilire se ChatGPT, il chatbot sviluppato da OpenAI, rientri tra i servizi soggetti al livello più stringente di obblighi previsto dal Digital Services Act. L’analisi riguarda la possibile designazione come Very Large Online Platform o Very Large Online Search Engine, una classificazione che comporta obblighi rafforzati in termini di trasparenza, gestione dei rischi e vigilanza regolatoria. La decisione è attesa entro il primo trimestre del 2026 e rappresenta un passaggio delicato per l’evoluzione della governance digitale europea.

Secondo i dati trasmessi dalla Commissione ai legislatori, nel solo mese di ottobre la funzione di ricerca del servizio avrebbe registrato una media di oltre 120 milioni di utenti attivi mensili nell’Unione europea. La soglia fissata dal regolamento per l’applicazione del regime rafforzato è pari a 45 milioni, un parametro pensato per intercettare servizi con un impatto sistemico sul mercato e sullo spazio informativo.

La funzione di ricerca e il problema della qualificazione giuridica

Il dato sugli utenti è legato in modo specifico alla funzione di ricerca, un elemento che complica l’inquadramento giuridico del servizio. Il Digital Services Act distingue tra piattaforme online e motori di ricerca, prevedendo obblighi in parte differenti. ChatGPT presenta caratteristiche che sfuggono a questa distinzione tradizionale: non ospita contenuti di terzi come un social network, ma genera risposte attraverso modelli linguistici; allo stesso tempo, orienta l’accesso alle informazioni e ne influenza la visibilità, una funzione che richiama quella dei motori di ricerca.

È proprio questa natura ibrida ad aver spinto la Commissione a muoversi con cautela. L’obiettivo dichiarato è comprendere se il servizio debba essere ricondotto a una delle categorie esistenti oppure se richieda un’interpretazione più ampia del perimetro regolatorio, capace di tenere conto delle specificità dell’intelligenza artificiale generativa.

Gli obblighi previsti in caso di designazione

Una eventuale designazione come VLOP o VLOSE comporterebbe per ChatGpt l’attivazione di obblighi estesi. Tra questi rientrano valutazioni periodiche dei rischi sistemici, incluse le ricadute sui diritti fondamentali, misure di mitigazione documentate e verificabili, audit indipendenti sui processi interni e livelli più elevati di trasparenza sui meccanismi di funzionamento del servizio. A ciò si aggiungerebbe una cooperazione rafforzata con le autorità europee e l’accesso ai dati per finalità di vigilanza.

Si tratta degli strumenti più incisivi previsti dal regolamento, finora applicati soprattutto ai grandi social network e ai motori di ricerca globali. L’estensione a un sistema di intelligenza artificiale segnerebbe un cambio di passo nell’approccio europeo alla regolazione del digitale.

La valutazione sul Digital Services Act si inserisce inoltre in un quadro normativo già complesso, segnato dall’entrata in vigore dell’AI Act. L’eventuale applicazione congiunta dei due regolamenti rafforzerebbe l’idea che i servizi di intelligenza artificiale su larga scala vadano considerati anche come infrastrutture informative, con responsabilità che superano la dimensione puramente tecnologica.

Il dossier ChatGPT diventa così un banco di prova per la capacità dell’Unione europea di adattare strumenti pensati per piattaforme tradizionali a servizi emergenti che incidono in modo profondo sull’accesso alle informazioni. L’esito della valutazione, atteso nel 2026, offrirà indicazioni decisive su come il diritto europeo intende governare l’intelligenza artificiale quando assume una rilevanza sistemica nel mercato e nella società.