L’Autorità Garante della Concorrenza e del Mercato ha avviato un procedimento contro ScaleUp Yazılım Hizmetleri Anonim Şirketi, sviluppatrice di Nova AI, uno dei chatbot più diffusi negli store digitali. L’indagine, formalizzata nel Bollettino settimanale n. 38/2025 con il numero PS12973, riguarda l’omissione di un’informazione considerata essenziale: il rischio che il sistema generi contenuti falsi, imprecisi o completamente inventati, fenomeno noto come allucinazioni dell’intelligenza artificiale.
Trasparenza e limiti tecnologici
Secondo l’AGCM, gli utenti non sarebbero stati avvisati con chiarezza del fatto che le risposte fornite dal chatbot potevano risultare ingannevoli o errate. La mancanza di un’informativa diretta e comprensibile, per l’Autorità, può configurarsi come pratica commerciale scorretta ai sensi del Codice del Consumo. La trasparenza sui limiti dei sistemi generativi non è un aspetto marginale: rappresenta il fondamento del rapporto di fiducia tra chi offre il servizio e chi lo utilizza.
In questo quadro, il rischio è che gli utenti attribuiscano al chatbot un livello di affidabilità maggiore di quello effettivo, sopravvalutandone l’autorevolezza. Non si tratta quindi solo di una lacuna comunicativa, ma di un comportamento che può incidere direttamente sui diritti dei consumatori traendoli in inganno.
Il contesto normativo e le conseguenze
L’istruttoria si inserisce in una fase in cui il legislatore e diverse autorità, dal Garante Privacy al Parlamento con il disegno di legge sull’intelligenza artificiale, stanno imponendo criteri di responsabilità sempre più stringenti. Nei mesi precedenti, l’AGCM aveva già avviato azioni contro operatori che non avevano fornito informazioni sufficienti sui limiti dei loro chatbot o ne avevano imposto l’uso all’interno di servizi digitali.
Con il procedimento PS12973, l’Autorità ribadisce che la mancata evidenziazione di rischi prevedibili non può essere considerata un dettaglio. Se confermate, le contestazioni porterebbero a sanzioni pecuniarie rilevanti e all’obbligo per ScaleUp di aggiornare le proprie informative. Ma l’impatto non riguarda solo questa società: l’indagine stabilisce un principio generale, ossia che la trasparenza sugli errori dell’intelligenza artificiale è un requisito giuridico oltre che etico.
Per chi sviluppa o commercializza chatbot, una nuova e impellente necessità: rivedere la presentazione dei servizi e le avvertenze agli utenti, pena l’intervento delle autorità competenti.
