Il Parlamento avvia una stretta sull’uso dell’immagine dei minori sui social e ridisegna responsabilità che toccano famiglie, piattaforme e imprese. Il disegno di legge presentato oggi, e che dovrebbe avere un sostegno trasversale ai partiti, fissa limiti all’esposizione commerciale dei bambini e definisce regole per la tracciabilità dei ricavi generati dai contenuti.
Cosa cambia per le piattaforme
Operatori come Meta, Google e TikTok dovranno attivare sistemi di segnalazione automatica per gli account che pubblicano con frequenza contenuti con minori. Saranno inoltre tenuti a conservare i dati su visualizzazioni e introiti per garantire trasparenza sui flussi economici. Questo passaggio segna il superamento dell’idea di semplice intermediazione: l’ambiente in cui circola l’immagine del minore diventa un contesto condiviso di responsabilità.
Obblighi per agenzie e brand
Agenzie e imprese che ingaggiano minori dovranno verificare età e consenso dei tutori, conservando contratti e prove documentali. L’impianto richiama la logica della responsabilità d’impresa prevista dal d.lgs. 231/2001, con controlli interni, procedure e formazione dei team. Per chi lavora nel marketing e nella creator economy si apre una fase di revisione dei workflow: brief, casting, liberatorie, rendicontazione dei proventi e presidio della privacy entrano stabilmente nei processi.
Sanzioni e ruolo del Garante
Il testo vieta la pubblicazione sistematica a fini promozionali di contenuti che ritraggono minori di 15 anni. Quando l’attività genera reddito, il 50% dei proventi confluisce in un fondo vincolato a favore del minore, utilizzabile al compimento dei 18 anni. Le sanzioni possono arrivare fino a 75.000 euro. Le piattaforme potranno sospendere account o rimuovere contenuti e il Garante per la protezione dei dati personali potrà ordinare la rimozione immediata, chiedendo collaborazione ai social per l’individuazione dei profili a rischio.
Quadro europeo e identità digitale
La proposta dialoga con esperienze di Francia e Germania e si allinea a GDPR e Digital Services Act, DSA, promuovendo cooperazione tra autorità nazionali e piattaforme globali. Il cuore dell’intervento è la protezione dell’identità digitale dei bambini: crescere senza che l’immagine diventi merce o narrazione imposta. Per il pubblico professionale italiano questo significa progettare contenuti che rispettino il principio di necessità, riducano la raccolta dati e prevedano meccanismi di verifica lungo tutta la filiera della comunicazione.
Per le aziende del settore comunicazione l’effetto sarà immediato: mappe dei rischi aggiornate, clausole contrattuali specifiche, audit periodici, linee guida per creator e famiglie. Le piattaforme, chiamate a diligenza rafforzata, dovranno tradurre in pratica strumenti di segnalazione, canali dedicati e metriche di impatto, con report accessibili alle autorità. Chi opera nel mercato dovrà misurare il ritorno non solo in engagement ma in conformità e tutela effettiva.
