L’azione legale avviata da Worker Info Exchange contro Uber è la prima occasione in cui una questione centrale, ipotizzata in altre occasioni, emerge senza mediazioni. Cosa accade quando è un algoritmo a decidere quali opportunità riceve un lavoratore, come viene valutato e quanto può guadagnare? Per anni l’attenzione pubblica si è concentrata sulla privacy, sulla pubblicità comportamentale o sulle dinamiche dei social network. Ma la trasformazione più profonda oggi riguarda il modo in cui l’intelligenza artificiale sta già ridisegnando il lavoro all’interno delle piattaforme, spesso senza che i lavoratori ne comprendano i meccanismi.
Secondo i ricorrenti, l’algoritmo di Uber non si limita a ottimizzare gli spostamenti e va a determinare anche aspetti essenziali della vita professionale come l’ordine delle chiamate, la loro priorità, le tariffe applicate, le valutazioni, la reputazione digitale e perfino la possibilità di continuare a operare sulla piattaforma. In questa dinamica, l’algoritmo diventa un decisore autonomo, che influenza il reddito e l’accesso alle opportunità senza che vi sia un intervento umano significativo.
Il nodo dell’articolo 22. Una norma obsoleta di fronte agli algoritmi adattivi
La questione ruota intorno all’articolo 22 del GDPR, che vieta le decisioni completamente automatizzate con effetti significativi sulla persona. È una norma fondamentale, ma nata nel 2016, quando i sistemi di IA erano incomparabili rispetto a quelli attuali. All’epoca, il processo decisionale automatizzato era lineare e riconoscibile. Oggi è frammentato in migliaia di micro-decisioni probabilistiche, generate in tempo reale, il cui funzionamento è spesso oscuro perfino agli stessi sviluppatori.
Questo scarto temporale tra norma e tecnologia genera un vuoto che il caso Uber mette in evidenza con particolare forza. L’articolo 22 è formalmente in vigore, ma nella pratica fatica a intercettare la complessità tecnica degli algoritmi che governano il lavoro. L’informativa non basta, la “trasparenza” astratta non basta e la contestabilità teorica rischia di essere una tutela solo sulla carta.
Un problema sistemico: l’algoritmo come nuovo caporeparto digitale
Uber non è un’eccezione. Tutte le principali piattaforme condividono la stessa architettura decisionale. Da Deliveroo a Glovo, passando per Bolt, JustEat, Amazon Flex e i nuovi marketplace di micro-lavori. L’algoritmo assegna incarichi, valuta le performance, modula i compensi e guida il comportamento dei lavoratori attraverso indicatori e suggerimenti. Diventa, di fatto, una sorta di nuovo caporeparto digitale invisibile, non responsabile e incontestabile. Il rapporto di lavoro è filtrato e spesso determinato da una logica tecnica che non risponde ai criteri di equità, proporzione e motivazione che caratterizzano qualunque decisione umana in ambito lavorativo.
Nonostante ciò, gran parte della regolazione digitale degli ultimi anni si è concentrata su altri aspetti. Le riforme hanno riguardato la pubblicità, la protezione dei consumatori, il contrasto ai contenuti illegali, l’accesso ai mercati digitali e la portabilità dei dati. Il tema, assai delicato, dell’impatto dell’intelligenza artificiale sulle condizioni di lavoro è rimasto ai margini. L’AI Act lo accenna senza approfondirlo. Le modifiche al GDPR discusse nel Digital Omnibus non affrontano il nodo essenziale e non individuano le modalità con le quali garantire trasparenza, intervento umano effettivo e responsabilità nelle decisioni automatizzate che incidono sul reddito e sulla continuità lavorativa.
AI e vita reale
Il caso Uber, come si capisce da sibito, interviene sul cuore della vita delle persone e va a incidere sul loro reddito, sulla possibilità di lavorare, sulla distribuzione delle opportunità e sulla dignità professionale. Se l’algoritmo assegna le corse, valuta le prestazioni e decide l’accesso, allora deve essere soggetto a regole, a controlli e a criteri di equità comparabili, se non ancora più approfonditi, rispetto a quelli previsti per qualsiasi decisione umana nel mondo del lavoro. Senza questo passaggio, la tecnologia diventa un centro di potere incontrollato, capace di orientare la vita delle persone senza trasparenza né responsabilità. E può fare la fortuna delle aziende a scapito dei lavoratori.
Governare l’algoritmo come nuovo soggetto del lavoro
Il caso Uber pone questioni politiche e giuridiche. Occorre definire un modello di governance che riconosca l’algoritmo come un attore del rapporto di lavoro. L’intervento umano significativo non può essere un formalismo, ma deve tradursi in un controllo reale. Così come la trasparenza va garantita da un processo verificabile e la contestabilità un diritto sostanziale. Solo garantendo questi punti fermi sarà possibile difendere l’equità e prevenire discriminazioni.
Il caso Uber, a pochi giorni dai licenziamenti operati da Amazon, dimostra come e quanto l’intelligenza artificiale stia cambiando il mondo del lavoro. Resta da decidere se questo cambiamento sarà governato dal diritto o lasciato alla logica commerciale delle piattaforme. Perché l’algoritmo decide già chi lavora, quanto guadagna e quali opportunità riceve. La domanda da porsi ora è chi decide sull’algoritmo e chi ha le responsabilità delle decisioni che si assumono. Soprattutto quelle che hanno a che vedere con i diritti fondamentali dei lavoratori.
