top of page

Gestito da Bot: sfruttamento basato sui dati nella Gig Economy

WIEReportCover.png

Riepilogo
 

  • Worker Info Exchange è stato istituito per facilitare l'accesso e la collettivizzazione dei dati per costruire potere contrattuale attraverso l'istituzione di un trust di dati.  

 

  • Ciò è avvenuto in risposta allo sviluppo di nuove pratiche di gestione algoritmica che creano profonde asimmetrie informative e sfruttamento dei lavoratori.
     

  • Worker Info Exchange mira ad affrontare la convergenza dei dati e dei diritti dei lavoratori invocando i diritti degli articoli 15, 20 e 22 del GDPR nei contesti di lavoro.
     

  • Questo obiettivo è gravemente ostacolato dalla diffusa non conformità al GDPR in tutto il settore dei concerti.
     

  • Abbiamo effettuato oltre 500 richieste di accesso ai dati personali negli ultimi otto mesi a sette diverse piattaforme di condivisione del viaggio tra cui Amazon Flex, Bolt, Deliveroo, Free Now, Just Eat, Ola e Uber.
     

  • L'accesso ai dati è messo in discussione dalle aziende che implementano modelli oscuri e abusano deliberatamente dell'implementazione irregolare del GDPR, che spinge i lavoratori a risolvere i problemi in tribunale.
     

  • La raccolta di dati da parte delle piattaforme di concerti è eccessiva e porta a una sorveglianza sproporzionata e irresponsabile dei lavoratori, nonché a un'infrastruttura in espansione delle forze dell'ordine.
     

  • Non c'è trasparenza sui sistemi di gestione algoritmica utilizzati. Le narrazioni aziendali su quali tecnologie vengono utilizzate e come sono incoerenti e inaffidabili.

Summary
Introduction

© 2021 Scambio di informazioni sui lavoratori

© 2021 Scambio di informazioni sui lavoratori

introduzione
 

L'anno passato ha segnato un punto di svolta per i lavoratori della piattaforma gig nella realizzazione dei loro diritti occupazionali e digitali. La pratica del lavoro mediato digitalmente ha portato a una convergenza dei diritti del lavoro e della protezione dei dati e la crescente attività di contenzioso e di advocacy da parte dei lavoratori ha prodotto risultati in questi ambiti. In tutta Europa, i tribunali hanno emesso diverse sentenze significative che riconoscono il ruolo di sfruttamento delle pratiche di gestione algoritmica da parte delle piattaforme gig, condannando anche la mancanza di equità e trasparenza in tali sistemi automatizzati.  

 

In Italia, il tribunale di Bologna ha stabilito che il sistema di rating di Deliveroo ha discriminato i lavoratori mentre l'autorità per la protezione dei dati, Garante, ha notificato due sanzioni GDPR a Deliveroo e Glovo a causa della loro incapacità di divulgare adeguatamente il funzionamento dei loro algoritmi di assegnazione dei lavori e di gestione delle prestazioni.  

 

La Spagna ha approvato la prima legge per tentare di regolamentare l'IA in materia di occupazione, stabilendo sia lo status di lavoratore per i gig worker sia il diritto di essere informati sulle regole e i parametri degli algoritmi a cui sono soggetti, scatenando un torrente di lamentele. Ciò è il risultato di un altro caso giudiziario contro Glovo che è finito nella Corte Suprema spagnola.  

 

Insieme a queste decisioni di alto profilo, la Corte Suprema del Regno Unito ha anche concluso quest'anno che i conducenti di Uber erano parte di un servizio di trasporto che è " molto strettamente definito e controllato da Uber " tradendo un chiaro rapporto di lavoro, che la società sosteneva non esistesse in il suo tentativo di (erroneamente) classificare i lavoratori come appaltatori indipendenti. Significativamente, la prova di questa relazione proviene dai sistemi basati sui dati che le piattaforme di rideshare utilizzano per gestire la propria forza lavoro. Alcune delle problematiche evidenziate dalla Corte Suprema del Regno Unito relative alla gestione degli autisti attraverso il monitoraggio algoritmico dei tassi di accettazione del lavoro, delle scelte di percorso, del comportamento di guida e delle valutazioni dei clienti. Tuttavia, anche se c'è un maggiore riconoscimento della gestione algoritmica, i recenti successi nei tribunali non proteggono completamente i lavoratori dai suoi danni. Lo status di lavoratore arto (b) concesso agli autisti Uber a seguito della decisione della Corte Suprema è uno status intermedio tra appaltatore e dipendente , e non riesce ancora a proteggerli da licenziamenti illegittimi, ad esempio.

 

La nostra esperienza suggerisce che questi strumenti di gestione algoritmica, con l'aggiunta di intensificare le pratiche di sorveglianza, scrutando continuamente i lavoratori per potenziali frodi o illeciti, stanno dando luogo a un ambiente di lavoro profondamente sfruttatore. Stiamo assistendo a un numero eccessivo di licenziamenti automatizzati nell'intero settore dei concerti, molti dei quali riteniamo siano illegali ai sensi dell'articolo 22 del Regolamento generale sulla protezione dei dati (GDPR) . L'articolo 22 fornisce ai lavoratori alcune protezioni limitate contro gli effetti negativi del processo decisionale automatizzato e della profilazione, attraverso il diritto di ottenere l'intervento umano e contestare la decisione. L'articolo 15 del GDPR garantisce il diritto di essere informato sull'esistenza di tale processo decisionale automatizzato e di ricevere informazioni significative sulla logica del trattamento.

 

Prendendo come base questi diritti, Worker Info Exchange è stato creato con la missione di supportare i gig worker nella navigazione in questo spazio complesso e poco regolamentato. L'obiettivo e il compito del nostro lavoro è verificare se questi strumenti GDPR possono essere utilizzati per affrontare pratiche di lavoro sleali ed espandere la portata dei dati messi a disposizione degli individui nella loro qualità di lavoratori. In altre parole, la nostra ambizione è utilizzare l'accesso ai dati come metodo per costruire il potere collettivo dei lavoratori per testare i meccanismi di ricorso in un mercato del lavoro mediato digitalmente.  

 

Quando il rapporto di lavoro tra la piattaforma gig e il lavoratore viene eseguito attraverso un'ampia raccolta e analisi di dati, i diritti del lavoro diventano indissolubilmente legati all'esercizio dei diritti sui dati. Le piattaforme gig affermano il controllo sui lavoratori mantenendo un'asimmetria informativa e l'accesso ai dati può fornire un mezzo per esporre il potere (squilibrio) generato dal divario informativo tra le piattaforme gig e i loro lavoratori. L'accesso ai dati personali può consentire ai lavoratori di effettuare valutazioni indipendenti sulle proprie condizioni di lavoro e rispondere a domande relative al calcolo della retribuzione, alla qualità e alla quantità del lavoro offerto, nonché contestare i motivi della gestione delle prestazioni negative, compresa la sospensione e  licenziamento.
 

Il nostro obiettivo nel facilitare l'accesso ai dati è creare archivi collettivi di dati per sviluppare una maggiore comprensione delle condizioni di lavoro e, di conseguenza, del potere contrattuale. Negli ultimi anni sono emerse alcune iniziative degne di nota che operano con finalità simili ma utilizzando metodologie differenti per il recupero dei dati. Alcuni progetti in questo campo eseguono la propria raccolta di dati e analisi su guadagni e prestazioni per valutare l'equità delle condizioni di lavoro (ad esempio Driver's Seat Coop  e WeClock,  tra gli altri.) Questi tutti presentano intuizioni uniche nella gig economy e dovrebbero essere considerati come un continuum di pratica dei dati. Abbiamo affrontato questo problema chiedendo che le piattaforme condividano i dati a cui i lavoratori hanno diritto legalmente, tuttavia ciò ha introdotto ulteriori ostacoli all'obiettivo più ampio della collettivizzazione dei dati. Abbiamo intrapreso questa strada perché volevamo stabilire standard e precedenti nella normativa sulla protezione dei dati, ma anche perché riteniamo che alcune tipologie di informazioni si possano ottenere solo richiedendo i dati direttamente dalle piattaforme.

 

Abbiamo riscontrato, in particolare nel caso di accuse alimentate dalla sorveglianza di attività irregolari e frodi, che è necessario disporre dei dati in possesso delle società per comprendere e contestare le accuse. L'accesso ai dati può aiutarci a portare alla luce le incongruenze nelle narrazioni avanzate dalle società di piattaforme e aiutare a spostare l'onere della prova dai lavoratori alle piattaforme. Da questo punto di vista, lo sforzo di richiedere dati sulla piattaforma si è dimostrato estremamente efficace nella risoluzione di numerose controversie sul lavoro. La semplice dimostrazione del rifiuto delle piattaforme di fornire i dati personali ha annullato diverse revoche di licenza (applicate da TfL) in tribunale e diventa quindi uno strumento aggiuntivo nell'esercizio dei diritti del lavoro.

 

Questo costituisce l'altro ramo di attività per Worker Info Exchange; poiché siamo frustrati nei nostri tentativi di ottenere chiarezza e trasparenza sui complessi sistemi che determinano le condizioni del luogo di lavoro, abbiamo spesso bisogno di ricorrere a contenziosi e rivolgerci ai tribunali per decisioni nel campo emergente dei diritti del lavoro digitale. L'artificiale "crisi dei dati" che le piattaforme di concerti hanno creato è per molti versi un tentativo di esaurire e impoverire le risorse dei lavoratori precari e dei sindacati, attirando le controversie nei tribunali dove possono essere prolungate e la responsabilità per cattiva condotta aziendale ritardata.  

 

In linea con questi filoni di attività, questo rapporto è scritto in tre parti: La prima sezione esplora diversi aspetti della gestione algoritmica e dei suoi danni, con studi di casi associati. La seconda sezione tratta del nostro processo di utilizzo delle richieste di accesso ai dati (DSAR) mentre la terza offre una panoramica dei casi relativi al GDPR che abbiamo portato avanti ad Amsterdam e dei casi di licenza che stiamo supportando a Londra. Questo rapporto conclude un periodo di lavoro rivolto a queste funzioni della nostra organizzazione, svolto con il supporto di Mozilla Foundation, Digital Freedom Fund e Open Society Foundations. Ci auguriamo che questo rapporto dimostri lo stato attuale dell'esercizio dei diritti all'intersezione di dati e lavoro e riveli gli effetti cumulativi di ripetute non conformità da parte delle piattaforme di concerti.

"Le società di piattaforme operano in uno spazio senza legge in cui credono di poter stabilire le regole. Sfortunatamente questo non è un gioco; le realtà virtuali hanno dure conseguenze per i gig worker nella vita reale. Ciò che è incoraggiante è che i lavoratori stessi non aspettano le leggi, politici o persino alleati del movimento per i diritti umani per salvarli. I gig worker si stanno organizzando e usando la loro voce collettiva per chiedere nuove protezioni adatte allo scopo in un'economia digitalizzata".

Bama Athreya, Fellow, Open Society Foundations

Part I Misclassification 2.0

Parte I: Classificazione errata 2.0  Controllato da Algoritmo
 

Nella battaglia di sei anni per i diritti dei lavoratori nella gig economy del Regno Unito, Uber ha sostenuto che era semplicemente l'agente dell'autista autonomo che non faceva altro che prenotare passivamente gli ordini di lavoro e riscuotere i pagamenti. Per far progredire questa finzione, le piattaforme dei concerti stabiliscono contratti elaborati che fanno sembrare che il conducente e il passeggero stiano effettuando transazioni direttamente tra loro, quando in realtà tutte le informazioni sui passeggeri sono strettamente protette dalle aziende. Uber, ad esempio, genera una fattura fittizia per conto del conducente per ogni passeggero che trasporta. La fattura riporterà solo il nome del passeggero e non viene mai effettivamente inviata al cliente.

 

Queste tecniche di classificazione errata, comunemente utilizzate nella gig economy, consentono alle piattaforme di evitare le responsabilità legali dei datori di lavoro come le protezioni dei diritti fondamentali dei lavoratori e i contributi assicurativi nazionali. Nel Regno Unito ha anche consentito alle società di piattaforme di evitare l'imposta sul valore aggiunto sulle vendite (IVA). Ma all'inizio di quest'anno, la Corte Suprema ha affermato il diritto dei tribunali inferiori di scartare i contratti artificiali e di determinare la vera natura del rapporto di lavoro sulla base dell'evidenza di un rapporto di gestione di controllo sui lavoratori.

 

Poiché le società di piattaforme concludono che l'utilizzo di contratti ingannevoli non è più praticabile come metodo di classificazione errata dell'occupazione, saranno tentate di raddoppiare l'automazione dei processi per l'occultamento del controllo di gestione. Il controllo algoritmico diventa misclassificazione 2.0. In effetti, ci sono ampie prove che ciò stia già accadendo. Le piattaforme di concerti sono più determinate che mai a perseguire strategie di classificazione errata in modo da poter continuare a controllare la forza lavoro evitando il rischio che i conducenti possano passare dallo stato di "lavoratore" con diritti limitati allo stato di lavoratore con sostanzialmente più diritti.  

Quindi cos'è il controllo algoritmico e quali sono i rischi specifici per i gig worker? Nei settori del ride-sharing e delle consegne, in particolare, i mezzi di gestione algoritmica di maggiore interesse per noi includono quanto segue:
 

  • Sorveglianza. Sorveglianza intrusiva per lo scopo dichiarato di sicurezza e identificazione. Ciò comprende l'uso di tecnologie di rilevamento delle frodi e di riconoscimento facciale. Siamo consapevoli che la sorveglianza viene condotta anche quando il lavoratore non ha effettuato il login per rendersi disponibile al lavoro. Comprendeva anche la sorveglianza dell'utilizzo dell'app da parte del lavoratore come consumatore.
     

  • Gestione delle prestazioni. Ciò include ma non è limitato al monitoraggio del comportamento di guida, inclusi ETA, valutazioni dei clienti, tassi di accettazione e completamento del lavoro, interazione con il personale di supporto, disponibilità.
     

  • Allocazione del lavoro. Fino a poco tempo fa Uber ha insistito sul fatto che l'assegnazione del lavoro fosse decisa in base alla vicinanza reciproca di conducenti e passeggeri, tuttavia ora ammette che il comportamento e le preferenze del passato sono presi in considerazione. Ola ammette che i profili dei conducenti che includono il punteggio "profilo di guadagno" e "probabilità di frode" sono utilizzati nel processo decisionale automatizzato di allocazione del lavoro.
     

  • Prezzi. Strettamente correlato all'allocazione del lavoro è il processo decisionale automatizzato dei prezzi. Forse il metodo più noto è il cosiddetto "surge" o "prezzo dinamico" di Uber che pretende di eliminare la domanda del mercato con fluttuazioni dei prezzi locali in tempo reale.  

 

Le decisioni di gestione di cui sopra sono per lo più automatizzate o semiautomatiche con un intervento umano limitato. I modelli di business della gig economy si basano sull'automazione di massa delle decisioni gestionali e sulla supervisione del posto di lavoro. Mentre alcuni datori di lavoro sono reticenti su questo punto, Deliveroo è stato piuttosto schietto a riguardo nella loro politica sulla privacy dei ciclisti:  
 

“Dato il volume delle consegne di cui ci occupiamo, utilizziamo sistemi automatizzati per prendere le decisioni automatizzate sopra descritte in quanto forniscono un modo più accurato, equo ed efficiente per identificare sospette frodi, prevenire ripetute violazioni del Contratto con i fornitori e limitare l'impatto negativo su nostro servizio. I controlli umani semplicemente non sarebbero possibili nei tempi e dati i volumi di consegne di cui ci occupiamo”.

Asset 8_1.5x.png

Gestione delle prestazioni

Ciò include, a titolo esemplificativo ma non esaustivo, il monitoraggio del comportamento alla guida, inclusi ETA, valutazioni dei clienti, tassi di accettazione e completamento del lavoro, interazione con il personale di supporto, disponibilità.

Asset 7_1.5x.png

Prezzo
 

Strettamente correlato all'allocazione del lavoro è il processo decisionale automatizzato sui prezzi. Forse il metodo più noto è il cosiddetto "surge" o "prezzi dinamici" di Uber che pretende di compensare la domanda del mercato con fluttuazioni dei prezzi locali in tempo reale. 

Sorveglianza
 

Sorveglianza intrusiva per lo scopo dichiarato di sicurezza e identificazione. Ciò comprende l'uso di tecnologie di rilevamento delle frodi e riconoscimento facciale. Siamo consapevoli che la sorveglianza viene svolta anche quando il lavoratore non ha effettuato il login per rendersi disponibile al lavoro. Comprendeva anche la sorveglianza dell'utilizzo dell'app da parte del lavoratore come consumatore.

Assegnazione del lavoro
 

Fino a poco tempo Uber ha insistito sul fatto che l'assegnazione del lavoro fosse decisa in base alla vicinanza di conducenti e passeggeri l'uno all'altro, tuttavia ora ammette che il comportamento e le preferenze del passato vengono presi in considerazione. Ola ammette che i profili del conducente che includono il punteggio "profilo di guadagno" e "probabilità di frode" sono utilizzati nel processo decisionale automatizzato di allocazione del lavoro.

Asset 4_1.5x.png
Asset 6_1.5x.png

Parte I: Classificazione errata 2.0  Controllato da Algoritmo
 

Nella battaglia di sei anni per i diritti dei lavoratori nella gig economy del Regno Unito, Uber ha sostenuto che era semplicemente l'agente dell'autista autonomo che non faceva altro che prenotare passivamente gli ordini di lavoro e riscuotere i pagamenti. Per far progredire questa finzione, le piattaforme dei concerti stabiliscono contratti elaborati che fanno sembrare che il conducente e il passeggero stiano effettuando transazioni direttamente tra loro, quando in realtà tutte le informazioni sui passeggeri sono strettamente protette dalle aziende. Uber, ad esempio, genera una fattura fittizia per conto del conducente per ogni passeggero che trasporta. La fattura riporterà solo il nome del passeggero e non viene mai effettivamente inviata al cliente.

 

Queste tecniche di classificazione errata, comunemente utilizzate nella gig economy, consentono alle piattaforme di evitare le responsabilità legali dei datori di lavoro come le protezioni dei diritti fondamentali dei lavoratori e i contributi assicurativi nazionali. Nel Regno Unito ha anche consentito alle società di piattaforme di evitare l'imposta sul valore aggiunto sulle vendite (IVA). Ma all'inizio di quest'anno, la Corte Suprema ha affermato il diritto dei tribunali inferiori di scartare i contratti artificiali e di determinare la vera natura del rapporto di lavoro sulla base dell'evidenza di un rapporto di gestione di controllo sui lavoratori.

 

Poiché le società di piattaforme concludono che l'utilizzo di contratti ingannevoli non è più praticabile come metodo di classificazione errata dell'occupazione, saranno tentate di raddoppiare l'automazione dei processi per l'occultamento del controllo di gestione. Il controllo algoritmico diventa misclassificazione 2.0. In effetti, ci sono ampie prove che ciò stia già accadendo. Le piattaforme di concerti sono più determinate che mai a perseguire strategie di classificazione errata in modo da poter continuare a controllare la forza lavoro evitando il rischio che i conducenti possano passare dallo stato di "lavoratore" con diritti limitati allo stato di lavoratore con sostanzialmente più diritti.  

Quindi cos'è il controllo algoritmico e quali sono i rischi specifici per i gig worker? Nei settori del ride-sharing e delle consegne, in particolare, i mezzi di gestione algoritmica di maggiore interesse per noi includono quanto segue:
 

  • Sorveglianza. Sorveglianza intrusiva per lo scopo dichiarato di sicurezza e identificazione. Ciò comprende l'uso di tecnologie di rilevamento delle frodi e di riconoscimento facciale. Siamo consapevoli che la sorveglianza viene condotta anche quando il lavoratore non ha effettuato il login per rendersi disponibile al lavoro. Comprendeva anche la sorveglianza dell'utilizzo dell'app da parte del lavoratore come consumatore.
     

  • Gestione delle prestazioni. Ciò include ma non è limitato al monitoraggio del comportamento di guida, inclusi ETA, valutazioni dei clienti, tassi di accettazione e completamento del lavoro, interazione con il personale di supporto, disponibilità.
     

  • Allocazione del lavoro. Fino a poco tempo fa Uber ha insistito sul fatto che l'assegnazione del lavoro fosse decisa in base alla vicinanza reciproca di conducenti e passeggeri, tuttavia ora ammette che il comportamento e le preferenze del passato sono presi in considerazione. Ola ammette che i profili dei conducenti che includono il punteggio "profilo di guadagno" e "probabilità di frode" sono utilizzati nel processo decisionale automatizzato di allocazione del lavoro.
     

  • Prezzi. Strettamente correlato all'allocazione del lavoro è il processo decisionale automatizzato dei prezzi. Forse il metodo più noto è il cosiddetto "surge" o "prezzo dinamico" di Uber che pretende di eliminare la domanda del mercato con fluttuazioni dei prezzi locali in tempo reale.  

 

Le decisioni di gestione di cui sopra sono per lo più automatizzate o semiautomatiche con un intervento umano limitato. I modelli di business della gig economy si basano sull'automazione di massa delle decisioni gestionali e sulla supervisione del posto di lavoro. Mentre alcuni datori di lavoro sono reticenti su questo punto, Deliveroo è stato piuttosto schietto a riguardo nella loro politica sulla privacy dei ciclisti:  
 

“Dato il volume delle consegne di cui ci occupiamo, utilizziamo sistemi automatizzati per prendere le decisioni automatizzate sopra descritte in quanto forniscono un modo più accurato, equo ed efficiente per identificare sospette frodi, prevenire ripetute violazioni del Contratto con i fornitori e limitare l'impatto negativo su nostro servizio. I controlli umani semplicemente non sarebbero possibili nei tempi e dati i volumi di consegne di cui ci occupiamo”.

"Dato il volume delle consegne con cui ci occupiamo, utilizziamo sistemi automatizzati per prendere le decisioni automatizzate sopra descritte in quanto forniscono un modo più accurato, equo ed efficiente per identificare sospette frodi, prevenire ripetute violazioni del contratto con il fornitore e limitare l'impatto negativo su nostro servizio. I controlli umani semplicemente non sarebbero possibili nei tempi e dati i volumi di consegne con cui ci occupiamo”.

WIE-Report-Illustration-1_2x.png
WIE-Report-Illustration-3_2x.png

Sorveglianza
 

Sorveglianza intrusiva per lo scopo dichiarato di sicurezza e identificazione. Ciò comprende l'uso di tecnologie di rilevamento delle frodi e riconoscimento facciale. Siamo consapevoli che la sorveglianza viene svolta anche quando il lavoratore non ha effettuato il login per rendersi disponibile al lavoro. Include anche la sorveglianza dell'utilizzo dell'app da parte del lavoratore come consumatore.

Assegnazione del lavoro
 

Fino a poco tempo Uber ha insistito sul fatto che l'assegnazione del lavoro fosse decisa in base alla vicinanza di conducenti e passeggeri tra loro, tuttavia ora afferma che il comportamento e le preferenze passate sono presi in considerazione. Ola utilizza profili di guida che includono "punteggi di probabilità di frode" nel processo decisionale automatizzato per il lavoro assegnazione.

WIE-Report-Illustration-2_2x.png

Gestione delle prestazioni

La valutazione delle prestazioni lavorative include, a titolo esemplificativo ma non esaustivo, il monitoraggio del comportamento alla guida, inclusi ETA, valutazioni dei clienti, tassi di accettazione e completamento del lavoro, interazione con il personale di supporto, disponibilità.

WIE-Report-Illustration-4_2x.png

Prezzo
 

Strettamente correlato all'allocazione del lavoro è l'impostazione automatizzata dei prezzi. Forse il metodo più noto è il cosiddetto "surge" o "prezzi dinamici" di Uber che pretende di eliminare la domanda del mercato con fluttuazioni dei prezzi locali in tempo reale. 

Corsa agli armamenti di sorveglianza
 

Abbiamo assistito a una corsa agli armamenti di sorveglianza nella gig economy da quando Uber ha introdotto il suo cosiddetto sistema ibrido di identificazione in tempo reale nel 2020. Solo un giorno prima che Transport for London (TfL) annunciasse la sua decisione di rifiutare il rinnovo della licenza nel novembre 2019, Uber si è offerta di introdurre questo sistema di sorveglianza che incorpora il riconoscimento facciale con il monitoraggio GPS.  
 

Ciò è avvenuto in risposta alla denuncia di TfL secondo cui 21 conducenti erano stati rilevati (su 90.000 analizzati in diversi anni) come impegnati nella condivisione di account che consentivano ai conducenti potenzialmente privi di licenza e non assicurati di offrire illegalmente i propri servizi sull'app. L'attività è stata resa possibile reimpostando la posizione GPS del dispositivo al di fuori del Regno Unito, dove è possibile per i conducenti caricare le proprie foto. Questo divario è stato rapidamente colmato da Uber e l'attività rilevata è stata incredibilmente piccola rispetto alla scala delle operazioni di Uber. L'introduzione della tecnologia di riconoscimento facciale da parte dell'industria è stata del tutto sproporzionata rispetto al rischio percepito. Tuttavia, il requisito per l'identificazione in tempo reale è diventato una condizione per il rinnovo della licenza di Uber presso la Westminster Magistrates Court nel settembre 2020.
 

Nel caso di Uber, sia la gestione della piattaforma che TfL non sono riusciti a garantire che fossero messe in atto tutele adeguate per proteggere i diritti e le libertà dei conducenti nonostante TfL avesse esaminato la valutazione d'impatto sulla protezione dei dati per la tecnologia nel marzo 2020. Abbiamo fatto un libertà di informazione richiesta a TfL di avere accesso alla DPIA di Uber per i sistemi di identificazione in tempo reale ma ci è stato negato. Secondo i rapporti di TfL , il 94% dei conducenti di veicoli a noleggio privati (PHV) proviene da ambienti di minoranza etnica e nera e l'introduzione di questa tecnologia, che è ben nota per i suoi bassi tassi di precisione all'interno di questi gruppi , si è rivelata disastrosa per i lavoratori vulnerabili già in lavoro precario.  
 

Da allora Bolt ha annunciato che stava investendo 150 milioni di euro in sistemi di rilevamento antifrode dei conducenti di intelligenza artificiale, incluso il riconoscimento facciale. Deliveroo ha annunciato che anche loro avrebbero introdotto controlli di identità con riconoscimento facciale. Ola Cabs ha anche implementato l' identificazione con riconoscimento facciale come caratteristica del suo sistema Guardian , incorporando l'apprendimento automatico che secondo loro consente loro di "apprendere ed evolversi continuamente da milioni di punti dati ogni singolo giorno, per migliorare la segnalazione del rischio e la risoluzione istantanea".  
 

FreeNow, una joint venture tra Daimler e BMW, sorveglia da vicino i conducenti come parte del loro programma di prevenzione delle frodi. Infatti, i documenti depositati da FreeNow con l'Alta Corte in una revisione giudiziaria della decisione di TfL di concedere loro una licenza a Londra, hanno rivelato che TfL ha reso rapporti mensili di licenziamenti di conducenti per vari motivi (tra cui "attività fraudolenta") una condizione della loro recente rinnovo della patente. Ma la descrizione dei dati elaborati ai fini della prevenzione delle frodi solleva più domande di quelle a cui risponde la politica sulla privacy di FreeNow.

In questo documento, Free Now afferma che utilizzano un algoritmo di "foresta casuale" per produrre un punteggio di frode che utilizzano per " dare priorità ai viaggi spediti di conseguenza. Ciò garantisce una spedizione equa e con rischi ridotti al minimo ”. Free Now ha contestato il loro utilizzo di questo sistema di rilevamento delle frodi quando abbiamo chiesto informazioni a riguardo nel giugno 2021, sostenendo che questa sezione dell'informativa sulla privacy era obsoleta (consultare il caso di studio dell'azienda nella sezione II del rapporto). Tuttavia, la descrizione di questo sistema è rimasta in polizza, nonostante un aggiornamento effettuato a settembre 2021.

 

Ciò che è particolarmente preoccupante nell'uso di questi sistemi è che confondono la gestione delle frodi con la gestione delle prestazioni. Il fatto che tali indicatori 'frodi' siano utilizzati come variabili per l'allocazione del lavoro e che i comportamenti che li generano possano continuare sulla piattaforma dimostra che non si tratta di frodi criminali, ma di meccanismi di controllo, che valutano il rendimento dei lavoratori contro le metriche opache stabilite dalle aziende. Suggeriamo che qualsiasi terminologia 'frode' utilizzata in questi contesti funzioni anche come parte del gioco di errata classificazione, progettato per nascondere il rapporto di lavoro. 

Surveillance Arms Race

Caso di studio di sorveglianza I: mancato riconoscimento facciale

 


Nell'aprile 2020, Uber ha introdotto un sistema di verifica dell'identità in tempo reale (RTID) nel Regno Unito che utilizza una combinazione che include il riconoscimento facciale e il controllo della posizione per autenticare l'identità di un conducente e tentare di impedire che il conducente condivida l'accesso al proprio account per lavoro.  

 

Il sistema RTID incorpora l'uso dell'API FACE di Microsoft, il software di riconoscimento facciale e richiede che conducenti e corrieri si facciano regolarmente selfie in tempo reale per continuare a utilizzare l'app Uber. La foto viene quindi confrontata con l'immagine del profilo dell'account del conducente (e in alcune giurisdizioni, con database pubblici per " prevenire il prestito di identità o per verificare l'identità degli utenti ").

Pa Edrissa Manjang lavorava con Uber da circa un anno quando è stato disattivato a causa di un errore nella verifica dei selfie. Sebbene gli autisti e i corrieri di Uber forniscano abitualmente selfie, questi non vengono memorizzati sui telefoni dei lavoratori e non possono conservare le prove delle loro richieste. A Pa non è stato dato alcun avvertimento o notificato di eventuali problemi fino al suo licenziamento; il sistema di verifica dell'identità in tempo reale sembrava approvare tutte le sue fotografie con un segno di spunta verde.
 

 

Dopo il suo licenziamento, Pa ha inviato numerosi messaggi a Uber per correggere il problema, chiedendo in particolare a un essere umano di rivedere le sue presentazioni. Ogni volta che a Pa è stato detto "non siamo stati in grado di confermare che le foto fornite fossero effettivamente di te e, a causa di continue discrepanze, abbiamo preso la decisione finale sulla fine della nostra partnership con te". Abbiamo ottenuto i selfie in questione attraverso una richiesta di accesso del soggetto, che ha rivelato che tutte le foto inviate da Pa erano in realtà di lui. Questo è stato il primo caso in cui siamo riusciti a ottenere i selfie inviati da un corriere o da un autista. Non è chiaro perché questa richiesta abbia avuto successo quando molti prima di fallire.

pa.jpg

Abbiamo anche scritto a Microsoft all'inizio dell'anno per sollevare le nostre preoccupazioni sull'uso non regolamentato dell'API FACE da parte di Uber sulla sua piattaforma. In risposta , Microsoft ha sottolineato che tutte le parti coinvolte nell'implementazione di tali tecnologie hanno responsabilità che includono: "incorporare una revisione umana significativa per rilevare e risolvere casi di identificazione errata o altri errori"  e  "fornire supporto alle persone che ritengono che i loro risultati non siano corretti e identificare e affrontare le fluttuazioni di precisione dovute alla variazione delle condizioni". Il caso di Pa dimostra chiaramente che questi controlli cruciali non sono stati implementati nell'elaborazione delle immagini RTID.  

 

Pa sta ora intentando una causa contro Uber per contestare il suo utilizzo del riconoscimento facciale discriminatorio dal punto di vista razziale, rappresentato da Bates Wells, con il sostegno della Commissione per l'uguaglianza e i diritti umani, l'App Drivers and Couriers Union e Worker Info Exchange.

EMBED: il video di Pa

Surveillance Case Study I: Facial Recognition

Caso di studio di sorveglianza II: controlli di geolocalizzazione  
 

Sebbene l'uso di sistemi di riconoscimento facciale difettosi sia indubbiamente problematico, abbiamo anche visto molti conducenti licenziati dopo false accuse da parte di Uber di essere coinvolti in una condivisione fraudolenta dell'account dopo che due dispositivi sono stati rilevati da Uber in due posizioni contemporaneamente. In tutti i casi che abbiamo analizzato, abbiamo riscontrato che il problema è legato al fatto che il conducente ha installato l'app su due dispositivi per comodità ma con uno solo dei dispositivi loggato per lavoro.  
 

Poco prima delle 20:00 dell'11 settembre 2020, Aweso Mowlana stava lavorando per Uber nel sud di Londra. Era un autista valutato con 4,95 stelle che aveva effettuato più di 11.500 viaggi in oltre 5 anni di lavoro per Uber. Aweso aveva appena lasciato un passeggero vicino a Elephant and Castle quando si è disconnesso per una breve pausa. Come molti driver, Aweso aveva installato l'app su un secondo dispositivo che era un iPhone. Quella sera in particolare aveva lasciato l'iPhone a casa e stava lavorando con l'altro suo telefono, un Samsung.
 

Alle 20:02 Aweso ha tentato di accedere nuovamente all'app Uber per rendersi disponibile per il suo prossimo lavoro. Prima che gli fosse permesso di accedere nuovamente, gli è stato chiesto di fornire un selfie come parte del Real Time Identity Check (RTID) di Uber. La sua foto corrispondeva alla foto di riferimento di Uber, quindi ha completato con successo la procedura di accesso per continuare il suo turno. Ma a sua insaputa, i sistemi Uber avevano rilevato e/o eseguito il ping del suo secondo telefono. Suo figlio aveva preso per errore il suo secondo telefono e lo aveva portato con sé a casa della sua ragazza a Uxbridge. Uber in seguito ha affermato di aver richiesto un controllo RTID da questo dispositivo alle 20:03, ma a quel punto Aweso era già online nel sud di Londra. Uber afferma che la risposta al controllo dell'identità è stata inviata dall'iPhone intorno alle 23:55 di quella sera.  
 

Il giorno successivo, Uber lo ha informato che il suo account era stato "segnalato per attività di applicazioni sospette" e che il suo account sarebbe stato sospeso mentre "un team specializzato lo esaminava". Qualche tempo dopo, Uber ha definitivamente licenziato Aweso tramite messaggio dicendo di aver "trovato prove che indicano attività fraudolente" sul suo account. Uber ha quindi affermato di condividere l'accesso al suo account e di aver violato i termini e le condizioni. Il mese successivo Transport for London ha immediatamente revocato la licenza di Aweso sulla base del fatto che non poteva più essere ritenuto "adatto e idoneo" a detenere una licenza pubblica a causa del suo licenziamento da Uber.  
 

Worker Info Exchange ha assistito Aweso nell'effettuare una richiesta di accesso al soggetto e nell'analizzare i dati ricevuti. Un file chiamato "D river Detailed Device Data " registra almeno alcuni dei dati in streaming dai dispositivi a Uber in tempo reale. La politica sulla privacy di Uber indica che dove un dispositivo ha l'app aperta in background o in primo piano, anche se non online e pronta ad accettare tariffe. In più di una dozzina di casi in cui abbiamo sostenuto l'appello dei conducenti contro le loro revoche presso la Magistrates Court, ogni ricorso è stato accolto e TfL è stato ordinato di ripristinare le patenti. Da questo file potremmo vedere fino a 230 righe di dati al minuto registrate da Uber dai dispositivi. I dati raccolti da Uber dai dispositivi di Aweso inclusi  geolocalizzazione, livello della batteria, velocità, rotta, numero IMEI ecc.  

I dati hanno mostrato che il dispositivo in Uxbridge non era mai stato connesso per lavoro quel giorno perché un campo intitolato "driver_online" mostrava l'iPhone come "FALSO" in ogni momento quel giorno, incluso l'orario in cui è stato registrato su Uxbridge. Questa è la prova che il dispositivo non è stato condiviso per lavoro con altri, come affermato da Uber e Transport for London. Uber non è riuscito a fornire l'accesso ai dati personali elaborati in entrambi i controlli RTID, comprese le foto raccolte. I "Dati dettagliati del dispositivo" non mostrano alcuna registrazione di ulteriori attività per l'iPhone dopo le 20:03:43. Non abbiamo riscontrato alcuna prova di dati sull'attività del dispositivo alle 23:55 quando Uber ha affermato di aver ricevuto una risposta al controllo dell'identità emesso in precedenza.    

L'esperienza di Pa e Aweso è stata molto diffusa durante lo scorso anno e ha costituito un volume significativo di casi gestiti da Worker Info Exchange e dall'App Drivers & Couriers Union. A Londra, Transport for London tendeva a revocare immediatamente le patenti dei conducenti che avrebbero fallito i controlli RTID di Uber nonostante gli ovvi problemi con il sistema. Esistono spesso spiegazioni ragionevoli per l'utilizzo di più dispositivi che vengono automaticamente classificati come frode. La politica sulla privacy di Uber indica che dove un dispositivo ha l'app aperta in background o in primo piano, anche se non online e pronta ad accettare tariffe. In più di una dozzina di casi in cui abbiamo sostenuto l'appello dei conducenti contro le loro revoche presso la Magistrates Court, ogni ricorso è stato accolto e TfL è stato ordinato di ripristinare le patenti.  

 

Worker Info Exchange, Big Brother Watch e App Drivers & Couriers Union hanno scritto una lettera congiunta al sindaco di Londra per sollevare le nostre preoccupazioni sulla dipendenza di Transport for London da prove errate di Uber nel prendere una decisione di revoca e lo hanno chiesto, in qualità di presidente dei trasporti per il consiglio di Londra, che ordini una revisione di tutte queste revoche illecite. Ad oggi né il sindaco né TfL hanno risposto.

Surveillance Case Study II: Geolocation
Opaque Performance Management

Gestione opaca delle prestazioni
 

L'opacità delle società di piattaforme inibisce la comprensione da parte dei lavoratori di come il controllo algoritmico potrebbe essere integrato nell'arco di processi critici e nel tempo. Ad esempio, ai lavoratori non è stata fornita la trasparenza a cui hanno legalmente diritto per comprendere come la profilazione delle prestazioni si colleghi alla qualità e alla quantità del lavoro offerto, nonché ai rendimenti attesi per tale lavoro. 

Nel caso di Ola, abbiamo una certa conoscenza delle categorie di dati che raccolgono ed elaborano nei loro sistemi di allocazione del lavoro - come i punteggi di probabilità di frode, il profilo di guadagno, l'accettazione delle prenotazioni e la cronologia delle cancellazioni, tra gli altri - tuttavia ciò non rivela le diverse ponderazioni applicata a queste variabili, né la logica di elaborazione.

Uber ha a lungo sostenuto che il suo sistema di corrispondenza è determinato esclusivamente dalla posizione, nonostante la propria interfaccia "Partner-Driver" suggerisca diversamente. Il programma Pro di Uber (a cui i conducenti vengono automaticamente iscritti in modo che possano essere incentivati a raggiungere gli obiettivi di prestazione in cambio di vantaggi e premi) informa i conducenti in un linguaggio vago che "tassi di conferma più elevati significano tempi di attesa più brevi per i clienti e tempi di ritiro più brevi per tutti conducenti” alludendo vagamente al fatto che il calo di posti di lavoro si tradurrà in un minor numero di offerte di lavoro.