top of page

Beheerd door Bot: datagedreven exploitatie in de gig-economie

WIEReportCover.png

Samenvatting
 

  • Worker Info Exchange is opgezet om de toegang tot en het verzamelen van gegevens te vergemakkelijken om onderhandelingsmacht op te bouwen door de oprichting van een gegevensvertrouwen.  

 

  • Dit was een reactie op de ontwikkeling van nieuwe algoritmische managementpraktijken die diepe informatieasymmetrieën en uitbuiting van werknemers veroorzaakten.
     

  • Worker Info Exchange heeft tot doel de convergentie van gegevens- en arbeidsrechten aan te pakken door een beroep te doen op de AVG Artikel 15, 20 en 22 rechten in arbeidscontexten.
     

  • Dit doel wordt ernstig belemmerd door wijdverbreide niet-naleving van de AVG in de gig-industrie.
     

  • We hebben de afgelopen acht maanden meer dan 500 toegangsverzoeken van betrokkenen ingediend bij zeven verschillende platforms voor het delen van ritten, waaronder Amazon Flex, Bolt, Deliveroo, Free Now, Just Eat, Ola en Uber.
     

  • De toegang tot gegevens wordt uitgedaagd door bedrijven die donkere patronen toepassen en opzettelijk misbruik maken van de fragmentarische AVG-implementatie, wat werknemers ertoe aanzet problemen voor de rechtbank op te lossen.
     

  • Het verzamelen van gegevens door gig-platforms is buitensporig en leidt tot een onevenredig en onverklaarbaar toezicht op werknemers, evenals een groeiende infrastructuur voor wetshandhaving.
     

  • Er is geen transparantie over de algoritmische managementsystemen die worden gebruikt. Bedrijfsverhalen over welke technologieën worden gebruikt en hoe, zijn inconsistent en onbetrouwbaar.

Summary
Introduction

© 2021 Worker Info Exchange

© 2021 Worker Info Exchange

Invoering
 

Het afgelopen jaar betekende een keerpunt voor gig-platformwerkers in de realisatie van hun arbeids- en digitale rechten. De praktijk van digitaal gemedieerd werk heeft geleid tot een convergentie van arbeids- en gegevensbeschermingsrechten en de toenemende rechtszaken en belangenbehartiging door werknemers hebben op deze gebieden resultaten opgeleverd. In heel Europa hebben rechtbanken verschillende belangrijke uitspraken gedaan waarin de uitbuitende rol van algoritmische beheerpraktijken door gig-platforms wordt erkend en tegelijkertijd het gebrek aan eerlijkheid en transparantie in dergelijke geautomatiseerde systemen wordt veroordeeld.  

 

In Italië oordeelde de rechtbank van Bologna dat het beoordelingssysteem van Deliveroo werknemers had gediscrimineerd, terwijl de gegevensbeschermingsautoriteit, Garante, twee AVG-boetes aan Deliveroo en Glovo had opgelegd omdat ze de werking van hun algoritmen voor taaktoewijzing en prestatiebeheer niet adequaat openbaar hadden gemaakt.  

 

Spanje heeft de eerste wetgeving aangenomen om te proberen AI op het gebied van werkgelegenheid te reguleren, waarbij zowel de status van werknemer voor gig-werkers wordt vastgesteld als het recht om geïnformeerd te worden over de regels en parameters van de algoritmen waaraan ze zijn onderworpen - een stortvloed aan klachten ontketend. Dit vloeide voort uit weer een andere rechtszaak tegen Glovo die bij het Spaanse Hooggerechtshof belandde.  

 

Naast deze spraakmakende beslissingen concludeerde het Britse Hooggerechtshof dit jaar ook dat Uber-chauffeurs partij waren bij een vervoersdienst die " zeer strak gedefinieerd en gecontroleerd wordt door Uber " en een duidelijke arbeidsrelatie verraadde, waarvan het bedrijf beweerde dat deze niet bestond in haar streven om de werknemers (verkeerd) te classificeren als onafhankelijke contractanten. Het is veelbetekenend dat het bewijs van deze relatie afkomstig is van de gegevensgestuurde systemen die rideshare-platforms gebruiken om hun personeelsbestand te beheren. Enkele van de problemen die door het Britse Hooggerechtshof naar voren werden gebracht, hadden betrekking op het management van chauffeurs door middel van algoritmische monitoring van de acceptatiegraad van banen, routekeuzes, rijgedrag en klantbeoordelingen. Hoewel er meer erkenning is voor algoritmisch management, beschermen de recente vorderingen bij de rechtbanken de werknemers niet volledig tegen de schade ervan. De arbeidsstatus van lid (b) die aan Uber-chauffeurs wordt gegeven als gevolg van de uitspraak van het Hooggerechtshof, is een intermediaire status tussen aannemer en werknemer en is nog steeds onvoldoende om hen te beschermen tegen bijvoorbeeld onterechte ontslagen.

 

Onze ervaring suggereert dat deze algoritmische beheertools, met de toevoeging van intensievere surveillancepraktijken, waarbij werknemers voortdurend worden gecontroleerd op mogelijke fraude of wangedrag, resulteren in een zeer uitbuitende werkomgeving. We zien een buitensporig aantal geautomatiseerde ontslagen in de hele gig-industrie, waarvan vele volgens ons onwettig zijn volgens artikel 22 van de Algemene Verordening Gegevensbescherming (AVG) . Artikel 22 biedt werknemers enige beperkte bescherming tegen de nadelige gevolgen van geautomatiseerde besluitvorming en profilering, door middel van het recht om menselijke tussenkomst te verkrijgen en de beslissing aan te vechten. Artikel 15 van de AVG garandeert het recht om geïnformeerd te worden over het bestaan van dergelijke geautomatiseerde besluitvorming en om zinvolle informatie te krijgen over de logica van de verwerking.

 

Op basis van deze rechten werd Worker Info Exchange opgericht met de missie om gig-werkers te ondersteunen bij het navigeren door deze complexe en onder gereguleerde ruimte. Het doel en de opdracht van ons werk is om te testen of deze AVG-instrumenten kunnen worden gebruikt om oneerlijke arbeidspraktijken aan te pakken en de reikwijdte van de gegevens die beschikbaar worden gesteld aan individuen in hun hoedanigheid als werknemers uit te breiden. Met andere woorden, het is onze ambitie om toegang tot gegevens te gebruiken als een methode om collectieve arbeidskracht op te bouwen voor het testen van verhaalmechanismen in een digitaal gemedieerde arbeidsmarkt.  

 

Wanneer de arbeidsrelatie tussen het klusplatform en de werknemer wordt uitgevoerd door middel van uitgebreide gegevensverzameling en -analyse, worden arbeidsrechten onlosmakelijk verbonden met de uitoefening van gegevensrechten. Gig-platforms zorgen voor controle over werknemers door een informatieasymmetrie te behouden, en gegevenstoegang kan een middel zijn om de (on)balans in de macht bloot te leggen die wordt gegenereerd door de informatiekloof tussen gig-platforms en hun werknemers. Door toegang te krijgen tot persoonlijke gegevens kunnen werknemers onafhankelijke evaluaties maken over hun arbeidsomstandigheden en vragen beantwoorden over hun loonberekeningen, de kwaliteit en kwantiteit van het aangeboden werk, en kunnen ze de gronden voor ongunstig prestatiebeheer aanvechten, waaronder schorsing en  ontslag.
 

Ons doel bij het vergemakkelijken van gegevenstoegang is het creëren van collectieve gegevensopslag om een beter begrip van arbeidsomstandigheden en bijgevolg onderhandelingsmacht te ontwikkelen. In de afgelopen jaren zijn er een aantal opmerkelijke initiatieven ontstaan met vergelijkbare doelen, maar met verschillende methoden voor het ophalen van gegevens. Sommige projecten op dit gebied voeren hun eigen gegevensverzameling en analyses uit over verdiensten en prestaties om de eerlijkheid van de arbeidsvoorwaarden te beoordelen (bijvoorbeeld Driver's Seat Coop  en WeClock,  Deze bieden allemaal unieke inzichten in de kluseconomie en moeten worden beschouwd als een continuüm van datapraktijken. We hebben dit probleem aangepakt door te eisen dat platforms de gegevens delen waar werknemers wettelijk recht op hebben, maar dit heeft extra obstakels geïntroduceerd voor het grotere doel van het verzamelen van gegevens. We hebben deze route gekozen omdat we normen en precedenten wilden scheppen in de wetgeving inzake gegevensbescherming, maar ook omdat we van mening zijn dat er bepaalde soorten informatie zijn die alleen kunnen worden verkregen door de gegevens rechtstreeks bij de platforms op te vragen.

 

We hebben geconstateerd, met name in het geval van door surveillance aangewakkerde beschuldigingen van onregelmatige activiteiten en fraude, dat het nodig is om over de gegevens van de bedrijven te beschikken om de beschuldigingen te begrijpen en te betwisten. Gegevenstoegang kan ons helpen de inconsistenties in de verhalen van platformbedrijven op te sporen en de bewijslast van de werknemers terug naar de platforms te verplaatsen. Vanuit dit perspectief is het streven om platformgegevens te eisen uiterst succesvol gebleken bij het oplossen van tal van arbeidsgeschillen. De eenvoudige demonstratie van de weigering van platforms om persoonlijke gegevens te verstrekken heeft verschillende intrekkingen van licenties (afgedwongen door TfL) voor de rechtbank ongedaan gemaakt en is zo een extra hulpmiddel geworden bij de uitoefening van arbeidsrechten.

 

Dit vormt de andere tak van activiteit voor Worker Info Exchange; omdat we gefrustreerd zijn in onze pogingen om duidelijkheid en transparantie te krijgen over de complexe systemen die de arbeidsomstandigheden bepalen, moeten we vaak onze toevlucht nemen tot rechtszaken en ons tot rechtbanken wenden voor beslissingen op het opkomende gebied van digitale arbeidsrechten. De kunstmatige 'datacrisis' die de gig-platforms hebben gecreëerd, is in veel opzichten een poging om de hulpbronnen van zowel precaire werknemers als vakbonden uit te putten en uit te putten door geschillen voor de rechtbanken te brengen waar ze kunnen worden verlengd en de aansprakelijkheid voor wangedrag van bedrijven wordt vertraagd.  

 

In lijn met deze activiteiten is dit rapport in drie delen geschreven: Het eerste deel onderzoekt verschillende facetten van algoritmisch beheer en de nadelen ervan, met bijbehorende casestudies. De tweede sectie behandelt ons proces bij het gebruik van Data Subject Access Requests (DSAR's), terwijl de derde een overzicht biedt van de AVG-gerelateerde zaken die we in Amsterdam hebben opgepakt, evenals de licentiezaken die we ondersteunen in Londen. Dit rapport sluit een werkperiode af waarin deze functies van onze organisatie worden aangepakt, uitgevoerd met de steun van de Mozilla Foundation, Digital Freedom Fund en Open Society Foundations. We hopen dat dit rapport de huidige stand van zaken in de uitoefening van rechten op het snijvlak van data en arbeid zal aantonen en de cumulatieve effecten zal onthullen van herhaalde niet-naleving door gig-platforms.

"Platformbedrijven opereren in een wetteloze ruimte waar ze denken dat ze de regels kunnen maken. Helaas is dit geen spel; virtuele realiteiten hebben harde gevolgen voor kluswerkers in het echte leven. Wat bemoedigend is, is dat werknemers zelf niet wachten op wetten, beleidsmakers of zelfs bondgenoten in de mensenrechtenbeweging om hen te redden. Gigantische arbeiders organiseren en gebruiken hun collectieve stem om nieuwe beschermingen te eisen die geschikt zijn voor hun doel in een digitaliserende economie."

Bama Athreya, Fellow, Open Society Foundations

Part I Misclassification 2.0

Deel I: Misclassificatie 2.0  Gecontroleerd door Algoritme
 

In de zes jaar durende strijd om de rechten van werknemers in de Britse gig-economie, voerde Uber aan dat het slechts de agent van de zelfstandige chauffeur was die niets anders deed dan passief werkorders boeken en betalingen innen. Om deze fictie verder te brengen, stellen gig-platforms uitgebreide contracten op waardoor het lijkt alsof de bestuurder en passagier rechtstreeks met elkaar zaken doen, terwijl in feite alle passagiersinformatie nauw wordt afgeschermd door bedrijven. Uber genereert bijvoorbeeld namens de chauffeur een fictieve factuur voor elke passagier die ze vervoeren. De factuur vermeldt alleen de voornaam van de passagier en wordt nooit daadwerkelijk naar de klant gestuurd.

 

Deze misclassificatietechnieken, die vaak worden gebruikt in de gig-economie, stellen platforms in staat om wettelijke verantwoordelijkheden van werkgevers, zoals basisbescherming van werknemersrechten en premies voor nationale verzekeringen, te vermijden. In het VK heeft het platformbedrijven ook in staat gesteld om omzetbelasting over de toegevoegde waarde (btw) te ontwijken. Maar eerder dit jaar bevestigde het Hooggerechtshof het recht van de lagere rechtbanken om kunstmatige contracten af te schaffen en de ware aard van de arbeidsrelatie vast te stellen op basis van het bewijs van een managementrelatie met controle over werknemers.

 

Aangezien platformbedrijven tot de conclusie komen dat het gebruik van misleidende contracten niet langer levensvatbaar is als methode voor misclassificatie van werkgelegenheid, zullen ze in de verleiding komen om te dubbelen op procesautomatisering om de managementcontrole te verbergen. Algoritmische controle wordt misclassificatie 2.0. Er is inderdaad voldoende bewijs dat dit al gebeurt. Gig-platforms zijn vastbeslotener dan ooit om misclassificatiestrategieën na te streven, zodat ze het personeelsbestand kunnen blijven controleren en tegelijkertijd het risico vermijden dat chauffeurs van de 'werknemer'-status met beperkte rechten naar de werknemersstatus met aanzienlijk meer rechten kunnen overstappen.  

Dus wat is algoritmische controle en wat zijn de specifieke risico's voor kluswerkers? In de ride-share- en bezorgindustrie zijn met name de volgende middelen voor algoritmisch beheer die ons het meest zorgen baren:
 

  • Toezicht. Intrusief toezicht voor het aangegeven doel van beveiliging en identificatie. Dit omvat het gebruik van fraudedetectie- en gezichtsherkenningstechnologieën. We zijn ons ervan bewust dat er toezicht wordt gehouden, zelfs als de werknemer niet heeft ingelogd om zich beschikbaar te stellen voor het werk. Het omvatte ook het toezicht houden op het gebruik van de app door de werknemer als consument.
     

  • Prestatiebeheer. Dit omvat maar is niet beperkt tot monitoring van het rijgedrag, inclusief ETA, klantbeoordelingen, acceptatie- en voltooiingspercentages van taken, interactie met ondersteunend personeel, beschikbaarheid.
     

  • Toewijzing van werk. Uber heeft er tot voor kort op aangedrongen dat de werkverdeling wordt bepaald op basis van de nabijheid van chauffeurs en passagiers bij elkaar, maar geeft nu toe dat er rekening wordt gehouden met gedrag en voorkeuren uit het verleden. Ola geeft toe dat chauffeursprofielen met scores voor 'verdienprofiel' en 'fraudewaarschijnlijkheid' worden gebruikt bij de geautomatiseerde besluitvorming over de werkverdeling.
     

  • Prijzen. Nauw verwant aan werktoewijzing is geautomatiseerde besluitvorming over prijzen. Misschien wel de meest bekende methode is Uber's zogenaamde 'surge' of 'dynamic pricing', die beweert de marktvraag te zuiveren met realtime, lokale prijsschommelingen.  

 

Bovenstaande managementbeslissingen zijn meestal geautomatiseerd of semi-automatisch met beperkte menselijke tussenkomst. Bedrijfsmodellen van de kluseconomie zijn gebaseerd op massale automatisering van managementbeslissingen en toezicht op de werkplek. Hoewel sommige werkgevers op dit punt terughoudend zijn, is Deliveroo hier vrij openhartig over geweest in hun privacybeleid voor rijders :  
 

“Gezien het volume aan leveringen waarmee we te maken hebben, gebruiken we geautomatiseerde systemen om de hierboven beschreven geautomatiseerde beslissingen te nemen, omdat ze een nauwkeurigere, eerlijkere en efficiëntere manier bieden om vermoedelijke fraude te identificeren, herhaalde schendingen van uw leveranciersovereenkomst te voorkomen en de negatieve impact op onze service. Menselijke controles zouden simpelweg niet mogelijk zijn in de tijdsbestekken en gezien de volumes van leveringen waarmee we te maken hebben.”

Asset 8_1.5x.png

Prestatiebeheer

Dit omvat maar is niet beperkt tot monitoring van het rijgedrag, inclusief ETA, klantbeoordelingen, acceptatie- en voltooiingspercentages van taken, interactie met ondersteunend personeel, beschikbaarheid.

Asset 7_1.5x.png

Prijzen
 

Nauw verwant aan werktoewijzing is geautomatiseerde besluitvorming over prijzen. Misschien wel de meest bekende methode is Uber's zogenaamde 'surge' of 'dynamic pricing', die beweert de marktvraag te zuiveren met realtime, lokale prijsschommelingen. 

Toezicht
 

Intrusief toezicht voor het aangegeven doel van beveiliging en identificatie. Dit omvat het gebruik van fraudedetectie- en gezichtsherkenningstechnologieën. We zijn ons ervan bewust dat er toezicht wordt gehouden, zelfs wanneer de werknemer niet heeft ingelogd om zich beschikbaar te stellen voor het werk. Het omvatte ook het toezicht houden op het gebruik van de app door de werknemer als consument.

Werktoewijzing
 

Uber heeft er tot voor kort op aangedrongen dat de werkverdeling wordt bepaald op basis van de nabijheid van chauffeurs en passagiers bij elkaar, maar geeft nu toe dat er rekening wordt gehouden met gedrag en voorkeuren uit het verleden. Ola geeft toe dat chauffeursprofielen met scores voor 'verdienprofiel' en 'fraudewaarschijnlijkheid' worden gebruikt bij de geautomatiseerde besluitvorming over de werkverdeling.

Asset 4_1.5x.png
Asset 6_1.5x.png

Deel I: Misclassificatie 2.0  Gecontroleerd door Algoritme
 

In de zes jaar durende strijd om de rechten van werknemers in de Britse gig-economie, voerde Uber aan dat het slechts de agent van de zelfstandige chauffeur was die niets anders deed dan passief werkorders boeken en betalingen innen. Om deze fictie verder te brengen, stellen gig-platforms uitgebreide contracten op waardoor het lijkt alsof de bestuurder en passagier rechtstreeks met elkaar zaken doen, terwijl in feite alle passagiersinformatie nauw wordt afgeschermd door bedrijven. Uber genereert bijvoorbeeld namens de chauffeur een fictieve factuur voor elke passagier die ze vervoeren. De factuur vermeldt alleen de voornaam van de passagier en wordt nooit daadwerkelijk naar de klant gestuurd.

 

Deze misclassificatietechnieken, die vaak worden gebruikt in de gig-economie, stellen platforms in staat om wettelijke verantwoordelijkheden van werkgevers, zoals basisbescherming van werknemersrechten en premies voor nationale verzekeringen, te vermijden. In het VK heeft het platformbedrijven ook in staat gesteld om omzetbelasting over de toegevoegde waarde (btw) te ontwijken. Maar eerder dit jaar bevestigde het Hooggerechtshof het recht van de lagere rechtbanken om kunstmatige contracten af te schaffen en de ware aard van de arbeidsrelatie vast te stellen op basis van het bewijs van een managementrelatie met controle over werknemers.

 

Aangezien platformbedrijven tot de conclusie komen dat het gebruik van misleidende contracten niet langer levensvatbaar is als methode voor misclassificatie van werkgelegenheid, zullen ze in de verleiding komen om te dubbelen op procesautomatisering om de managementcontrole te verbergen. Algoritmische controle wordt misclassificatie 2.0. Er is inderdaad voldoende bewijs dat dit al gebeurt. Gig-platforms zijn vastbeslotener dan ooit om misclassificatiestrategieën na te streven, zodat ze het personeelsbestand kunnen blijven controleren en tegelijkertijd het risico vermijden dat chauffeurs van de 'werknemer'-status met beperkte rechten naar de werknemersstatus met aanzienlijk meer rechten kunnen overstappen.  

Dus wat is algoritmische controle en wat zijn de specifieke risico's voor kluswerkers? In de ride-share- en bezorgindustrie zijn met name de volgende middelen voor algoritmisch beheer die ons het meest zorgen baren:
 

  • Toezicht. Intrusief toezicht voor het aangegeven doel van beveiliging en identificatie. Dit omvat het gebruik van fraudedetectie- en gezichtsherkenningstechnologieën. We zijn ons ervan bewust dat er toezicht wordt gehouden, zelfs als de werknemer niet heeft ingelogd om zich beschikbaar te stellen voor het werk. Het omvatte ook het toezicht houden op het gebruik van de app door de werknemer als consument.
     

  • Prestatiebeheer. Dit omvat maar is niet beperkt tot monitoring van het rijgedrag, inclusief ETA, klantbeoordelingen, acceptatie- en voltooiingspercentages van taken, interactie met ondersteunend personeel, beschikbaarheid.
     

  • Toewijzing van werk. Uber heeft er tot voor kort op aangedrongen dat de werkverdeling wordt bepaald op basis van de nabijheid van chauffeurs en passagiers bij elkaar, maar geeft nu toe dat er rekening wordt gehouden met gedrag en voorkeuren uit het verleden. Ola geeft toe dat chauffeursprofielen met scores voor 'verdienprofiel' en 'fraudewaarschijnlijkheid' worden gebruikt bij de geautomatiseerde besluitvorming over de werkverdeling.
     

  • Prijzen. Nauw verwant aan werktoewijzing is geautomatiseerde besluitvorming over prijzen. Misschien wel de meest bekende methode is Uber's zogenaamde 'surge' of 'dynamic pricing', die beweert de marktvraag te zuiveren met realtime, lokale prijsschommelingen.  

 

Bovenstaande managementbeslissingen zijn meestal geautomatiseerd of semi-automatisch met beperkte menselijke tussenkomst. Bedrijfsmodellen van de kluseconomie zijn gebaseerd op massale automatisering van managementbeslissingen en toezicht op de werkplek. Hoewel sommige werkgevers op dit punt terughoudend zijn, is Deliveroo hier vrij openhartig over geweest in hun privacybeleid voor rijders :  
 

“Gezien het volume aan leveringen waarmee we te maken hebben, gebruiken we geautomatiseerde systemen om de hierboven beschreven geautomatiseerde beslissingen te nemen, omdat ze een nauwkeurigere, eerlijkere en efficiëntere manier bieden om vermoedelijke fraude te identificeren, herhaalde schendingen van uw leveranciersovereenkomst te voorkomen en de negatieve impact op onze service. Menselijke controles zouden simpelweg niet mogelijk zijn in de tijdsbestekken en gezien de volumes van leveringen waarmee we te maken hebben.”

“Gezien het volume aan leveringen waarmee we te maken hebben, gebruiken we geautomatiseerde systemen om de hierboven beschreven geautomatiseerde beslissingen te nemen, omdat ze een nauwkeurigere, eerlijkere en efficiëntere manier bieden om vermoedelijke fraude te identificeren, herhaalde schendingen van uw leveranciersovereenkomst te voorkomen en de negatieve impact op onze service. Menselijke controles zouden eenvoudigweg niet mogelijk zijn in de tijdsbestekken en gezien de volumes van leveringen waarmee we te maken hebben.”

WIE-Report-Illustration-1_2x.png
WIE-Report-Illustration-3_2x.png

Toezicht
 

Intrusief toezicht voor het aangegeven doel van beveiliging en identificatie. Dit omvat het gebruik van fraudedetectie- en gezichtsherkenningstechnologieën. We zijn ons ervan bewust dat er toezicht wordt gehouden, zelfs wanneer de werknemer niet heeft ingelogd om zich beschikbaar te stellen voor het werk. Het omvat ook het toezicht houden op het gebruik van de app door de werknemer als consument.

Werktoewijzing
 

Uber heeft er tot voor kort op aangedrongen dat de werkverdeling wordt bepaald op basis van de nabijheid van chauffeurs en passagiers bij elkaar, maar stelt nu dat er rekening wordt gehouden met gedrag en voorkeuren uit het verleden. Ola gebruikt chauffeursprofielen die 'fraudewaarschijnlijkheidsscores' bevatten in geautomatiseerde besluitvorming voor werk toewijzing.

WIE-Report-Illustration-2_2x.png

Prestatiebeheer

Beoordeling van werkprestaties omvat, maar is niet beperkt tot, monitoring van rijgedrag, inclusief ETA, klantbeoordelingen, werkaanvaarding en voltooiingspercentages, interactie met ondersteunend personeel, beschikbaarheid.

WIE-Report-Illustration-4_2x.png

Prijzen
 

Nauw verwant aan werktoewijzing is geautomatiseerde prijsstelling. Misschien wel de meest bekende methode is de zogenaamde 'surge' of 'dynamic pricing' van Uber, die beweert de marktvraag te zuiveren met realtime, lokale prijsschommelingen. 

Surveillance wapenwedloop
 

We zien een wapenwedloop in de gig-economie sinds Uber in 2020 zijn zogenaamde Hybrid Real Time Identification System introduceerde. Slechts een dag voordat Transport for London (TfL) in november 2019 haar beslissing aankondigde om de verlenging van hun licentie te weigeren, Uber bood aan om dit bewakingssysteem te introduceren dat gezichtsherkenning met GPS-monitoring omvat.  
 

Dit was een reactie op de klacht van TfL dat 21 chauffeurs waren gedetecteerd (van de 90.000 geanalyseerde over meerdere jaren) als betrokken bij het delen van accounts, waardoor potentieel niet-gelicentieerde en onverzekerde chauffeurs illegaal hun diensten via de app konden aanbieden. De activiteit werd mogelijk gemaakt door de GPS-locatie van het apparaat te resetten naar buiten het VK, waar het voor chauffeurs mogelijk is om hun eigen foto's te uploaden. Dit gat werd snel gedicht door Uber en de gedetecteerde activiteit was verwaarloosbaar klein in vergelijking met de schaal van de operatie van Uber. De introductie van gezichtsherkenningstechnologie door de industrie is volkomen onevenredig in verhouding tot het waargenomen risico. Desalniettemin werd de vereiste voor realtime identificatie een voorwaarde voor de verlenging van de licentie van Uber bij de Westminster Magistrates Court in september 2020.
 

In het geval van Uber hebben zowel het management van het platform als TfL er niet in geslaagd ervoor te zorgen dat er passende waarborgen werden ingevoerd om de rechten en vrijheden van chauffeurs te beschermen, ondanks het feit dat TfL de gegevensbeschermingseffectbeoordeling voor de technologie in maart 2020 heeft beoordeeld. vrijheid van informatie verzoek aan TfL om toegang te krijgen tot Uber's DPIA voor de realtime ID-systemen, maar we werden geweigerd. Volgens TfL-rapporten is 94% van de chauffeurs van particuliere huurauto's afkomstig uit zwarte en etnische minderheden en de introductie van deze technologie, die algemeen bekend staat om zijn lage nauwkeurigheidspercentages binnen deze groepen , is rampzalig gebleken voor kwetsbare werknemers die al in onzeker werk.  
 

Bolt heeft sindsdien aangekondigd dat het € 150 miljoen investeert in antifraudedetectiesystemen voor AI-bestuurders, waaronder gezichtsherkenning. Deliveroo kondigde aan dat ook zij identiteitscontroles voor gezichtsherkenning zouden invoeren. Ola Cabs heeft ook identificatie met gezichtsherkenning uitgerold als een functie van zijn Guardian-systeem , met machine learning waarvan ze beweren dat ze "elke dag continu kunnen leren en evolueren van miljoenen datapunten, om risicosignalering en onmiddellijke oplossing te verbeteren."  
 

FreeNow, een joint venture van Daimler en BMW, houdt ook nauwlettend toezicht op bestuurders als onderdeel van hun fraudepreventieprogramma. Uit documenten die door FreeNow bij het Hooggerechtshof waren ingediend in een Judicial Review van TfL's beslissing om hen een licentie in Londen te verlenen, onthulden ze inderdaad dat TfL maandelijkse rapporten heeft gemaakt over het ontslag van chauffeurs om verschillende redenen (waaronder 'frauduleuze activiteit') als voorwaarde voor hun recente licentieverlenging. Maar de beschrijving van de gegevens die worden verwerkt met het oog op fraudepreventie roept meer vragen op dan het privacybeleid van FreeNow beantwoordt.

In dit document stelt Free Now dat ze een 'random forest'-algoritme gebruiken om een fraudescore te produceren die ze gebruiken om ' de verzonden ritten dienovereenkomstig te prioriteren. Dit zorgt voor een eerlijke en risicogeminimaliseerde verzending .” Free Now betwistte hun gebruik van dit fraudedetectiesysteem toen we er in juni 2021 naar vroegen en beweerde dat dit gedeelte van het privacybeleid verouderd was (zie de bedrijfscasestudy in hoofdstuk II van het rapport). De beschrijving van dit systeem is in het beleid gebleven, ondanks een update in september 2021.

 

Wat vooral zorgwekkend is aan het gebruik van deze systemen, is dat ze fraudebeheer vermengen met prestatiebeheer. Het feit dat dergelijke 'fraude'-indicatoren worden gebruikt als variabelen voor de werktoewijzing en dat het gedrag dat ze genereert op het platform mag blijven bestaan, toont aan dat dit geen gevallen van criminele fraude zijn, maar controlemechanismen die beoordelen hoe goed werknemers presteren tegen de ondoorzichtige maatstaven van bedrijven. We stellen voor dat alle 'fraude'-terminologie die in deze contexten wordt gebruikt, ook deel uitmaakt van het spel van misclassificatie, dat bedoeld is om de arbeidsrelatie te verbergen. 

Surveillance Arms Race

Surveillance Casestudy I: gezichtsherkenning mislukt

 


In april 2020 introduceerde Uber een Real Time ID-check (RTID)-systeem in het VK dat een combinatie van gezichtsherkenning en locatiecontrole gebruikt om de identiteit van een bestuurder te verifiëren en om te voorkomen dat chauffeurs toegang tot hun account delen voor werk.  

 

Het RTID-systeem maakt gebruik van Microsoft's FACE API, gezichtsherkenningssoftware en vereist dat chauffeurs en koeriers routinematig realtime selfies van zichzelf maken om de Uber-app te blijven gebruiken. De foto wordt vervolgens vergeleken met de profielfoto van het account van de bestuurder (en in sommige rechtsgebieden, met openbare databases om " het lenen van identiteiten te voorkomen of om de identiteit van gebruikers te verifiëren ").

Pa Edrissa Manjang werkte ongeveer een jaar met Uber toen hij werd gedeactiveerd vanwege een mislukte selfie-verificatie. Terwijl Uber-chauffeurs en koeriers routinematig selfies verstrekken, worden deze niet opgeslagen op de telefoons van de werknemers en kunnen ze het bewijs van hun inzendingen niet bewaren. Pa kreeg tot zijn ontslag geen waarschuwingen of kennisgevingen van problemen; het Real Time ID-verificatiesysteem bleek al zijn foto's goed te keuren met een groen vinkje.
 

 

Na zijn ontslag stuurde Pa talloze berichten naar Uber om het probleem op te lossen, waarbij hij specifiek vroeg of een mens zijn inzendingen kon beoordelen. Elke keer dat Pa te horen kreeg: "We waren niet in staat om te bevestigen dat de verstrekte foto's daadwerkelijk van jou waren en vanwege aanhoudende mismatches, hebben we de definitieve beslissing genomen om onze samenwerking met jou te beëindigen." We hebben de selfies in kwestie verkregen via een verzoek om toegang tot het onderwerp, waaruit bleek dat alle foto's die Pa had ingediend in feite van hem waren. Dit was de eerste keer dat we erin slaagden om de door een koerier of chauffeur ingestuurde selfies te bemachtigen. Het is onduidelijk waarom dit verzoek slaagde, terwijl velen ervoor faalden.

pa.jpg

We hebben eerder dit jaar ook naar Microsoft geschreven om onze zorgen te uiten over het ongereguleerde gebruik van FACE API door Uber op zijn platform. In reactie daarop benadrukte Microsoft dat alle partijen die betrokken zijn bij de implementatie van dergelijke technologieën verantwoordelijkheden hebben, waaronder: "het opnemen van zinvolle menselijke beoordeling om gevallen van verkeerde identificatie of andere fouten op te sporen en op te lossen"  en  "om ondersteuning te bieden aan mensen die denken dat hun resultaten onjuist waren; en om fluctuaties in nauwkeurigheid als gevolg van variatie in omstandigheden te identificeren en aan te pakken." Het geval van Pa toont duidelijk aan dat deze cruciale controles niet zijn geïmplementeerd bij de verwerking van RTID-beelden.  

 

Pa spant nu een zaak aan tegen Uber om de raciaal discriminerende toepassing van gezichtsherkenning aan te vechten, vertegenwoordigd door Bates Wells, met steun van de Equality and Human Rights Commission, de App Drivers and Couriers Union en Worker Info Exchange.

EMBED: Pa's video

Surveillance Case Study I: Facial Recognition

Surveillance Casestudy II: Geolocatiecontroles  
 

Hoewel het gebruik van gebrekkige gezichtsherkenningssystemen ongetwijfeld problematisch is, hebben we ook gezien dat veel chauffeurs werden ontslagen na valse beschuldigingen van Uber dat ze frauduleus waren met het delen van accounts nadat twee apparaten door Uber op twee locaties tegelijkertijd waren gedetecteerd. In alle gevallen die we hebben geanalyseerd, hebben we geconstateerd dat het probleem te maken heeft met het stuurprogramma dat de app voor het gemak op twee apparaten heeft geïnstalleerd, maar met slechts één van de apparaten die is aangemeld voor werk.  
 

Net voor 20.00 uur op 11 september 2020 was Aweso Mowlana aan het werk voor Uber in Zuid-Londen. Hij was een chauffeur met een rating van 4,95 sterren die in meer dan 5 jaar bij Uber meer dan 11.500 ritten had gemaakt. Aweso had net een passagier afgezet bij Elephant and Castle toen hij zich afmeldde voor een korte pauze. Zoals veel stuurprogramma's had Aweso de app op een tweede apparaat geïnstalleerd, namelijk een iPhone. Die avond had hij de iPhone thuisgelaten en werkte hij met zijn andere telefoon, een Samsung.
 

Om 20:02 probeerde Aweso opnieuw in te loggen op de Uber-app om zichzelf beschikbaar te maken voor zijn volgende baan. Voordat hij weer mocht inloggen, werd hem gevraagd een selfie te maken als onderdeel van de Real Time Identity Check (RTID) van Uber. Zijn foto kwam overeen met de referentiefoto van Uber, dus hij voltooide de aanmeldingsprocedure om zijn dienst voort te zetten. Maar wat hij niet wist, Uber-systemen hadden zijn tweede telefoon gedetecteerd en/of gepingd. Zijn zoon had per ongeluk zijn tweede telefoon opgepakt en meegenomen naar het huis van zijn vriendin in Uxbridge. Uber zei later dat ze om 20:03 uur een RTID-controle van dit apparaat hadden aangevraagd, maar tegen die tijd was Aweso al online in Zuid-Londen. Uber beweert dat het antwoord op de ID-controle die avond rond 23:55 vanaf de iPhone is verzonden.  
 

De volgende dag liet Uber hem weten dat zijn account was 'gemarkeerd voor verdachte applicatie-activiteit' en dat zijn account nu zou worden opgeschort terwijl 'een gespecialiseerd team dit beoordeelt'. Enige tijd later ontsloeg Uber Aweso permanent via sms dat ze 'bewijs hadden gevonden dat op frauduleuze activiteiten wees' voor zijn account. Uber beweerde vervolgens dat hij de toegang tot zijn account deelde en daarmee de algemene voorwaarden had geschonden. De volgende maand trok Transport for London onmiddellijk de vergunning van Aweso in op grond van het feit dat hij niet langer 'fit and proper' kon worden bevonden om een openbare vergunning te bezitten op grond van zijn ontslag bij Uber.  
 

Worker Info Exchange hielp Aweso bij het indienen van een verzoek om toegang tot het onderwerp en het analyseren van de ontvangen gegevens. Eén bestand met de naam 'D river Gedetailleerde apparaatgegevens ' registreert ten minste een deel van de gegevens die in realtime van apparaten naar Uber worden gestreamd. Het eigen privacybeleid van Uber geeft aan dat waar een apparaat de app op de achtergrond of voorgrond heeft geopend, zelfs als deze niet online is en klaar is om tarieven te accepteren. In meer dan een dozijn zaken waarin we bestuurders ondersteunden die in beroep gingen tegen hun intrekking bij de Magistrates Court, werd elk beroep gegrond verklaard en werd TfL bevolen om de licenties te herstellen. Uit dit bestand konden we zien dat maar liefst 230 rijen gegevens per minuut door Uber werden vastgelegd vanaf apparaten. De gegevens die Uber van de apparaten van Aweso heeft verzameld, zijn inbegrepen  geolocatie, batterijniveau, snelheid, koers, IMEI-nummer enz.  

Uit de gegevens bleek dat het apparaat in Uxbridge die dag nooit was ingelogd voor werk omdat een veld met de titel 'driver_online' de iPhone die dag altijd als 'FALSE' liet zien, inclusief het tijdstip waarop deze bij Uxbridge was opgenomen. Dit is het bewijs dat het apparaat niet werd gedeeld voor werk met anderen, zoals beweerd door Uber en Transport for London. Uber heeft geen toegang verleend tot de persoonsgegevens die zijn verwerkt in beide RTID-controles, inclusief de verzamelde foto's. De 'Gedetailleerde apparaatgegevens' laten na 20:03:43 uur geen gegevens zien van verdere activiteit voor de iPhone. We zagen geen gegevensbewijs van apparaatactiviteit om 23:55 uur toen Uber zei een reactie te hebben ontvangen op de eerder afgegeven ID-controle.    

De ervaring van Pa en Aweso was het afgelopen jaar zeer wijdverbreid en vormde een aanzienlijk aantal zaken die werden afgehandeld door Worker Info Exchange en de App Drivers & Couriers Union. In Londen had Transport for London de neiging om onmiddellijk de rijbewijzen in te trekken van chauffeurs die naar verluidt niet waren geslaagd voor de RTID-controles van Uber, ondanks de duidelijke problemen met het systeem. Er zijn vaak redelijke verklaringen voor het gebruik van meerdere apparaten die automatisch als fraude worden geclassificeerd. Het eigen privacybeleid van Uber geeft aan dat waar een apparaat de app op de achtergrond of voorgrond heeft geopend, zelfs als deze niet online is en klaar is om tarieven te accepteren. In meer dan een dozijn zaken waarin we bestuurders ondersteunden die in beroep gingen tegen hun intrekking bij de Magistrates Court, werd elk beroep gegrond verklaard en werd TfL bevolen om de licenties te herstellen.  

 

Worker Info Exchange, Big Brother Watch en de App Drivers & Couriers Union schreven een gezamenlijke brief aan de burgemeester van Londen om onze bezorgdheid te uiten over het vertrouwen van Transport for London op gebrekkig bewijs van Uber bij het nemen van een intrekkingsbeslissing en eisten dat, als voorzitter van Transport for London voor de raad van bestuur van Londen, dat hij een herziening van al dergelijke onrechtmatige intrekkingen gelast. Tot op heden hebben noch de burgemeester noch TfL gereageerd.

Surveillance Case Study II: Geolocation
Opaque Performance Management

Ondoorzichtig prestatiebeheer
 

De ondoorzichtigheid van platformbedrijven belemmert werknemers om te begrijpen hoe algoritmische controle kan worden geïntegreerd in de hele reeks kritieke processen en in de loop van de tijd. Zo hebben werknemers bijvoorbeeld niet de transparantie gekregen waar ze wettelijk recht op hebben om te begrijpen hoe prestatieprofilering verband houdt met de kwaliteit en kwantiteit van het aangeboden werk en met de verwachte opbrengsten van dergelijk werk. 

In het geval van Ola hebben we enige kennis van de gegevenscategorieën die ze verzamelen en verwerken in hun werktoewijzingssystemen - zoals fraudewaarschijnlijkheidsscores, verdienprofiel, boekingsacceptatie en annuleringsgeschiedenis, maar dit onthult niet de verschillende wegingen toegepast op deze variabelen, noch op de logica van de verwerking.

Uber heeft lang volgehouden dat het matchingsysteem uitsluitend wordt bepaald door de locatie, ondanks dat de eigen "Partner-Driver"-interface anders suggereert. Uber's Pro-programma (waarvoor chauffeurs automatisch worden ingeschreven zodat ze kunnen worden gestimuleerd om prestatiedoelen te halen in ruil voor voordelen en beloningen) informeert chauffeurs in vage taal dat "hogere bevestigingspercentages kortere wachttijden voor klanten en kortere ophaaltijden voor iedereen betekenen chauffeurs” losjes zinspelend op het feit dat afnemende banen zullen leiden tot minder vacatures.