top of page

Gestionat de Bot: Exploatarea bazată pe date în economia Gig

WIEReportCover.png

rezumat
 

  • Worker Info Exchange a fost înființat pentru a facilita accesul și colectivizarea datelor pentru a construi puterea de negociere prin stabilirea unui trust de date.  

 

  • Acest lucru a fost ca răspuns la dezvoltarea de noi practici de management algoritmic care creează asimetrii informaționale profunde și exploatarea lucrătorilor.
     

  • Worker Info Exchange își propune să abordeze convergența datelor și a drepturilor de muncă prin invocarea drepturilor articolelor 15, 20 și 22 din GDPR în contexte de angajare.
     

  • Acest obiectiv este grav împiedicat de neconformitatea pe scară largă a GDPR în industria gig-urilor.
     

  • În ultimele opt luni, am făcut peste 500 de solicitări de acces pentru persoanele vizate către șapte platforme diferite de transport partajat, inclusiv Amazon Flex, Bolt, Deliveroo, Free Now, Just Eat, Ola și Uber.
     

  • Accesul la date este contestat de companiile care implementează modele întunecate și abuzează în mod deliberat de implementarea neregulată a GDPR, ceea ce îi determină pe lucrători să rezolve problemele în instanță.
     

  • Colectarea datelor de către platformele gig este excesivă și duce la supravegherea disproporționată și neresponsabilă a lucrătorilor, precum și la extinderea infrastructurii de aplicare a legii.
     

  • Nu există transparență asupra sistemelor de management algoritmic care sunt utilizate. Narațiunile companiei despre ce tehnologii sunt utilizate și cum sunt inconsistente și nesigure.

Summary
Introduction

© 2021 Schimb de informații despre lucrători

© 2021 Schimb de informații despre lucrători

Introducere
 

Anul trecut a marcat un punct de cotitură pentru lucrătorii platformei de concerte în realizarea drepturilor lor digitale și de angajare. Practica muncii mediate digital a condus la o convergență a drepturilor de angajare și de protecție a datelor, iar activitatea în creștere a litigiilor și advocacy a lucrătorilor a dat rezultate în aceste domenii. În toată Europa, instanțele au pronunțat mai multe hotărâri importante care recunosc rolul de exploatare al practicilor de management algoritmic de către platformele gig, condamnând, de asemenea, lipsa de corectitudine și transparență în astfel de sisteme automate.  

 

În Italia, instanța de la Bologna a decis că sistemul de rating Deliveroo a discriminat lucrătorii, în timp ce autoritatea de protecție a datelor, Garante, a aplicat două amenzi GDPR Deliveroo și Glovo din cauza eșecului lor de a dezvălui în mod adecvat funcționarea algoritmilor de alocare a locurilor de muncă și de management al performanței.  

 

Spania a adoptat prima legislație pentru a încerca să reglementeze IA în domeniul ocupării forței de muncă, stabilind atât statutul de lucrător pentru lucrătorii din gig, cât și dreptul de a fi informați cu privire la regulile și parametrii algoritmilor la care sunt supuși - declanșând un torent de plângeri. Acest lucru a rezultat dintr-un alt proces împotriva Glovo care a ajuns la Curtea Supremă Spaniolă.  

 

Alături de aceste decizii importante, Curtea Supremă a Regatului Unit a concluzionat, de asemenea, în acest an că șoferii Uber au fost parte la un serviciu de transport care este „ foarte strâns definit și controlat de Uber ”, trădând o relație de muncă clară, despre care compania a susținut că nu a existat în efortul său de a clasifica (greși) lucrătorii ca antreprenori independenți. În mod semnificativ, dovezile acestei relații provin din sistemele bazate pe date pe care platformele de transport partajat le folosesc pentru a-și gestiona forța de muncă. Unele dintre problemele evidențiate de Curtea Supremă din Regatul Unit s-au referit la gestionarea șoferilor prin monitorizarea algoritmică a ratelor de acceptare a locurilor de muncă, a alegerilor de rută, a comportamentului de conducere și a evaluărilor clienților. Cu toate acestea, deși există o mai mare recunoaștere a managementului algoritmic, câștigurile recente din instanțe nu protejează pe deplin lucrătorii împotriva daunelor sale. Partea (b) statutul de lucrător acordat șoferilor Uber ca urmare a deciziei Curții Supreme este un statut de intermediar între antreprenor și angajat și încă nu îi protejează de concedieri abuzive, de exemplu.

 

Experiența noastră sugerează că aceste instrumente de management algoritmic, la care se adaugă intensificarea practicilor de supraveghere, monitorizarea continuă a lucrătorilor pentru eventuale fraude sau fapte greșite, au ca rezultat un mediu de lucru profund exploatant. Asistăm la un număr exagerat de concedieri automate în întreaga industrie a concertelor, dintre care multe considerăm că sunt ilegale în conformitate cu articolul 22 din Regulamentul general privind protecția datelor (GDPR) . Articolul 22 oferă lucrătorilor anumite protecții limitate împotriva efectelor adverse ale luării automate a deciziilor și ale profilării, prin dreptul de a obține intervenția umană și de a contesta decizia. Articolul 15 din GDPR garantează dreptul de a fi informat cu privire la existența unei astfel de decizii automate și de a primi informații semnificative despre logica prelucrării.

 

Luând ca bază aceste drepturi, Worker Info Exchange a fost înființat cu misiunea de a sprijini lucrătorii din gig în navigarea în acest complex și în spațiu reglementat. Scopul și misiunea muncii noastre este de a testa dacă aceste instrumente GDPR pot fi utilizate pentru a aborda practicile neloiale de angajare și pentru a extinde domeniul de aplicare al datelor puse la dispoziție persoanelor în calitatea lor de lucrători. Cu alte cuvinte, ambiția noastră este să folosim accesul la date ca metodă de a construi puterea colectivă a lucrătorilor pentru testarea mecanismelor de despăgubire pe o piață a muncii mediată digital.  

 

Atunci când relația de muncă dintre platforma gig și lucrător este executată prin colectarea și analiză extinsă de date, drepturile de angajare devin indisolubil legate de exercitarea drepturilor de date. Platformele Gig afirmă controlul asupra lucrătorilor prin menținerea unei asimetrii informaționale, iar accesul la date poate oferi un mijloc de a expune (dezechilibrul) de putere generat de decalajul informațional dintre platformele de gig și lucrătorii lor. Obținerea accesului la datele cu caracter personal poate permite lucrătorilor să facă evaluări independente cu privire la condițiile lor de muncă și să răspundă la întrebări referitoare la calculele lor salariale, calitatea și cantitatea muncii oferite, precum și contestarea motivelor pentru managementul negativ al performanței, inclusiv suspendarea și  concediere.
 

Scopul nostru în facilitarea accesului la date este de a crea depozite colective de date pentru a dezvolta o mai bună înțelegere a condițiilor de muncă și, în consecință, a puterii de negociere. În ultimii ani, au apărut o serie de inițiative demne de remarcat, care funcționează cu scopuri similare, dar utilizând metodologii diferite pentru preluarea datelor. Unele proiecte din acest domeniu își desfășoară propria colectare de date și analize privind câștigurile și performanța pentru a evalua corectitudinea condițiilor de muncă (de exemplu Driver's Seat Coop  și WeClock,  printre altele.) Toate acestea prezintă perspective unice asupra economiei gig și ar trebui considerate ca constituind un continuum de practică a datelor. Am abordat această problemă cerând platformelor să partajeze datele la care lucrătorii au dreptul legal, însă acest lucru a introdus obstacole suplimentare în scopul mai larg de colectivizare a datelor. Am luat această cale pentru că ne-am dorit să stabilim standarde și precedente în legea protecției datelor, dar și pentru că credem că există anumite tipuri de informații care pot fi obținute doar prin solicitarea datelor direct de pe platforme.

 

Am constatat, în special în cazul acuzațiilor alimentate de supraveghere de activitate neregulată și fraudă, că este necesar să avem datele deținute de companii pentru a înțelege și a contesta acuzațiile. Accesul la date ne poate ajuta să descoperim inconsecvențele din narațiunile avansate de companiile de platformă și ne poate ajuta să transferăm sarcina probei de la lucrători pe platforme. Din această perspectivă, efortul de a solicita date platformei s-a dovedit extrem de reușit în soluționarea a numeroase dispute de muncă. Simpla demonstrație a refuzului platformelor de a furniza date cu caracter personal a anulat mai multe revocări de licență (executate de TfL) în instanță și a devenit astfel un instrument suplimentar în exercitarea drepturilor de muncă.

 

Aceasta constituie cealaltă ramură de activitate a Schimbului de informații lucrător; întrucât suntem frustrați în încercările noastre de a obține claritate și transparență asupra sistemelor complexe care determină condițiile la locul de muncă, trebuie frecvent să apelăm la litigii și să apelăm la instanțe pentru decizii în domeniul emergent al drepturilor de muncă digitale. „Criza de date” artificială pe care platformele de concerte au creat-o este în multe privințe o încercare de a epuiza și de a epuiza resursele lucrătorilor precari și ale sindicatelor deopotrivă, atragând litigiile în instanțe, unde pot fi prelungite și răspunderea pentru comportamentul necorespunzător al corporațiilor amânată.  

 

În conformitate cu aceste direcții de activitate, acest raport este scris în trei părți: Prima secțiune explorează diferite fațete ale managementului algoritmic și daunele acestuia, cu studii de caz asociate. A doua secțiune tratează procesul nostru de utilizare a cererilor de acces pentru subiectul datelor (DSAR), în timp ce a treia oferă o privire de ansamblu asupra cazurilor legate de GDPR pe care le-am înaintat în Amsterdam, precum și a cazurilor de licențiere pe care le sprijinim la Londra. Acest raport încheie o perioadă de lucru care abordează aceste funcții ale organizației noastre, desfășurată cu sprijinul Fundației Mozilla, Digital Freedom Fund și Open Society Foundations. Sperăm că acest raport va demonstra stadiul actual al exercitării drepturilor la intersecția datelor și a muncii și va dezvălui efectele cumulate ale neconformității repetate de către platformele gig.

„Companiile de platforme operează într-un spațiu fără lege în care cred că pot stabili regulile. Din păcate, acesta nu este un joc; realitățile virtuale au consecințe dure pentru lucrătorii din gig în viața reală. Ceea ce este încurajator este că lucrătorii înșiși nu așteaptă legi, factorii de decizie politică sau chiar aliați din mișcarea pentru drepturile omului pentru a-i salva. Lucrătorii de la Gig se organizează și își folosesc vocea colectivă pentru a cere noi protecții adecvate scopului unei economii digitalizate.”

Bama Athreya, Fellow, Open Society Foundations

Part I Misclassification 2.0

Partea I: Clasificare greșită 2.0  Controlat de algoritm
 

În bătălia de șase ani pentru drepturile lucrătorilor în economia gig a Regatului Unit, Uber a susținut că a fost doar agentul șoferului care desfășoară o activitate independentă, care nu face altceva decât să rezerve pasiv comenzile de muncă și să încaseze plăți. Pentru a promova această ficțiune, platformele de concerte au stabilit contracte elaborate care fac să pară că șoferul și pasagerul fac tranzacții direct unul cu celălalt, când, de fapt, toate informațiile despre pasageri sunt protejate îndeaproape de companii. Uber, de exemplu, generează o factură noțională în numele șoferului pentru fiecare pasager pe care îl transportă. Factura va cita doar prenumele pasagerului și nu este niciodată trimisă clientului.

 

Aceste tehnici de clasificare greșită, utilizate în mod obișnuit în economia gig, permit platformelor să evite responsabilitățile legale ale angajatorului, cum ar fi protecția drepturilor de bază ale lucrătorilor și contribuțiile naționale de asigurări. În Marea Britanie, a permis companiilor de platformă să evite taxa pe valoarea adăugată pe vânzări (TVA). Dar la începutul acestui an, Curtea Supremă a afirmat dreptul instanțelor inferioare de a renunța la contracte artificiale și de a determina adevărata natură a raportului de muncă pe baza dovezilor unei relații de conducere de control asupra lucrătorilor.

 

Întrucât companiile de platformă concluzionează că utilizarea contractelor înșelătoare nu mai este viabilă ca metodă de clasificare greșită a angajării, vor fi tentate să dubleze automatizarea proceselor pentru ascunderea controlului de management. Controlul algoritmic devine clasificare greșită 2.0. Într-adevăr, există dovezi ample că acest lucru se întâmplă deja. Platformele Gig sunt mai hotărâte ca niciodată să urmărească strategii de clasificare greșită, astfel încât să poată continua să controleze forța de muncă, evitând în același timp riscul ca șoferii să treacă de la statutul de „lucrător” cu drepturi limitate la statutul de angajat cu mult mai multe drepturi.  

Deci, ce este controlul algoritmic și care sunt riscurile specifice pentru lucrătorii din gig? În special în industriile de transport partajat și de livrare, mijloacele de management algoritmic care ne preocupă cel mai mult includ următoarele:
 

  • Supraveghere. Supraveghere intruzivă în scopul declarat de securitate și identificare. Aceasta include utilizarea tehnologiilor de detectare a fraudelor și de recunoaștere facială. Suntem conștienți că supravegherea este efectuată chiar și atunci când lucrătorul nu s-a autentificat pentru a se pune la dispoziție pentru muncă. De asemenea, a inclus și supravegherea utilizării aplicației de către lucrător ca consumator.
     

  • Managementul performantei. Aceasta include, dar nu se limitează la, monitorizarea comportamentului de conducere, inclusiv ETA, evaluările clienților, ratele de acceptare și finalizare a locurilor de muncă, interacțiunea cu personalul de asistență, disponibilitate.
     

  • Alocarea muncii. Până de curând, Uber a insistat că alocarea muncii este decisă în funcție de apropierea șoferilor și pasagerilor unul față de celălalt, totuși acum admit că comportamentul și preferințele din trecut sunt luate în considerare. Ola admite că profilurile șoferilor care includ scorul „profilul de câștig” și „probabilitatea de fraudă” sunt utilizate în luarea deciziilor automatizate de alocare a muncii.
     

  • Prețuri. Strâns legată de alocarea muncii este luarea automată a deciziilor privind prețurile. Poate că cea mai cunoscută metodă este așa-numita „supraveghere” sau „preț dinamic” de la Uber, care urmărește să clarifice cererea pieței cu fluctuații de preț locale în timp real.  

 

Deciziile de management de mai sus sunt în mare parte automatizate sau semi-automatizate cu intervenție umană limitată. Modelele de afaceri ale economiei gig se bazează pe automatizarea în masă a deciziilor de management și pe supravegherea locului de muncă. În timp ce unii angajatori sunt reticenți în privința acestui punct, Deliveroo a fost destul de direct în politica lor de confidențialitate a utilizatorului :  
 

„Având în vedere volumul de livrări cu care ne confruntăm, folosim sisteme automatizate pentru a lua deciziile automatizate descrise mai sus, deoarece acestea oferă o modalitate mai precisă, echitabilă și eficientă de a identifica frauda suspectată, prevenind încălcările repetate ale Acordului cu furnizorul și limitând impactul negativ asupra serviciul nostru. Controalele umane pur și simplu nu ar fi posibile în intervalele de timp și având în vedere volumele de livrări cu care ne ocupăm.”

Asset 8_1.5x.png

Managementul performantei

Aceasta include, dar nu se limitează la, monitorizarea comportamentului de conducere, inclusiv ETA, evaluările clienților, ratele de acceptare și finalizare a locurilor de muncă, interacțiunea cu personalul de asistență, disponibilitate.

Asset 7_1.5x.png

Prețuri
 

Strâns legată de alocarea muncii este luarea automată a deciziilor privind prețurile. Poate că cea mai cunoscută metodă este așa-numita „supraveghere” sau „prețuri dinamice” de la Uber, care urmărește să clarifice cererea pieței cu fluctuații ale prețurilor locale în timp real. 

Supraveghere
 

Supraveghere intruzivă în scopul declarat de securitate și identificare. Aceasta include utilizarea tehnologiilor de detectare a fraudelor și de recunoaștere facială. Suntem conștienți că supravegherea este efectuată chiar și atunci când lucrătorul nu s-a autentificat pentru a se pune la dispoziție pentru muncă. De asemenea, a inclus și supravegherea utilizării aplicației de către lucrător ca consumator.

Alocarea muncii
 

Până de curând, Uber a insistat că alocarea muncii este decisă în funcție de apropierea șoferilor și pasagerilor unul față de celălalt, totuși acum admit că comportamentul și preferințele din trecut sunt luate în considerare. Ola admite că profilurile șoferilor care includ scorul „profilul de câștig” și „probabilitatea de fraudă” sunt utilizate în luarea deciziilor automatizate de alocare a muncii.

Asset 4_1.5x.png
Asset 6_1.5x.png

Partea I: Clasificare greșită 2.0  Controlat de algoritm
 

În bătălia de șase ani pentru drepturile lucrătorilor în economia gig a Regatului Unit, Uber a susținut că a fost doar agentul șoferului care desfășoară o activitate independentă, care nu face altceva decât să rezerve pasiv comenzile de muncă și să încaseze plăți. Pentru a promova această ficțiune, platformele de concerte au stabilit contracte elaborate care fac să pară că șoferul și pasagerul fac tranzacții direct unul cu celălalt, când, de fapt, toate informațiile despre pasageri sunt protejate îndeaproape de companii. Uber, de exemplu, generează o factură noțională în numele șoferului pentru fiecare pasager pe care îl transportă. Factura va cita doar prenumele pasagerului și nu este niciodată trimisă clientului.

 

Aceste tehnici de clasificare greșită, utilizate în mod obișnuit în economia gig, permit platformelor să evite responsabilitățile legale ale angajatorului, cum ar fi protecția drepturilor de bază ale lucrătorilor și contribuțiile naționale de asigurări. În Marea Britanie, a permis companiilor de platformă să evite taxa pe valoarea adăugată pe vânzări (TVA). Dar la începutul acestui an, Curtea Supremă a afirmat dreptul instanțelor inferioare de a renunța la contracte artificiale și de a determina adevărata natură a raportului de muncă pe baza dovezilor unei relații de conducere de control asupra lucrătorilor.

 

Întrucât companiile de platformă concluzionează că utilizarea contractelor înșelătoare nu mai este viabilă ca metodă de clasificare greșită a angajării, vor fi tentate să dubleze automatizarea proceselor pentru ascunderea controlului de management. Controlul algoritmic devine clasificare greșită 2.0. Într-adevăr, există dovezi ample că acest lucru se întâmplă deja. Platformele Gig sunt mai hotărâte ca niciodată să urmărească strategii de clasificare greșită, astfel încât să poată continua să controleze forța de muncă, evitând în același timp riscul ca șoferii să treacă de la statutul de „lucrător” cu drepturi limitate la statutul de angajat cu mult mai multe drepturi.  

Deci, ce este controlul algoritmic și care sunt riscurile specifice pentru lucrătorii din gig? În special în industriile de transport partajat și de livrare, mijloacele de management algoritmic care ne preocupă cel mai mult includ următoarele:
 

  • Supraveghere. Supraveghere intruzivă în scopul declarat de securitate și identificare. Aceasta include utilizarea tehnologiilor de detectare a fraudelor și de recunoaștere facială. Suntem conștienți că supravegherea este efectuată chiar și atunci când lucrătorul nu s-a autentificat pentru a se pune la dispoziție pentru muncă. De asemenea, a inclus și supravegherea utilizării aplicației de către lucrător ca consumator.
     

  • Managementul performantei. Aceasta include, dar nu se limitează la, monitorizarea comportamentului de conducere, inclusiv ETA, evaluările clienților, ratele de acceptare și finalizare a locurilor de muncă, interacțiunea cu personalul de asistență, disponibilitate.
     

  • Alocarea muncii. Până de curând, Uber a insistat că alocarea muncii este decisă în funcție de apropierea șoferilor și pasagerilor unul față de celălalt, totuși acum admit că comportamentul și preferințele din trecut sunt luate în considerare. Ola admite că profilurile șoferilor care includ scorul „profilul de câștig” și „probabilitatea de fraudă” sunt utilizate în luarea deciziilor automatizate de alocare a muncii.
     

  • Prețuri. Strâns legată de alocarea muncii este luarea automată a deciziilor privind prețurile. Poate că cea mai cunoscută metodă este așa-numita „supraveghere” sau „preț dinamic” de la Uber, care urmărește să clarifice cererea pieței cu fluctuații de preț locale în timp real.  

 

Deciziile de management de mai sus sunt în mare parte automatizate sau semi-automatizate cu intervenție umană limitată. Modelele de afaceri ale economiei gig se bazează pe automatizarea în masă a deciziilor de management și pe supravegherea locului de muncă. În timp ce unii angajatori sunt reticenți în privința acestui punct, Deliveroo a fost destul de direct în politica lor de confidențialitate a utilizatorului :  
 

„Având în vedere volumul de livrări cu care ne confruntăm, folosim sisteme automatizate pentru a lua deciziile automatizate descrise mai sus, deoarece acestea oferă o modalitate mai precisă, echitabilă și eficientă de a identifica frauda suspectată, prevenind încălcările repetate ale Acordului cu furnizorul și limitând impactul negativ asupra serviciul nostru. Controalele umane pur și simplu nu ar fi posibile în intervalele de timp și având în vedere volumele de livrări cu care ne ocupăm.”

„Având în vedere volumul de livrări cu care ne confruntăm, folosim sisteme automatizate pentru a lua deciziile automatizate descrise mai sus, deoarece acestea oferă o modalitate mai precisă, echitabilă și eficientă de a identifica frauda suspectată, prevenind încălcările repetate ale Acordului cu furnizorul și limitând impactul negativ asupra serviciul nostru. Controalele umane pur și simplu nu ar fi posibile în intervalele de timp și având în vedere volumele de livrări cu care ne ocupăm.”

WIE-Report-Illustration-1_2x.png
WIE-Report-Illustration-3_2x.png

Supraveghere
 

Supraveghere intruzivă în scopul declarat de securitate și identificare. Aceasta include utilizarea tehnologiilor de detectare a fraudelor și de recunoaștere facială. Suntem conștienți că supravegherea este efectuată chiar și atunci când lucrătorul nu s-a autentificat pentru a se pune la dispoziție pentru muncă. Include, de asemenea, supravegherea utilizării aplicației de către lucrător în calitate de consumator.

Alocarea muncii
 

Până de curând, Uber a insistat că alocarea muncii este decisă în funcție de apropierea șoferilor și a pasagerilor unul față de celălalt, dar acum afirmă că comportamentul și preferințele din trecut sunt luate în considerare. Ola folosește profiluri de șoferi care includ „scoruri de probabilitate a fraudei” în luarea automată a deciziilor pentru muncă. alocare.

WIE-Report-Illustration-2_2x.png

Managementul performantei

Evaluarea performanței muncii include, dar nu se limitează la, monitorizarea comportamentului de conducere, inclusiv ETA, evaluările clienților, ratele de acceptare și finalizare a postului, interacțiunea cu personalul de asistență, disponibilitate.

WIE-Report-Illustration-4_2x.png

Prețuri
 

Strâns legată de alocarea muncii este stabilirea automată a prețurilor. Poate că cea mai cunoscută metodă este așa-numita „supraveghere” sau „preț dinamic” de la Uber, care urmărește să clarifice cererea pieței cu fluctuații de preț locale în timp real. 

Cursa înarmărilor de supraveghere
 

Asistăm la o cursă a înarmărilor de supraveghere în economia gig de când Uber a introdus așa-numitul sistem hibrid de identificare în timp real în 2020. Cu doar o zi înainte ca Transport for London (TfL) să-și anunțe decizia de a refuza reînnoirea licenței în noiembrie 2019, Uber s-a oferit să introducă acest sistem de supraveghere care încorporează recunoașterea facială cu monitorizare GPS.  
 

Acesta a fost răspuns la plângerea TfL conform căreia 21 de șoferi au fost detectați (din 90.000 analizați de-a lungul mai multor ani) ca fiind implicați în partajarea contului, ceea ce a permis șoferilor potențial fără licență și neasigurați să-și ofere ilegal serviciile pe aplicație. Activitatea a fost posibilă prin resetarea locației GPS a dispozitivului ca în afara Marii Britanii, unde este posibil ca șoferii să își încarce propriile fotografii. Acest decalaj a fost rapid eliminat de Uber, iar activitatea detectată a fost extrem de mică în comparație cu amploarea operațiunii Uber. Introducerea tehnologiei de recunoaștere facială de către industrie a fost complet disproporționată în raport cu riscul perceput. Cu toate acestea, cerința de identificare în timp real a devenit o condiție a reînnoirii licenței Uber la Tribunalul de Magistrați din Westminster în septembrie 2020.
 

În cazul Uber, atât conducerea platformei, cât și TfL nu au reușit să se asigure că au fost instituite garanții adecvate pentru a proteja drepturile și libertățile șoferilor, deși TfL a revizuit evaluarea impactului privind protecția datelor pentru tehnologie în martie 2020. Am făcut o libertatea de informare a solicitat TfL să aibă acces la DPIA Uber pentru sistemele de identificare în timp real, dar ni s-a refuzat. Potrivit rapoartelor TfL , 94% dintre șoferii de vehicule private de închiriat (PHV) provin din medii de culoare și minorități etnice, iar introducerea acestei tehnologii, care este bine recunoscută pentru ratele sale scăzute de precizie în cadrul acestor grupuri , sa dovedit dezastruoasă pentru lucrătorii vulnerabili deja în angajare precară.  
 

Bolt a anunțat de atunci că investește 150 de milioane de euro în sisteme de detectare antifraudă a driverelor AI, inclusiv recunoașterea facială. Deliveroo a anunțat că și ei vor introduce verificări de identitate prin recunoaștere facială. Ola Cabs a lansat, de asemenea, identificarea prin recunoaștere facială ca o caracteristică a sistemului său Guardian, încorporând învățarea automată despre care susțin că le permite „să învețe continuu și să evolueze din milioane de puncte de date în fiecare zi, pentru a îmbunătăți semnalizarea riscurilor și rezoluția instantanee”.  
 

FreeNow, un joint venture Daimler și BMW, supraveghează îndeaproape șoferii ca parte a programului lor de prevenire a fraudelor. Într-adevăr, documentele depuse de FreeNow la Înalta Curte în cadrul unei revizuiri judiciare a deciziei TfL de a le acorda un permis la Londra, aceștia au dezvăluit că TfL a făcut rapoarte lunare de concedieri ale șoferilor din diverse motive (inclusiv „activitate frauduloasă”) o condiție a acestora. reînnoirea recentă a licenței. Dar descrierea datelor prelucrate în scopul prevenirii fraudei ridică mai multe întrebări decât răspunde politica de confidențialitate a FreeNow.

În acest document, Free Now afirmă că folosesc un algoritm de „pădure aleatoare” pentru a produce un scor de fraudă pe care îl folosesc pentru a „ prioritiza călătoriile expediate în consecință. Acest lucru asigură o expediere corectă și cu riscuri minime .” Free Now a contestat utilizarea acestui sistem de detectare a fraudei atunci când ne-am întrebat despre acesta în iunie 2021, susținând că această secțiune a politicii de confidențialitate a fost depășită (vă rugăm să consultați studiul de caz al companiei în secțiunea II a raportului.) Cu toate acestea, descrierea acestui sistem a rămas în politică, în ciuda unei actualizări făcute în septembrie 2021.

 

Ceea ce este deosebit de îngrijorător cu privire la utilizarea acestor sisteme este că ele combină managementul fraudei cu managementul performanței. Faptul că astfel de indicatori de „fraudă” sunt utilizați ca variabile pentru alocarea muncii și că comportamentele care le generează pot continua pe platformă demonstrează că acestea nu sunt cazuri de fraudă criminală, ci mecanisme de control, care evaluează cât de bine se desfășoară lucrătorii. față de valorile opace stabilite de companii. Sugerăm că orice terminologie de „fraudă” utilizată în aceste contexte funcționează, de asemenea, ca parte a jocului de clasificare greșită, menită să ascundă relația de muncă. 

Surveillance Arms Race

Studiu de caz de supraveghere I: Eșecul recunoașterii faciale

 


În aprilie 2020, Uber a introdus un sistem de verificare a ID-ului în timp real (RTID) în Regatul Unit, care utilizează o combinație care include recunoașterea facială și verificarea locației pentru a autentifica identitatea șoferului și pentru a încerca să împiedice șoferii să partajeze accesul la contul lor pentru serviciu.  

 

Sistemul RTID încorporează utilizarea API-ului Microsoft FACE, software-ul de recunoaștere facială și solicită șoferilor și curierilor să facă în mod obișnuit selfie-uri în timp real pentru a continua să utilizeze aplicația Uber. Fotografia este apoi verificată cu fotografia de profil a contului șoferului (și, în unele jurisdicții, cu bazele de date publice pentru a „ preveni împrumutul identității sau pentru a verifica identitățile utilizatorilor ”).

Pa Edrissa Manjang lucra cu Uber de aproximativ un an când a fost dezactivat din cauza unei eșecuri de verificare a selfie-urilor. În timp ce șoferii și curierii Uber oferă în mod obișnuit selfie-uri, acestea nu sunt stocate pe telefoanele lucrătorilor și nu pot păstra dovezile trimiterilor lor. Tatăl nu a primit niciun avertisment sau a fost notificat cu privire la nicio problemă până la demitere; sistemul de verificare a ID-ului în timp real a părut să aprobe toate fotografiile sale cu o verificare verde.
 

 

După concedierea sa, Pa a trimis numeroase mesaje către Uber pentru a remedia problema, cerând în mod special unui om să-și revizuiască trimiterile. De fiecare dată când i s-a spus lui Pa „nu am putut să confirmăm că fotografiile furnizate erau de fapt cu tine și, din cauza nepotrivirilor continue, am luat decizia finală privind încheierea parteneriatului nostru cu tine”. Am obținut selfie-urile în cauză printr-o cerere de acces la subiect, care a dezvăluit că toate fotografiile pe care Pa le-a trimis sunt de fapt ale lui. Aceasta a fost prima instanță în care am reușit să obținem selfie-urile depuse de un curier sau șofer. Nu este clar de ce această solicitare a reușit atunci când multe înainte nu au reușit.

pa.jpg

De asemenea, am scris Microsoft la începutul anului pentru a ne exprima îngrijorările cu privire la utilizarea nereglementată de către Uber a API-ului FACE pe platforma sa. Ca răspuns , Microsoft a subliniat că toate părțile implicate în implementarea unor astfel de tehnologii au responsabilități care includ: „incorporarea unei analize umane semnificative pentru a detecta și rezolva cazurile de identificare greșită sau alte erori”  și  „să ofere sprijin persoanelor care cred că rezultatele lor au fost incorecte și să identifice și să abordeze fluctuațiile de acuratețe din cauza variației condițiilor.” Cazul lui Pa demonstrează clar că aceste verificări cruciale nu au fost implementate în procesarea imaginilor RTID.  

 

Pa aduce acum un dosar împotriva Uber pentru a contesta implementarea sa de recunoaștere facială discriminatorie din punct de vedere rasial, reprezentată de Bates Wells, cu sprijinul Comisiei pentru Egalitate și Drepturile Omului, Sindicatul șoferilor și curierii pentru aplicații și Bursa de informații pentru lucrători.

EMBED: Videoclipul tatălui

Surveillance Case Study I: Facial Recognition

Studiu de caz de supraveghere II: Verificări de geolocalizare  
 

În timp ce utilizarea sistemelor de recunoaștere facială defecte este, fără îndoială, problematică, am văzut, de asemenea, mulți șoferi concediați după acuzații false de la Uber că s-au implicat în partajarea frauduloasă a contului, după ce două dispozitive au fost detectate de Uber în două locații în același timp. În toate cazurile pe care le-am analizat, am constatat că problema este legată de faptul că șoferul a instalat aplicația pe două dispozitive pentru confort, dar cu doar unul dintre dispozitive autentificat pentru lucru.  
 

Chiar înainte de ora 20:00 pe 11 septembrie 2020, iar Aweso Mowlana lucra pentru Uber în sudul Londrei. Era un șofer cotat cu 4,95 stele, care a efectuat peste 11.500 de călătorii în peste 5 ani, lucrând pentru Uber. Aweso tocmai lăsase un pasager lângă Elephant and Castle când s-a deconectat pentru o scurtă pauză. La fel ca multe drivere, Aweso instalase aplicația pe un al doilea dispozitiv, care era un iPhone. În această seară, el părăsise iPhone-ul acasă și lucra cu celălalt telefon al său, un Samsung.
 

La 20:02, Aweso a încercat să se conecteze din nou la aplicația Uber pentru a se face disponibil pentru următoarea sa slujbă. Înainte de a i se permite să se conecteze din nou, i s-a cerut să ofere un selfie ca parte a Verificării identității în timp real (RTID) al Uber. Fotografia lui se potrivea cu fotografia de referință a Uber, așa că a finalizat cu succes procedura de conectare pentru a-și continua tura. Dar, fără să-i știe, sistemele Uber fie detectaseră și/sau trimiseseră ping al doilea telefon al său. Fiul său ridicase din greșeală al doilea telefon și îl luase cu el acasă la prietena lui din Uxbridge. Ulterior, Uber a spus că a solicitat o verificare RTID de pe acest dispozitiv la ora 20:03, dar până atunci Aweso era deja online în sudul Londrei. Uber susține că răspunsul la verificarea de identitate a fost trimis de pe iPhone în jurul orei 23:55 în acea seară.  
 

A doua zi, Uber l-a informat că contul său a fost „semnalizat pentru activitate suspectă de aplicație” și că acum contul său va fi suspendat în timp ce „o echipă specializată examinează acest lucru”. Un timp mai târziu, Uber l-a respins definitiv pe Aweso prin mesaj text, spunând că „au găsit dovezi care indică o activitate frauduloasă” în contul său. Uber a susținut apoi că a partajat accesul la contul său și că, făcând acest lucru, a încălcat termenii și condițiile. Luna următoare, Transport for London a revocat imediat licența lui Aweso, pe motiv că nu mai putea fi găsit „apt și adecvat” pentru a deține o licență publică, pe motivul demiterii sale de la Uber.  
 

Worker Info Exchange a asistat Aweso să facă o cerere de acces la subiect și să analizeze datele primite. Un fișier numit „D river Detailed Device Data ” înregistrează cel puțin o parte din fluxul de date de la dispozitive către Uber în timp real. Politica de confidențialitate a Uber indică faptul că acolo unde un dispozitiv are aplicația deschisă în fundal sau în prim-plan, chiar dacă nu este online și gata să accepte tarife. În mai mult de o duzină de cazuri în care am susținut contestația șoferilor la revocarea lor la Tribunalul de Magistrați, fiecare contestație a fost admisă și TfL a primit ordin să reintegreze permisele. Din acest fișier am putut vedea până la 230 de rânduri de date pe minut înregistrate de Uber de pe dispozitive. Sunt incluse datele colectate de Uber de pe dispozitivele Aweso  locația geografică, nivelul bateriei, viteza, titlul cursului, numărul IMEI etc.  

Datele au arătat că dispozitivul din Uxbridge nu a fost niciodată conectat pentru lucru în acea zi, deoarece un câmp intitulat „driver_online” arăta iPhone-ul ca „FALSE” în orice moment în acea zi, inclusiv ora în care a fost înregistrat la Uxbridge. Aceasta este dovada că dispozitivul nu a fost partajat pentru lucru cu alții, așa cum pretindeau Uber și Transport for London. Uber nu a reușit să ofere acces la datele personale procesate în ambele verificări RTID, inclusiv la fotografiile colectate. „Date detaliate despre dispozitiv” nu arată nicio înregistrare a vreunei activități suplimentare pentru iPhone după ora 20:03:43. Nu am văzut nicio dovadă de date privind activitatea dispozitivului la ora 23:55, când Uber a declarat că a primit un răspuns la verificarea de identificare emisă anterior.    

Experiența lui Pa și Aweso a fost foarte răspândită în cursul anului trecut și a constituit un volum semnificativ de lucru gestionat de Worker Info Exchange și App Drivers & Couriers Union. În Londra, Transport for London a avut tendința de a retrage imediat licențele șoferilor despre care se spune că nu au reușit verificările RTID ale Uber, în ciuda problemelor evidente cu sistemul. Există adesea explicații rezonabile pentru utilizarea mai multor dispozitive, care sunt clasificate automat drept fraude. Politica de confidențialitate a Uber indică faptul că acolo unde un dispozitiv are aplicația deschisă în fundal sau în prim-plan, chiar dacă nu este online și gata să accepte tarife. În mai mult de o duzină de cazuri în care am susținut contestația șoferilor la revocarea lor la Tribunalul de Magistrați, fiecare contestație a fost admisă și s-a dispus repunerea permiselor TfL.  

 

Worker Info Exchange, Big Brother Watch și App Drivers & Couriers Union au scris o scrisoare comună primarului Londrei pentru a ne exprima îngrijorările cu privire la încrederea Transport for London pe dovezi viciate de la Uber în luarea unei decizii de revocare și au cerut ca, în calitate de președinte al Transporturilor pentru consiliul de administrație al Londrei, să ordone o revizuire a tuturor acestor revocări greșite. Până în prezent, nici primarul, nici TfL nu au răspuns.

Surveillance Case Study II: Geolocation
Opaque Performance Management

Managementul performanței opace
 

Opacitatea companiilor cu platforme inhibă angajații să înțeleagă cum ar putea fi integrat controlul algoritmic pe parcursul proceselor critice și în timp. De exemplu, lucrătorilor nu li sa oferit transparența la care au dreptul legal pentru a înțelege modul în care profilarea performanței se leagă de calitatea și cantitatea muncii oferite, precum și de randamentele așteptate pentru o astfel de muncă. 

În cazul Ola, avem anumite cunoștințe despre categoriile de date pe care le colectează și le prelucrează în sistemele lor de alocare a muncii - cum ar fi scorurile probabilității de fraudă, profilul câștigurilor, istoricul de acceptare a rezervărilor și anulări, printre altele - cu toate acestea, acest lucru nu dezvăluie diferitele ponderi. aplicate acestor variabile, nici logica prelucrării.

Uber a susținut de mult timp că sistemul său de potrivire este determinat doar de locație, în ciuda interfeței sale „Partener-Driver” sugerând altfel. Programul Uber Pro (în care șoferii sunt înscriși automat pentru a putea fi stimulați să atingă obiectivele de performanță în schimbul beneficiilor și recompenselor) îi informează pe șoferi într-un limbaj vag că „ratele mai mari de confirmare înseamnă timpi de așteptare mai scurti pentru clienți și timpi mai scurti de preluare pentru toți. șoferi” făcând aluzie vag la faptul că scăderea locurilor de muncă va duce la mai puține oferte de locuri de muncă.
 

Uber a oferit doar recent mai multă transparență asupra sistemului de potrivire printr-o actualizare a politicii de confidențialitate care spune: „Utilizatorii pot fi potriviți în funcție de disponibilitate, proximitate și alți factori, cum ar fi probabilitatea de a accepta o călătorie pe baza comportamentului sau preferințelor lor din