Zawartość
Zawartość
Streszczenie
Część I: Błędna klasyfikacja 2.0: kontrolowana przez algorytm
Studium przypadku nadzoru I: Niepowodzenie w rozpoznawaniu twarzy
Nadzór Studium przypadku II: Kontrole geolokalizacji
Nieprzezroczyste zarządzanie wydajnością
Studium przypadku: Kontrola algorytmiczna
Rozbudowa infrastruktury organów ścigania
Studium przypadku: Udostępnianie danych wywiadowczych organom ścigania
Część II: Wykonywanie praw do danych w pracy: Dostęp
Studia przypadków: Indywidualne DSAR
Niespójne i przyrostowe udostępnianie danych
Studia przypadków: Odpowiedzi platformy na żądania grupowe od WIE
Część III: Wykonywanie praw do danych w pracy: postępowanie sądowe
Kierowcy Uber a Uber I (ogólne prośby o przejrzystość)
Ola drivers przeciwko Ola (ogólne wnioski o przejrzystość)
Kierowcy Uber a Uber II (przejrzystość w zakresie automatycznego podejmowania decyzji)
Odwołania dotyczące licencjonowania w Londynie
Wniosek: dalsza droga do korzystania z praw cyfrowych w pracy?
Streszczenie
Worker Info Exchange została utworzona w celu ułatwienia dostępu i kolektywizacji danych w celu budowania siły przetargowej poprzez ustanowienie zaufania do danych.
Było to odpowiedzią na rozwój nowych algorytmicznych praktyk zarządzania, tworzących głębokie asymetrie informacyjne i wykorzystywanie pracowników.
Worker Info Exchange ma na celu rozwiązanie problemu konwergencji danych i praw pracowniczych, powołując się na prawa art. 15, 20 i 22 RODO w kontekście zatrudnienia.
Cel ten jest poważnie utrudniony przez szeroko rozpowszechnioną niezgodność z RODO w branży koncertowej.
W ciągu ostatnich ośmiu miesięcy zrealizowaliśmy ponad 500 żądań dostępu osób, których dane dotyczą, do siedmiu różnych platform wspólnych przejazdów, w tym Amazon Flex, Bolt, Deliveroo, Free Now, Just Eat, Ola i Uber.
Dostęp do danych jest kwestionowany przez firmy, które wdrażają ciemne wzorce i celowo nadużywają niejednolitego wdrożenia RODO, co zmusza pracowników do rozwiązywania problemów w sądzie.
Gromadzenie danych przez platformy koncertowe jest nadmierne i prowadzi do nieproporcjonalnego i nieodpowiedzialnego nadzoru pracowników, a także do rozbudowy infrastruktury organów ścigania.
Nie ma przejrzystości w zakresie stosowanych algorytmicznych systemów zarządzania. Narracje firmowe o tym, jakie technologie są wykorzystywane i w jaki sposób, są niespójne i niewiarygodne.
© 2021 Wymiana informacji o pracownikach
© 2021 Wymiana informacji o pracownikach
Wstęp
Miniony rok był punktem zwrotnym dla pracowników platform koncertowych w realizacji ich praw pracowniczych i cyfrowych. Praktyka pracy za pośrednictwem mediów cyfrowych doprowadziła do konwergencji praw pracowniczych i praw do ochrony danych, a coraz większa aktywność sądowa i rzecznicza pracowników przynosi rezultaty w tych dziedzinach. W całej Europie sądy wydały kilka ważnych orzeczeń uznających eksploatacyjną rolę praktyk zarządzania algorytmicznego przez platformy koncertowe, potępiając jednocześnie brak uczciwości i przejrzystości w takich zautomatyzowanych systemach.
We Włoszech sąd boloński orzekł, że system oceny Deliveroo dyskryminował pracowników, podczas gdy organ ochrony danych Garante nałożył dwie grzywny RODO na Deliveroo i Glovo z powodu braku odpowiedniego ujawnienia działania ich algorytmów przydzielania zadań i zarządzania wydajnością.
Hiszpania uchwaliła pierwszą ustawę próbującą uregulować sztuczną inteligencję w obszarze zatrudnienia, ustanawiając zarówno status pracownika dla pracowników koncertowych, jak i prawo do otrzymywania informacji o zasadach i parametrach algorytmów, którym podlegają - wyzwalając lawinę skarg. Wynikało to z kolejnej sprawy sądowej przeciwko Glovo, która trafiła do hiszpańskiego Sądu Najwyższego.
Wraz z tymi głośnymi decyzjami, Sąd Najwyższy Wielkiej Brytanii stwierdził również w tym roku, że kierowcy Ubera byli stroną usługi transportowej, która jest „ bardzo ściśle określona i kontrolowana przez Ubera ”, co zdradza wyraźny stosunek pracy, który według firmy nie istniał w jego dążenie do (błędnej) klasyfikacji pracowników jako niezależnych wykonawców. Co istotne, dowody na tę zależność pochodzą z systemów opartych na danych, których używają platformy do wspólnych przejazdów do zarządzania swoimi pracownikami. Niektóre z kwestii wskazanych przez Sąd Najwyższy Wielkiej Brytanii dotyczyły zarządzania kierowcami poprzez algorytmiczne monitorowanie wskaźników przyjęcia pracy, wyboru trasy, stylu jazdy i ocen klientów. Jednak mimo większego uznania zarządzania algorytmicznego, ostatnie zdobycze sądów nie chronią w pełni pracowników przed jego szkodami. Status pracownika (b) nadany kierowcom Ubera w wyniku orzeczenia Sądu Najwyższego jest statusem pośrednika między wykonawcą a pracownikiem i nadal nie chroni ich np. przed niesłusznymi zwolnieniami.
Nasze doświadczenie sugeruje, że te algorytmiczne narzędzia zarządzania, z dodatkiem intensyfikujących praktyk nadzoru, stale kontrolujących pracowników pod kątem potencjalnych oszustw lub wykroczeń, skutkują głębokim wyzyskiem środowiska pracy. W całej branży koncertowej obserwujemy nadmierną liczbę automatycznych zwolnień, z których wiele uważamy za niezgodne z prawem zgodnie z art. 22 ogólnego rozporządzenia o ochronie danych (RODO) . Artykuł 22 zapewnia pracownikom pewną ograniczoną ochronę przed negatywnymi skutkami zautomatyzowanego podejmowania decyzji i profilowania poprzez prawo do uzyskania interwencji człowieka i zakwestionowania decyzji. Artykuł 15 RODO gwarantuje prawo do bycia poinformowanym o istnieniu takiego zautomatyzowanego podejmowania decyzji oraz do otrzymania istotnych informacji o logice przetwarzania.
Opierając się na tych prawach, utworzono Worker Info Exchange z misją wspierania pracowników koncertów w poruszaniu się po tym kompleksie i w regulowanej przestrzeni. Celem i zadaniem naszej pracy jest sprawdzenie, czy te instrumenty RODO mogą być wykorzystane do przeciwdziałania nieuczciwym praktykom zatrudniania i rozszerzenia zakresu danych udostępnianych osobom fizycznym jako pracownikom. Innymi słowy, naszą ambicją jest wykorzystanie dostępu do danych jako metody budowania siły zbiorowego pracownika do testowania mechanizmów dochodzenia roszczeń na cyfrowo zapośredniczonym rynku pracy.
Kiedy stosunek pracy między platformą koncertową a pracownikiem jest realizowany poprzez obszerne gromadzenie i analizę danych, prawa pracownicze stają się nierozerwalnie związane z wykonywaniem praw do danych. Platformy koncertowe zapewniają kontrolę nad pracownikami poprzez zachowanie asymetrii informacyjnej, a dostęp do danych może zapewnić sposób ujawnienia (nie)równowagi mocy generowanej przez lukę informacyjną między platformami koncertowymi a ich pracownikami. Uzyskanie dostępu do danych osobowych może umożliwić pracownikom dokonywanie niezależnych ocen ich warunków pracy i odpowiadanie na pytania dotyczące ich kalkulacji płac, jakości i ilości oferowanej pracy, a także kwestionowanie podstaw niekorzystnego zarządzania wynikami, w tym zawieszenia i zwolnienie.
Naszym celem w ułatwianiu dostępu do danych jest tworzenie zbiorowych magazynów danych w celu lepszego zrozumienia warunków pracy, a co za tym idzie siły przetargowej. W ostatnich latach pojawiło się wiele godnych uwagi inicjatyw, które mają podobne cele, ale wykorzystują różne metodologie wyszukiwania danych. Niektóre projekty w tej dziedzinie prowadzą własne gromadzenie i analizę danych dotyczących zarobków i wyników w celu oceny sprawiedliwych warunków pracy (np . i WeClock, między innymi.) Wszystkie one przedstawiają unikalny wgląd w ekonomię koncertów i powinny być traktowane jako stanowiące kontinuum praktyki danych. Podeszliśmy do tego problemu, żądając, aby platformy udostępniały dane, do których pracownicy są prawnie uprawnieni, jednak wprowadziło to dodatkowe przeszkody dla większego celu, jakim jest kolektywizacja danych. Wybraliśmy tę drogę, ponieważ chcieliśmy ustanowić standardy i precedensy w prawie o ochronie danych, ale także ponieważ uważamy, że istnieją pewne rodzaje informacji, które można uzyskać tylko poprzez żądanie danych bezpośrednio z platform.
Odkryliśmy, zwłaszcza w przypadku podsycanych zarzutów o nielegalną działalność i oszustwa nadzoru, że konieczne jest posiadanie danych przechowywanych przez firmy, aby zrozumieć i zakwestionować oskarżenia. Dostęp do danych może pomóc nam odkryć niespójności w narracjach prezentowanych przez firmy platformowe i pomóc przenieść ciężar dowodu z pracowników z powrotem na platformy. Z tej perspektywy dążenie do uzyskania danych z platformy okazało się niezwykle skuteczne w rozwiązywaniu wielu sporów pracowniczych. Prosta demonstracja odmowy udostępnienia danych osobowych przez platformy spowodowała cofnięcie kilku przypadków cofnięcia licencji (wymuszonych przez TfL) w sądzie, a tym samym stała się dodatkowym narzędziem w wykonywaniu praw pracowniczych.
Stanowi to drugą gałąź działalności dla Worker Info Exchange; ponieważ jesteśmy sfrustrowani naszymi próbami uzyskania jasności i przejrzystości złożonych systemów określających warunki pracy, często musimy uciekać się do sporów sądowych i zwracać się do sądów o decyzje w pojawiającym się obszarze cyfrowych praw pracowniczych. Sztuczny „kryzys danych”, który stworzyły platformy koncertowe, jest pod wieloma względami próbą wyczerpania i uszczuplenia zasobów niestałych pracowników i związków poprzez wciąganie sporów do sądów, gdzie mogą się one przedłużać, a odpowiedzialność za wykroczenia korporacyjne opóźniać.
Zgodnie z tymi nurtami działalności, niniejszy raport składa się z trzech części: Pierwsza część bada różne aspekty zarządzania algorytmicznego i jego szkód, wraz z powiązanymi studiami przypadków. Druga sekcja dotyczy naszego procesu wykorzystywania wniosków o dostęp do danych (DSAR), podczas gdy trzecia zawiera przegląd spraw związanych z RODO, które podjęliśmy w Amsterdamie, a także spraw licencyjnych, które obsługujemy w Londynie. Niniejszy raport zamyka okres prac nad tymi funkcjami naszej organizacji, realizowanych przy wsparciu Fundacji Mozilla, Digital Freedom Fund i Open Society Foundations. Mamy nadzieję, że ten raport wykaże obecny stan rzeczy w korzystaniu z praw na przecięciu danych i pracy oraz ujawni skumulowane skutki powtarzających się niezgodności ze strony platform koncertowych.
„Firmy platformowe działają w bezprawnej przestrzeni, w której wierzą, że mogą ustalać zasady. Niestety to nie jest gra; rzeczywistość wirtualna ma surowe konsekwencje dla pracowników koncertowych w prawdziwym życiu. Zachęcające jest to, że sami pracownicy nie czekają na przepisy, decydenci, a nawet sojusznicy w ruchu praw człowieka, aby ich ratować. Giganci organizują się i używają wspólnego głosu, aby domagać się nowych zabezpieczeń, które są odpowiednie do celów w gospodarce cyfrowej.
Bama Athreya, członek Fundacji Społeczeństwa Otwartego
Część I: Błędna klasyfikacja 2.0 Kontrolowane przez algorytm
W trwającej sześć lat batalii o prawa pracownicze w brytyjskiej gospodarce koncertowej Uber twierdził, że był jedynie agentem samozatrudnionego kierowcy, który nie robił nic poza biernym rezerwowaniem zleceń i pobieraniem płatności. Aby rozwinąć tę fikcję, platformy koncertowe zawarły skomplikowane umowy, które sprawiają, że wydaje się, że kierowca i pasażer prowadzą ze sobą bezpośrednią transakcję, podczas gdy w rzeczywistości wszystkie informacje dla pasażerów są ściśle chronione przez firmy. Na przykład Uber generuje fikcyjną fakturę w imieniu kierowcy na każdego przewożonego pasażera. Faktura będzie zawierać tylko imię pasażera i nigdy nie jest faktycznie wysyłana do klienta.
Te techniki błędnej klasyfikacji, powszechnie stosowane w całej gospodarce koncertowej, umożliwiają platformom unikanie obowiązków prawnych pracodawcy, takich jak ochrona podstawowych praw pracowniczych i składki na ubezpieczenie społeczne. W Wielkiej Brytanii umożliwiło to również firmom zajmującym się platformami uniknięcie podatku od wartości dodanej (VAT). Jednak na początku tego roku Sąd Najwyższy potwierdził prawo sądów niższej instancji do odrzucenia sztucznych umów i ustalenia prawdziwego charakteru stosunku pracy na podstawie dowodów na istnienie stosunku zarządczego polegającego na kontroli nad pracownikami.
Ponieważ firmy zajmujące się platformami dochodzą do wniosku, że stosowanie wprowadzających w błąd umów nie jest już opłacalne jako metoda błędnej klasyfikacji zatrudnienia, będą kuszone, aby podwoić automatyzację procesów w celu ukrycia kontroli zarządczej. Kontrola algorytmiczna staje się błędną klasyfikacją 2.0. Rzeczywiście, istnieje wiele dowodów na to, że to już się dzieje. Platformy koncertowe są bardziej niż kiedykolwiek zdeterminowane, aby realizować strategie błędnej klasyfikacji, aby mogły nadal kontrolować siłę roboczą, jednocześnie unikając ryzyka, że kierowcy mogą przejść ze statusu „pracownika” z ograniczonymi prawami do statusu pracownika ze znacznie większymi prawami.
Czym więc jest kontrola algorytmiczna i jakie są szczególne zagrożenia dla pracowników koncertowych? W szczególności w branżach wspólnych przejazdów i dostawczych, najważniejsze dla nas metody zarządzania algorytmicznego obejmują:
Nadzór. Nadzór inwazyjny w podanym celu zabezpieczenia i identyfikacji. Obejmuje to wykorzystanie technologii wykrywania oszustw i rozpoznawania twarzy. Zdajemy sobie sprawę, że nadzór jest prowadzony nawet wtedy, gdy pracownik nie zalogował się, aby stać się dostępnym do pracy. Obejmował również monitorowanie korzystania przez pracownika z aplikacji jako konsumenta.
Zarządzanie wydajnością. Obejmuje to między innymi monitorowanie stylu jazdy, w tym ETA, oceny klientów, wskaźniki akceptacji i ukończenia pracy, interakcję z personelem pomocniczym, dostępność.
Przydział pracy. Uber do niedawna nalegał, aby przydział pracy decydował o bliskości kierowców i pasażerów, ale teraz przyznaje, że uwzględniane są wcześniejsze zachowania i preferencje. Ola przyznaje, że profile kierowców, które obejmują „profil zarobków” i „prawdopodobieństwo oszustwa” są wykorzystywane w zautomatyzowanym podejmowaniu decyzji dotyczących alokacji pracy.
Cennik. Ściśle związane z alokacją pracy jest zautomatyzowane podejmowanie decyzji cenowych. Być może najbardziej znaną metodą jest tak zwana „wzrost” lub „dynamiczna wycena” firmy Uber, która ma na celu eliminację popytu rynkowego z lokalnymi wahaniami cen w czasie rzeczywistym.
Powyższe decyzje zarządcze są w większości zautomatyzowane lub półautomatyczne z ograniczoną interwencją człowieka. Modele biznesowe gospodarki koncertowej opierają się na masowej automatyzacji decyzji zarządczych i nadzorze w miejscu pracy. Podczas gdy niektórzy pracodawcy są powściągliwi w tej kwestii, Deliveroo dość otwarcie o tym mówi w swojej polityce prywatności dla kierowców :
„Biorąc pod uwagę ilość dostaw, którymi się zajmujemy, używamy zautomatyzowanych systemów do podejmowania zautomatyzowanych decyzji opisanych powyżej, ponieważ zapewniają one dokładniejszy, uczciwszy i skuteczniejszy sposób identyfikacji podejrzanych oszustw, zapobiegając powtarzającym się naruszeniom umowy z dostawcą i ograniczając negatywny wpływ na nasze usługi. Kontrole ludzi po prostu nie byłyby możliwe w ramach czasowych i biorąc pod uwagę ilość dostaw, którymi się zajmujemy”.
Zarządzanie wydajnością
Obejmuje to między innymi monitorowanie stylu jazdy, w tym ETA, oceny klientów, wskaźniki akceptacji i ukończenia pracy, interakcję z personelem pomocniczym, dostępność.
cennik
Ściśle związane z alokacją pracy jest zautomatyzowane podejmowanie decyzji cenowych. Być może najbardziej znaną metodą jest tak zwana „wzrost” lub „dynamiczna wycena” Ubera, która ma na celu wygładzenie popytu rynkowego z lokalnymi wahaniami cen w czasie rzeczywistym.
Nadzór
Nadzór inwazyjny w podanym celu bezpieczeństwa i identyfikacji. Obejmuje to wykorzystanie technologii wykrywania oszustw i rozpoznawania twarzy. Zdajemy sobie sprawę, że nadzór jest prowadzony nawet wtedy, gdy pracownik nie zalogował się, aby stać się dostępnym do pracy. Obejmował również monitorowanie korzystania przez pracownika z aplikacji jako konsumenta.
Przydział pracy
Uber do niedawna nalegał, aby przydział pracy był decydowany o bliskości kierowców i pasażerów, ale teraz przyznaje, że uwzględniane są wcześniejsze zachowania i preferencje. Ola przyznaje, że profile kierowców, które obejmują „profil zarobków” i „prawdopodobieństwo oszustwa” są wykorzystywane w zautomatyzowanym podejmowaniu decyzji dotyczących alokacji pracy.
Część I: Błędna klasyfikacja 2.0 Kontrolowane przez algorytm
W trwającej sześć lat batalii o prawa pracownicze w brytyjskiej gospodarce koncertowej Uber twierdził, że był jedynie agentem samozatrudnionego kierowcy, który nie robił nic poza biernym rezerwowaniem zleceń i pobieraniem płatności. Aby rozwinąć tę fikcję, platformy koncertowe zawarły skomplikowane umowy, które sprawiają, że wydaje się, że kierowca i pasażer prowadzą ze sobą bezpośrednią transakcję, podczas gdy w rzeczywistości wszystkie informacje dla pasażerów są ściśle chronione przez firmy. Na przykład Uber generuje fikcyjną fakturę w imieniu kierowcy na każdego przewożonego pasażera. Faktura będzie zawierać tylko imię pasażera i nigdy nie jest faktycznie wysyłana do klienta.
Te techniki błędnej klasyfikacji, powszechnie stosowane w całej gospodarce koncertowej, umożliwiają platformom unikanie obowiązków prawnych pracodawcy, takich jak ochrona podstawowych praw pracowniczych i składki na ubezpieczenie społeczne. W Wielkiej Brytanii umożliwiło to również firmom zajmującym się platformami uniknięcie podatku od wartości dodanej (VAT). Jednak na początku tego roku Sąd Najwyższy potwierdził prawo sądów niższej instancji do odrzucenia sztucznych umów i ustalenia prawdziwego charakteru stosunku pracy na podstawie dowodów na istnienie stosunku zarządczego polegającego na kontroli nad pracownikami.
Ponieważ firmy zajmujące się platformami dochodzą do wniosku, że stosowanie wprowadzających w błąd umów nie jest już opłacalne jako metoda błędnej klasyfikacji zatrudnienia, będą kuszone, aby podwoić automatyzację procesów w celu ukrycia kontroli zarządczej. Kontrola algorytmiczna staje się błędną klasyfikacją 2.0. Rzeczywiście, istnieje wiele dowodów na to, że to już się dzieje. Platformy koncertowe są bardziej niż kiedykolwiek zdeterminowane, aby realizować strategie błędnej klasyfikacji, aby mogły nadal kontrolować siłę roboczą, jednocześnie unikając ryzyka, że kierowcy mogą przejść ze statusu „pracownika” z ograniczonymi prawami do statusu pracownika ze znacznie większymi prawami.
Czym więc jest kontrola algorytmiczna i jakie są szczególne zagrożenia dla pracowników koncertowych? W szczególności w branżach wspólnych przejazdów i dostawczych, najważniejsze dla nas metody zarządzania algorytmicznego obejmują:
Nadzór. Nadzór inwazyjny w podanym celu zabezpieczenia i identyfikacji. Obejmuje to wykorzystanie technologii wykrywania oszustw i rozpoznawania twarzy. Zdajemy sobie sprawę, że nadzór jest prowadzony nawet wtedy, gdy pracownik nie zalogował się, aby stać się dostępnym do pracy. Obejmował również monitorowanie korzystania przez pracownika z aplikacji jako konsumenta.
Zarządzanie wydajnością. Obejmuje to między innymi monitorowanie stylu jazdy, w tym ETA, oceny klientów, wskaźniki akceptacji i ukończenia pracy, interakcję z personelem pomocniczym, dostępność.
Przydział pracy. Uber do niedawna nalegał, aby przydział pracy decydował o bliskości kierowców i pasażerów, ale teraz przyznaje, że uwzględniane są wcześniejsze zachowania i preferencje. Ola przyznaje, że profile kierowców, które obejmują „profil zarobków” i „prawdopodobieństwo oszustwa” są wykorzystywane w zautomatyzowanym podejmowaniu decyzji dotyczących alokacji pracy.
Cennik. Ściśle związane z alokacją pracy jest zautomatyzowane podejmowanie decyzji cenowych. Być może najbardziej znaną metodą jest tak zwana „wzrost” lub „dynamiczna wycena” firmy Uber, która ma na celu eliminację popytu rynkowego z lokalnymi wahaniami cen w czasie rzeczywistym.
Powyższe decyzje zarządcze są w większości zautomatyzowane lub półautomatyczne z ograniczoną interwencją człowieka. Modele biznesowe gospodarki koncertowej opierają się na masowej automatyzacji decyzji zarządczych i nadzorze w miejscu pracy. Podczas gdy niektórzy pracodawcy są powściągliwi w tej kwestii, Deliveroo dość otwarcie o tym mówi w swojej polityce prywatności dla kierowców :
„Biorąc pod uwagę ilość dostaw, którymi się zajmujemy, używamy zautomatyzowanych systemów do podejmowania zautomatyzowanych decyzji opisanych powyżej, ponieważ zapewniają one dokładniejszy, uczciwszy i skuteczniejszy sposób identyfikacji podejrzanych oszustw, zapobiegając powtarzającym się naruszeniom umowy z dostawcą i ograniczając negatywny wpływ na nasze usługi. Kontrole ludzi po prostu nie byłyby możliwe w ramach czasowych i biorąc pod uwagę ilość dostaw, którymi się zajmujemy”.
„Biorąc pod uwagę ilość dostaw, którymi się zajmujemy, używamy zautomatyzowanych systemów do podejmowania zautomatyzowanych decyzji opisanych powyżej, ponieważ zapewniają one dokładniejszy, uczciwszy i skuteczniejszy sposób identyfikacji podejrzeń o oszustwo, zapobiegając powtarzającym się naruszeniom umowy z dostawcą i ograniczając negatywny wpływ na nasze usługi. Kontrole ludzi po prostu nie byłyby możliwe w ramach czasowych i biorąc pod uwagę ilość dostaw, którymi się zajmujemy”.
Nadzór
Nadzór inwazyjny w podanym celu bezpieczeństwa i identyfikacji. Obejmuje to wykorzystanie technologii wykrywania oszustw i rozpoznawania twarzy. Zdajemy sobie sprawę, że nadzór jest prowadzony nawet wtedy, gdy pracownik nie zalogował się, aby stać się dostępnym do pracy. Obejmuje również monitorowanie korzystania z aplikacji przez pracownika jako konsumenta.
Przydział pracy
Uber do niedawna nalegał, aby przydział pracy był ustalany na podstawie bliskości kierowców i pasażerów, ale teraz twierdzi, że uwzględniane są wcześniejsze zachowania i preferencje. Ola wykorzystuje profile kierowców, które obejmują „oceny prawdopodobieństwa oszustwa” w automatycznym podejmowaniu decyzji dotyczących pracy przydział.
Zarządzanie wydajnością
Ocena wyników pracy obejmuje między innymi monitorowanie stylu jazdy, w tym ETA, oceny klientów, wskaźniki akceptacji i ukończenia pracy, interakcję z personelem pomocniczym, dostępność.
cennik
Ściśle związane z alokacją pracy jest automatyczne ustalanie ceny. Być może najbardziej znaną metodą jest tak zwana „wzrost” lub „dynamiczna wycena” Ubera, która ma na celu eliminację popytu rynkowego z lokalnymi wahaniami cen w czasie rzeczywistym.
Inwigilacyjny wyścig zbrojeń
Obserwujemy wyścig zbrojeń nadzoru w gospodarce koncertowej, odkąd Uber wprowadził w 2020 r. swój tak zwany hybrydowy system identyfikacji w czasie rzeczywistym. Zaledwie dzień przed ogłoszeniem przez Transport for London (TfL) decyzji o odmowie odnowienia licencji w listopadzie 2019 r. Uber zaproponował wprowadzenie tego systemu nadzoru, który obejmuje rozpoznawanie twarzy z monitorowaniem GPS.
Była to odpowiedź na skargę TfL, że wykryto 21 kierowców (spośród 90 000 analizowanych w ciągu kilku lat) jako zaangażowanych w udostępnianie kont, co pozwoliło potencjalnie nielicencjonowanym i nieubezpieczonym kierowcom na nielegalne oferowanie swoich usług w aplikacji. Czynność była możliwa dzięki zresetowaniu lokalizacji GPS urządzenia tak, jak poza granicami Wielkiej Brytanii, gdzie kierowcy mogą wgrywać własne zdjęcia. Lukę tę szybko wypełnił Uber, a wykryta aktywność była znikomo mała w porównaniu ze skalą działania Ubera. Wprowadzenie przez branżę technologii rozpoznawania twarzy było całkowicie nieproporcjonalne w stosunku do postrzeganego ryzyka. Niemniej jednak wymóg identyfikacji w czasie rzeczywistym stał się warunkiem odnowienia licencji Ubera w Westminster Magistrates Court we wrześniu 2020 r.
W przypadku Ubera zarówno kierownictwo platformy, jak i TfL nie zapewniły odpowiednich zabezpieczeń w celu ochrony praw i wolności kierowców, mimo że TfL dokonała przeglądu oceny wpływu tej technologii na ochronę danych w marcu 2020 roku. wolność żądania informacji do TfL w celu uzyskania dostępu do DPIA firmy Uber dla systemów identyfikacji w czasie rzeczywistym, ale odmówiono nam. Według raportów TfL , 94% kierowców prywatnych pojazdów do wynajęcia (PHV) pochodzi z mniejszości etnicznych i czarnoskórych, a wprowadzenie tej technologii, która jest dobrze znana ze względu na niskie wskaźniki dokładności w tych grupach , okazała się katastrofalna dla pracowników znajdujących się w trudnej sytuacji niepewne zatrudnienie.
Bolt od tego czasu ogłosił , że inwestuje 150 milionów euro w systemy wykrywania oszustw związanych ze sztuczną inteligencją, w tym rozpoznawanie twarzy. Deliveroo ogłosiło, że oni również wprowadzą kontrolę tożsamości z rozpoznawaniem twarzy. Ola Cabs wprowadziła również identyfikację rozpoznawania twarzy jako funkcję swojego systemu Guardian , obejmującą uczenie maszynowe, które, jak twierdzą, umożliwia im „ciągłe uczenie się i ewolucję z milionów punktów danych każdego dnia, w celu poprawy sygnalizacji ryzyka i natychmiastowej rozdzielczości”.
FreeNow, spółka joint venture Daimlera i BMW, również ściśle monitoruje kierowców w ramach ich programu zapobiegania oszustwom. Rzeczywiście, dokumenty złożone przez FreeNow do Sądu Najwyższego w ramach przeglądu sądowego decyzji TfL o przyznaniu im prawa jazdy w Londynie, ujawniły, że TfL sporządzała comiesięczne raporty o zwolnieniach kierowców z różnych powodów (w tym „nieuczciwej działalności”), jako warunek ich ostatnie odnowienie licencji. Jednak opis danych przetwarzanych w celu zapobiegania oszustwom rodzi więcej pytań, niż znajduje się w polityce prywatności FreeNow.
W tym dokumencie Free Now stwierdza, że używa algorytmu „losowego lasu”, aby uzyskać wynik oszustwa, którego używają do „odpowiedniego ustalenia priorytetów wysłanych podróży. Zapewnia to uczciwą wysyłkę i zminimalizowane ryzyko .” Free Now zakwestionowało korzystanie przez nich z tego systemu wykrywania oszustw, gdy zapytaliśmy o to w czerwcu 2021 r., twierdząc, że ta sekcja polityki prywatności jest nieaktualna (patrz studium przypadku firmy w sekcji II raportu). Jednak opis tego systemu pozostał w polisie, pomimo aktualizacji dokonanej we wrześniu 2021 r.
Szczególnie niepokojące w korzystaniu z tych systemów jest to, że łączą one zarządzanie oszustwami z zarządzaniem wydajnością. Fakt, że takie wskaźniki „oszustwa” są wykorzystywane jako zmienne do alokacji pracy i że zachowania, które je generują, mogą być kontynuowane na platformie, pokazuje, że nie są to przypadki oszustw kryminalnych, ale mechanizmy kontroli, które oceniają, jak dobrze radzą sobie pracownicy w stosunku do nieprzejrzystych wskaźników ustalonych przez firmy. Sugerujemy, aby każda terminologia „oszustwa” używana w tych kontekstach również funkcjonowała jako część gry w błędną klasyfikację, mającą na celu ukrycie stosunku pracy.
Studium przypadku nadzoru I: Niepowodzenie w rozpoznawaniu twarzy
W kwietniu 2020 r. Uber wprowadził w Wielkiej Brytanii system sprawdzania tożsamości w czasie rzeczywistym (RTID), który wykorzystuje kombinację, w tym rozpoznawanie twarzy i sprawdzanie lokalizacji, w celu uwierzytelnienia tożsamości kierowcy i uniemożliwienia kierowcy współdzielenia dostępu do swojego konta w celu pracy.
System RTID wykorzystuje Microsoft FACE API, oprogramowanie do rozpoznawania twarzy i wymaga od kierowców i kurierów rutynowego robienia sobie selfie w czasie rzeczywistym, aby móc dalej korzystać z aplikacji Uber. Zdjęcie jest następnie porównywane ze zdjęciem profilowym na koncie kierowcy (oraz w niektórych jurysdykcjach z publicznymi bazami danych, aby „ zapobiegać pożyczaniu tożsamości lub zweryfikować tożsamość użytkowników ”).
Pa Edrissa Manjang pracował z Uberem przez około rok, kiedy został dezaktywowany z powodu niepowodzenia weryfikacji selfie. Chociaż kierowcy i kurierzy Ubera rutynowo dostarczają selfie, nie są one przechowywane w telefonach pracowników i nie mogą oni zachować dowodów swoich oświadczeń. Tata nie otrzymał żadnych ostrzeżeń ani nie został powiadomiony o żadnych problemach, dopóki nie został zwolniony; system weryfikacji tożsamości w czasie rzeczywistym wydawał się zatwierdzać wszystkie jego zdjęcia za pomocą zielonego czeku.
Po zwolnieniu tata wysłał wiele wiadomości do Ubera, aby rozwiązać problem, w szczególności prosząc człowieka o sprawdzenie jego zgłoszeń. Za każdym razem, gdy tata słyszał, że „nie byliśmy w stanie potwierdzić, że dostarczone zdjęcia rzeczywiście przedstawiały Ciebie, a z powodu ciągłych niedopasowań podjęliśmy ostateczną decyzję o zakończeniu naszej współpracy z Tobą”. Otrzymaliśmy przedmiotowe selfie za pomocą prośby o dostęp do tematu, która ujawniła, że wszystkie zdjęcia przesłane przez Pa w rzeczywistości były jego. To był pierwszy przypadek, w którym udało nam się uzyskać selfie przesłane przez kuriera lub kierowcę. Nie jest jasne, dlaczego ta prośba się powiodła, skoro wielu przed nią zawiodło.
Na początku tego roku napisaliśmy również do firmy Microsoft, aby wyrazić nasze obawy dotyczące nieuregulowanego korzystania przez Ubera z interfejsu API FACE na jego platformie. W odpowiedzi Microsoft podkreślił, że wszystkie strony zaangażowane we wdrażanie takich technologii mają obowiązki, które obejmują: „wprowadzanie istotnej oceny ludzkiej w celu wykrywania i rozwiązywania przypadków błędnej identyfikacji lub innych awarii” oraz „aby zapewnić wsparcie osobom, które uważają, że ich wyniki były nieprawidłowe; oraz aby zidentyfikować i rozwiązać fluktuacje dokładności spowodowane zmiennością warunków”. Przypadek Pa wyraźnie pokazuje, że te kluczowe kontrole nie zostały zaimplementowane w przetwarzaniu obrazów RTID.
Pa wnosi teraz sprawę przeciwko Uberowi, aby zakwestionować jego dyskryminujące rasowo wdrożenie rozpoznawania twarzy, reprezentowane przez Bates Wells, przy wsparciu Komisji ds. Równości i Praw Człowieka, App Drivers and Couriers Union oraz Worker Info Exchange.
UMIEŚĆ: Wideo Pa
Nadzór Studium przypadku II: Kontrole geolokalizacji
Chociaż korzystanie z wadliwych systemów rozpoznawania twarzy jest niewątpliwie problematyczne, zauważyliśmy również, że wielu kierowców zostało zwolnionych po fałszywych oskarżeniach ze strony Ubera, że brali udział w nieuczciwym udostępnianiu kont po wykryciu przez Ubera dwóch urządzeń w dwóch lokalizacjach jednocześnie. We wszystkich przypadkach, które przeanalizowaliśmy, stwierdziliśmy, że problem dotyczy tego, że kierowca zainstalował aplikację na dwóch urządzeniach dla wygody, ale tylko na jednym z nich jest zalogowany do pracy.
Tuż przed 20:00 11 września 2020 r. Aweso Mowlana pracował dla Ubera w południowym Londynie. Był kierowcą z oceną 4,95 gwiazdki, który odbył ponad 11 500 przejazdów w ciągu 5 lat pracy dla Ubera. Aweso właśnie wysadził pasażera w pobliżu Elephant and Castle, kiedy wylogował się na krótką przerwę. Podobnie jak wielu kierowców, Aweso zainstalowało aplikację na drugim urządzeniu, którym był iPhone. Tego wieczoru zostawił iPhone'a w domu i pracował ze swoim drugim telefonem, Samsungiem.
O 20:02 Aweso próbował ponownie zalogować się do aplikacji Uber, aby być dostępnym do następnej pracy. Zanim pozwolono mu się ponownie zalogować, został poproszony o wykonanie selfie w ramach kontroli tożsamości w czasie rzeczywistym (RTID) Ubera. Jego zdjęcie pasowało do zdjęcia referencyjnego Ubera, więc pomyślnie zakończył procedurę wykupu, aby kontynuować swoją zmianę. Ale nie wiedział, że systemy Ubera wykryły i/lub pingowały jego drugi telefon. Jego syn przez pomyłkę odebrał drugi telefon i zabrał go ze sobą do domu swojej dziewczyny w Uxbridge. Uber później powiedział, że zażądali sprawdzenia RTID z tego urządzenia o 20:03, ale do tego czasu Aweso było już online w południowym Londynie. Uber twierdzi, że odpowiedź na sprawdzenie tożsamości została wysłana z iPhone'a około 23:55 tego wieczoru.
Następnego dnia Uber poinformował go, że jego konto zostało „oznaczone z powodu podejrzanej aktywności aplikacji” i że jego konto zostanie teraz zawieszone na czas „sprawdzania tego przez wyspecjalizowany zespół”. Jakiś czas później Uber na stałe zwolnił Aweso w wiadomości SMS, informując, że „znaleźli dowody wskazujące na nieuczciwą działalność” na jego koncie. Uber następnie zarzucił, że dzielił się dostępem do swojego konta i w ten sposób naruszył regulamin. W następnym miesiącu Transport for London natychmiast cofnął licencję Aweso na tej podstawie, że nie można już było uznać go za „odpowiedniego i właściwego” do posiadania licencji publicznej ze względu na jego zwolnienie z Ubera.
Worker Info Exchange pomogła Aweso w złożeniu wniosku o dostęp do tematu i analizie otrzymanych danych. Jeden plik o nazwie „ Szczegółowe dane urządzenia D river” rejestruje przynajmniej część danych przesyłanych strumieniowo z urządzeń do Ubera w czasie rzeczywistym. Polityka prywatności firmy Uber wskazuje, że gdy urządzenie ma otwartą aplikację w tle lub na pierwszym planie, nawet jeśli nie jest online i jest gotowa do przyjmowania opłat. W kilkunastu przypadkach, w których poparliśmy kierowanie odwołaniem się od unieważnienia prawa jazdy w sądzie pokoju, każde odwołanie zostało uwzględnione, a TfL nakazano przywrócić prawa jazdy. Z tego pliku mogliśmy zobaczyć aż 230 wierszy danych na minutę rejestrowanych przez Ubera z urządzeń. Uwzględniono dane zebrane przez Ubera z urządzeń Aweso geolokalizacja, poziom baterii, prędkość, kurs, numer IMEI itp.
Dane wykazały, że urządzenie w Uxbridge nigdy nie było zalogowane do pracy tego dnia, ponieważ pole zatytułowane „driver_online” wyświetlało iPhone'a jako „FALSE” przez cały czas tego dnia, łącznie z godziną nagrania w Uxbridge. Jest to dowód na to, że urządzenie nie było udostępniane do pracy z innymi, jak twierdzą Uber i Transport for London. Uber nie zapewnił dostępu do danych osobowych przetwarzanych w obu kontrolach RTID, w tym do zebranych zdjęć. „Szczegółowe dane urządzenia” nie pokazują żadnej dalszej aktywności iPhone'a po 20:03:43. Nie widzieliśmy żadnych danych świadczących o aktywności urządzenia o 23:55, kiedy Uber powiedział, że otrzymał odpowiedź na wcześniej wydaną kontrolę tożsamości.
Doświadczenie Pa i Aweso było bardzo rozpowszechnione w ciągu ostatniego roku i stanowiło znaczną część spraw prowadzonych przez Worker Info Exchange i App Drivers & Couriers Union. W Londynie Transport for London miał tendencję do natychmiastowego cofania praw jazdy kierowcom, którzy nie przeszli kontroli RTID Ubera, pomimo oczywistych problemów z systemem. Często istnieją rozsądne wyjaśnienia dotyczące używania wielu urządzeń, które są automatycznie klasyfikowane jako oszustwo. Polityka prywatności firmy Uber wskazuje, że gdy urządzenie ma otwartą aplikację w tle lub na pierwszym planie, nawet jeśli nie jest online i jest gotowa do przyjmowania opłat. W kilkunastu przypadkach, w których poparliśmy kierowanie odwołaniem się od unieważnienia prawa jazdy w sądzie pokoju, każde odwołanie zostało uwzględnione, a TfL nakazano przywrócić prawa jazdy.
Worker Info Exchange, Big Brother Watch i App Drivers & Couriers Union napisali wspólny list do burmistrza Londynu, aby wyrazić nasze obawy dotyczące tego, że Transport for London opiera się na wadliwych dowodach od Ubera przy podejmowaniu decyzji o cofnięciu i zażądali tego jako przewodniczący Transportu dla zarządu Londynu, aby zarządził przegląd wszystkich takich bezprawnych odwołań. Do tej pory ani burmistrz, ani TfL nie udzielili odpowiedzi.
Nieprzezroczyste zarządzanie wydajnością
Nieprzezroczystość firm zajmujących się platformami uniemożliwia pracownikom zrozumienie, w jaki sposób kontrola algorytmiczna może zostać zintegrowana w zakresie krytycznych procesów i w czasie. Na przykład pracownikom nie zapewniono przejrzystości, do której mają prawo, aby zrozumieć, w jaki sposób profilowanie wydajności wiąże się z jakością i ilością oferowanej pracy, a także z oczekiwanymi zyskami za taką pracę.
W przypadku Ola mamy pewną wiedzę na temat kategorii danych, które zbierają i przetwarzają w swoich systemach alokacji pracy - takich jak między innymi ocena prawdopodobieństwa oszustwa, profil zarobkowy, historia akceptacji i anulowania rezerwacji - jednak nie ujawnia to różnych wag zastosowane do tych zmiennych, ani logika przetwarzania.
Uber od dawna utrzymywał, że jego system dopasowywania zależy wyłącznie od lokalizacji, mimo że jego własny interfejs „Partner-Kierowca” sugeruje inaczej. Program Uber's Pro (do którego kierowcy są automatycznie zapisani, aby mogli być zachęcani do osiągania celów wydajnościowych w zamian za korzyści i nagrody) informuje kierowców w niejasnym języku, że „wyższy wskaźnik potwierdzeń oznacza krótszy czas oczekiwania dla klientów i krótszy czas odbioru dla wszystkich kierowców” luźno nawiązując do faktu, że spadająca liczba miejsc pracy będzie skutkować mniejszą liczbą ofert pracy.
Uber dopiero niedawno zaoferował większą przejrzystość systemu dopasowywania poprzez aktualizację ich polityki prywatności, która stwierdza: „Użytkownicy mogą być dopasowywani na podstawie dostępności, bliskości i innych czynników, takich jak prawdopodobieństwo zaakceptowania podróży w oparciu o ich wcześniejsze zachowanie lub preferencje” ale w chwili pisania tego tekstu łącze oferujące dalsze informacje na temat systemu dopasowywania jest uszkodzone, co świadczy o ewoluującym charakterze takiego przetwarzania danych. Niedawna prośba o wolność informacji, którą skierowaliśmy do TfL, pytając, jakie aktualizacje dostarczył Uber w swoim systemie dopasowywania (do czego jest zobowiązany przy wprowadzaniu zmian w swoim modelu operacyjnym), nie przyniosła żadnych wyników, co jeszcze bardziej uwydatniło zaciemnianie jego algorytmicznych praktyk zarządzania oraz brak nadzoru regulacyjnego.
Ostatnie rewelacje na temat zmiennych determinujących przydział pracy rodzą również ważne pytania o jakość pracy oferowanej kierowcom. Czy kierowcy o wysokim wskaźniku akceptacji pracy oferują podróże o dłuższym czasie trwania i czasie trwania, skutkujące wyższymi zarobkami, na podstawie podobnego profilowania? A może, idąc o krok dalej, czy kierowcy oferują różne stawki w dynamicznym systemie cenowym? Rzeczywiście, to, czy i jak algorytmiczne ustalanie cen łączy się z alokacją pracy, jest delikatną kwestią, o której wciąż niewiele wiadomo.
W ostatnich latach Uber zastąpił klientom zmienne ceny według czasu i odległości modelem stałych cen, w którym cena z góry jest akceptowana na początku podróży. Uber twierdzi, że „cena z góry jest dynamiczna, co oznacza, że cena jest ustalana w czasie rzeczywistym, aby pomóc zrównoważyć podaż i popyt”. Niedawno kierowcy zgłaszali, że oferowane są im bardzo niskie stawki za poszczególne prace. Istnieje oczywista okazja dla Ubera, aby zwiększyć swój udział w ostatecznej taryfie płaconej przez pasażerów. Pojawiły się obawy dotyczące dyskryminujących skutków stosowania tych dynamicznych systemów ustalania cen dla pasażerów, co stwarza perspektywę, że kierowcy mogą również podlegać spersonalizowanym cenom w czasie rzeczywistym. Istnieją poważne problemy e