top of page

Managed by Bot: Datengetriebene Nutzung in der Gig Economy

WIEReportCover.png

​ Zusammenfassung
 

  • Worker Info Exchange wurde eingerichtet, um den Zugang und die Kollektivierung von Daten zu erleichtern, um durch die Einrichtung eines Daten-Trusts Verhandlungsmacht aufzubauen.  

 

  • Dies war eine Reaktion auf die Entwicklung neuer algorithmischer Managementpraktiken, die tiefe Informationsasymmetrien und die Ausbeutung der Arbeitnehmer verursachten.
     

  • Worker Info Exchange zielt darauf ab, die Konvergenz von Daten- und Arbeitnehmerrechten durch Berufung auf die Rechte der Artikel 15, 20 und 22 der DSGVO im Beschäftigungskontext anzugehen.
     

  • Dieses Ziel wird durch die weit verbreitete Nichteinhaltung der DSGVO in der Gig-Branche stark behindert.
     

  • Wir haben in den letzten acht Monaten über 500 Zugriffsanfragen betroffener Personen an sieben verschiedene Mitfahrplattformen gestellt, darunter Amazon Flex, Bolt, Deliveroo, Free Now, Just Eat, Ola und Uber.
     

  • Der Datenzugriff wird von Unternehmen in Frage gestellt, die dunkle Muster einsetzen und die lückenhafte Umsetzung der DSGVO bewusst missbrauchen, was die Mitarbeiter dazu bringt, Probleme vor Gericht zu lösen.
     

  • Die Datensammlung durch Gig-Plattformen ist exzessiv und führt zu einer unverhältnismäßigen und nicht nachvollziehbaren Ãœberwachung der Arbeitnehmer sowie zu einer wachsenden Infrastruktur für die Strafverfolgung.
     

  • Es gibt keine Transparenz über die verwendeten algorithmischen Managementsysteme. Unternehmenserzählungen darüber, welche Technologien wie eingesetzt werden, sind inkonsistent und unzuverlässig.

Summary
Introduction

© 2021 Worker Info Exchange

© 2021 Worker Info Exchange

Einführung
 

Das vergangene Jahr hat für Gig-Plattform-Arbeiter einen Wendepunkt bei der Verwirklichung ihrer Arbeits- und digitalen Rechte markiert. Die Praxis der digital vermittelten Arbeit hat zu einer Konvergenz von Beschäftigungs- und Datenschutzrechten geführt, und die zunehmende Prozessführung und Interessenvertretung von Arbeitnehmern hat in diesen Bereichen zu Ergebnissen geführt. In ganz Europa haben Gerichte mehrere bedeutende Urteile gefällt, in denen sie die ausbeuterische Rolle algorithmischer Managementpraktiken durch Gig-Plattformen anerkennen und gleichzeitig den Mangel an Fairness und Transparenz in solchen automatisierten Systemen verurteilen.  

 

In Italien entschied das Gericht in Bologna, dass das Bewertungssystem von Deliveroo Arbeitnehmer diskriminiert hatte, während die Datenschutzbehörde Garante Deliveroo und Glovo zwei DSGVO-Bußgelder verhängte, weil sie die Funktionsweise ihrer Algorithmen für die Stellenzuweisung und das Leistungsmanagement nicht angemessen offenlegten.  

 

Spanien hat das erste Gesetz verabschiedet, das versucht, KI im Bereich der Beschäftigung zu regulieren, indem es sowohl den Arbeiterstatus für Gig-Worker als auch das Recht festlegt, über die Regeln und Parameter der Algorithmen informiert zu werden, denen sie unterliegen - was eine Flut von Beschwerden auslöst. Dies resultierte aus einem weiteren Gerichtsverfahren gegen Glovo, das vor dem spanischen Obersten Gerichtshof endete.  

 

Zusammen mit diesen hochkarätigen Entscheidungen kam der Oberste Gerichtshof des Vereinigten Königreichs in diesem Jahr auch zu dem Schluss, dass Uber-Fahrer an einem Transportdienst beteiligt waren, der „ sehr streng von Uber definiert und kontrolliert wird “, was ein klares Arbeitsverhältnis verriet, das nach Angaben des Unternehmens nicht existierte sein Bestreben, die Arbeitnehmer als unabhängige Auftragnehmer (falsch) einzustufen. Der Beweis für diese Beziehung stammt vor allem aus den datengesteuerten Systemen, die Fahrgemeinschaften verwenden, um ihre Mitarbeiter zu verwalten. Einige der vom Obersten Gerichtshof des Vereinigten Königreichs hervorgehobenen Probleme betrafen das Management von Fahrern durch die algorithmische Überwachung von Jobannahmequoten, Routenwahl, Fahrverhalten und Kundenbewertungen. Obwohl das algorithmische Management eine größere Anerkennung findet, schützen die jüngsten Fortschritte bei den Gerichten die Arbeitnehmer jedoch nicht vollständig vor seinen Schäden. Der den Uber-Fahrern aufgrund der Entscheidung des Obersten Gerichtshofs zuerkannte Arbeitnehmerstatus von Glied (b) ist ein Vermittlerstatus zwischen Auftragnehmer und Arbeitnehmer und schützt sie beispielsweise immer noch nicht vor ungerechtfertigten Entlassungen.

 

Unsere Erfahrung deutet darauf hin, dass diese algorithmischen Managementtools zusammen mit intensivierten Überwachungspraktiken, die die Mitarbeiter kontinuierlich auf potenzielle Betrugs- oder Fehlverhalten untersuchen, zu einer zutiefst ausbeuterischen Arbeitsumgebung führen. Wir sehen in der gesamten Gig-Branche eine übermäßige Anzahl von automatisierten Kündigungen, von denen wir viele als rechtswidrig gemäß Artikel 22 der Datenschutz-Grundverordnung (DSGVO) erachten . Artikel 22 bietet Arbeitnehmern einen begrenzten Schutz vor den nachteiligen Auswirkungen automatisierter Entscheidungsfindung und Profilerstellung durch das Recht, menschliches Eingreifen zu erwirken und die Entscheidung anzufechten. Art. 15 DSGVO garantiert das Recht, über das Bestehen einer solchen automatisierten Entscheidungsfindung informiert zu werden und aussagekräftige Informationen über die Logik der Verarbeitung zu erhalten.

 

Ausgehend von diesen Rechten wurde Worker Info Exchange mit dem Ziel gegründet, Gig-Mitarbeiter bei der Navigation durch diesen komplexen und regulierten Raum zu unterstützen. Ziel und Auftrag unserer Arbeit ist es, zu testen, ob diese DSGVO-Instrumente zur Bekämpfung unlauterer Beschäftigungspraktiken und zur Erweiterung des Umfangs der Daten, die Einzelpersonen in ihrer Eigenschaft als Arbeitnehmer zur Verfügung gestellt werden, eingesetzt werden können. Mit anderen Worten, unser Ziel ist es, den Datenzugriff als Methode zum Aufbau kollektiver Arbeitermacht zu nutzen, um Rechtsschutzmechanismen auf einem digital vermittelten Arbeitsmarkt zu testen.  

 

Wenn das Arbeitsverhältnis zwischen der Gig-Plattform und dem Arbeitnehmer durch umfangreiche Datenerhebung und -analyse durchgeführt wird, werden Arbeitsrechte untrennbar mit der Ausübung von Datenrechten verbunden. Gig-Plattformen behaupten die Kontrolle über die Mitarbeiter, indem sie eine Informationsasymmetrie aufrechterhalten, und der Datenzugriff kann ein Mittel sein, um das Macht(un)gleichgewicht aufzudecken, das durch die Informationslücke zwischen Gig-Plattformen und ihren Mitarbeitern entsteht. Der Zugang zu personenbezogenen Daten kann es Arbeitnehmern ermöglichen, ihre Arbeitsbedingungen unabhängig zu bewerten und Fragen zu ihrer Lohnberechnung, der Qualität und Quantität der angebotenen Arbeit zu beantworten sowie die Gründe für ein nachteiliges Leistungsmanagement, einschließlich Entlassungen, in Frage zu stellen und  Entlassung.
 

Unser Ziel bei der Erleichterung des Datenzugriffs ist es, kollektive Datenspeicher zu schaffen, um ein besseres Verständnis der Arbeitsbedingungen und damit der Verhandlungsmacht zu entwickeln. In den letzten Jahren sind eine Reihe bemerkenswerter Initiativen entstanden, die ähnliche Ziele verfolgen, jedoch unterschiedliche Methoden zum Abrufen von Daten verwenden. Einige Projekte in diesem Bereich führen eigene Datenerhebungen und Analysen zu Verdiensten und Leistungen durch, um die Fairness der Arbeitsbedingungen zu beurteilen (z. B. Driver's Seat Coop  und WeClock,  unter anderem.) Diese alle bieten einzigartige Einblicke in die Gig Economy und sollten als Kontinuum der Datenpraxis betrachtet werden. Wir haben dieses Problem angegangen, indem wir gefordert haben, dass Plattformen die Daten teilen, auf die Arbeitnehmer ein gesetzliches Recht haben. Dies hat jedoch zusätzliche Hindernisse für das übergeordnete Ziel der Datenkollektivierung geschaffen. Wir sind diesen Weg gegangen, weil wir Standards und Präzedenzfälle im Datenschutzrecht setzen wollten, aber auch, weil wir glauben, dass es bestimmte Arten von Informationen gibt, die nur durch direkte Anforderung der Daten bei den Plattformen erhalten werden können.

 

Wir haben festgestellt, dass es insbesondere im Fall von überwachungsbasierten Vorwürfen über unregelmässige Aktivitäten und Betrug erforderlich ist, die Daten der Unternehmen zu haben, um die Vorwürfe zu verstehen und zu widerlegen. Der Datenzugriff kann uns helfen, die Inkonsistenzen in den von Plattformunternehmen vorgebrachten Erzählungen aufzudecken und die Beweislast von den Arbeitern zurück auf die Plattformen zu verlagern. Aus dieser Perspektive hat sich das Bestreben, Plattformdaten zu fordern, bei der Lösung zahlreicher arbeitsrechtlicher Streitigkeiten als äußerst erfolgreich erwiesen. Die bloße Demonstration der Weigerung von Plattformen, personenbezogene Daten bereitzustellen, hat mehrere (von TfL durchgesetzte) Lizenzwiderrufe gerichtlich rückgängig gemacht und ist damit zu einem zusätzlichen Instrument bei der Ausübung von Arbeitsrechten geworden.

 

Dies ist der andere Tätigkeitsbereich von Worker Info Exchange; Da wir bei unseren Versuchen, Klarheit und Transparenz über die komplexen Systeme zur Bestimmung der Arbeitsplatzbedingungen zu erlangen, frustriert sind, müssen wir häufig auf Rechtsstreitigkeiten zurückgreifen und Gerichte anrufen, um Entscheidungen im aufstrebenden Bereich der digitalen Arbeitsrechte zu treffen. Die künstliche „Datenkrise“, die die Gig-Plattformen geschaffen haben, ist in vielerlei Hinsicht ein Versuch, die Ressourcen prekärer Arbeitnehmer und Gewerkschaften gleichermaßen zu erschöpfen und zu erschöpfen, indem Streitigkeiten vor Gericht gezogen werden, wo sie verlängert und die Verantwortlichkeit für unternehmerisches Fehlverhalten verzögert werden kann.  

 

Im Einklang mit diesen Handlungssträngen ist dieser Bericht in drei Teile gegliedert: Der erste Abschnitt untersucht verschiedene Facetten des algorithmischen Managements und seine Schäden mit zugehörigen Fallstudien. Der zweite Abschnitt befasst sich mit unserem Prozess bei der Nutzung von Data Subject Access Requests (DSARs), während der dritte einen Überblick über die DSGVO-bezogenen Fälle bietet, die wir in Amsterdam vorangetrieben haben, sowie über die Lizenzierungsfälle, die wir in London unterstützen. Dieser Bericht schließt eine Phase der Arbeit ab, die sich mit diesen Funktionen unserer Organisation befasst und mit Unterstützung der Mozilla Foundation, des Digital Freedom Fund und der Open Society Foundations durchgeführt wurde. Wir hoffen, dass dieser Bericht den aktuellen Stand bei der Ausübung von Rechten an der Schnittstelle von Daten und Arbeit aufzeigt und die kumulativen Auswirkungen wiederholter Nichteinhaltung von Gig-Plattformen aufzeigt.

„Plattformunternehmen agieren in einem gesetzlosen Raum, in dem sie glauben, dass sie die Regeln aufstellen können. Leider ist dies kein Spiel; virtuelle Realitäten haben harte Konsequenzen für Gig-Arbeiter im wirklichen Leben. Ermutigend ist, dass die Arbeitnehmer selbst nicht auf Gesetze warten, sondern politische Entscheidungsträger oder sogar Verbündete in der Menschenrechtsbewegung, um sie zu retten.

Bama Athreya, Fellow, Open Society Foundations

Part I Misclassification 2.0

Teil I: Fehlklassifizierung 2.0  Gesteuert durch Algorithmus
 

Im sechsjährigen Kampf um Arbeitnehmerrechte in der britischen Gig Economy argumentierte Uber, dass es sich lediglich um den Agenten des selbstständigen Fahrers handelt, der nichts weiter tut, als Arbeitsaufträge passiv zu buchen und Zahlungen einzuziehen. Um diese Fiktion voranzutreiben, bauen Gig-Plattformen aufwendige Verträge auf, die den Anschein erwecken, als würden Fahrer und Beifahrer direkt miteinander Geschäfte machen, während tatsächlich alle Fahrgastinformationen von Unternehmen streng abgeschirmt sind. Uber zum Beispiel erstellt im Namen des Fahrers für jeden Mitfahrer eine fiktive Rechnung. Die Rechnung enthält nur den Vornamen des Passagiers und wird nie an den Kunden gesendet.

 

Diese Fehlklassifizierungstechniken, die in der Gig Economy häufig verwendet werden, ermöglichen es Plattformen, rechtliche Verantwortlichkeiten des Arbeitgebers wie den grundlegenden Schutz der Arbeitnehmerrechte und Sozialversicherungsbeiträge zu vermeiden. In Großbritannien hat es Plattformunternehmen außerdem ermöglicht, die Mehrwertsteuer (MwSt.) zu vermeiden. Aber Anfang dieses Jahres bestätigte der Oberste Gerichtshof das Recht der unteren Gerichte, künstliche Verträge zu verwerfen und die wahre Natur des Arbeitsverhältnisses auf der Grundlage von Beweisen für ein Kontrollverhältnis der Arbeitnehmer durch die Unternehmensleitung zu bestimmen.

 

Da Plattformunternehmen zu dem Schluss kommen, dass die Verwendung irreführender Verträge als Methode zur Fehlklassifizierung von Beschäftigung nicht mehr praktikabel ist, werden sie versucht sein, die Prozessautomatisierung zu verdoppeln, um die Kontrolle durch das Management zu verschleiern. Die algorithmische Steuerung wird zur Fehlklassifizierung 2.0. Tatsächlich gibt es zahlreiche Beweise dafür, dass dies bereits geschieht. Gig-Plattformen sind entschlossener denn je, Fehlklassifizierungsstrategien zu verfolgen, um die Belegschaft weiterhin zu kontrollieren und gleichzeitig das Risiko zu vermeiden, dass Fahrer vom „Arbeiter“-Status mit eingeschränkten Rechten in den Arbeitnehmerstatus mit wesentlich mehr Rechten übergehen.  

​

Was ist also algorithmische Kontrolle und was sind die spezifischen Risiken für Gig-Worker? Insbesondere in der Mitfahr- und Lieferbranche sind folgende Mittel des algorithmischen Managements von größter Bedeutung für uns:
 

  • Ãœberwachung. Aufdringliche Ãœberwachung zum angegebenen Zweck der Sicherheit und Identifizierung. Dies umfasst den Einsatz von Betrugserkennungs- und Gesichtserkennungstechnologien. Uns ist bewusst, dass die Ãœberwachung auch dann durchgeführt wird, wenn sich der Arbeitnehmer nicht eingeloggt hat, um sich für die Arbeit zur Verfügung zu stellen. Dazu gehörte auch die Ãœberwachung der Nutzung der App durch den Arbeitnehmer als Verbraucher.
     

  • Leistungsmanagement. Dies beinhaltet, ist aber nicht beschränkt auf die Ãœberwachung des Fahrverhaltens, einschließlich ETA, Kundenbewertungen, Auftragsannahme- und Abschlussquoten, Interaktion mit Support-Mitarbeitern, Verfügbarkeit.
     

  • Arbeitsverteilung. Uber hat bis vor kurzem darauf bestanden, dass die Arbeitsverteilung von der Nähe von Fahrern und Fahrgästen abhängt, gibt jedoch jetzt zu, dass vergangenes Verhalten und Präferenzen berücksichtigt werden. Ola räumt ein, dass Fahrerprofile mit „Verdienstprofil“ und „Betrugswahrscheinlichkeit“ bewertet werden werden bei der automatisierten Entscheidungsfindung bei der Arbeitsverteilung verwendet.
     

  • Preisgestaltung. Eng verbunden mit der Arbeitsverteilung ist die automatisierte Entscheidungsfindung bei der Preisgestaltung. Die vielleicht bekannteste Methode ist Ubers sogenanntes "Surge" oder "Dynamic Pricing", das vorgibt, die Marktnachfrage mit lokalen Preisschwankungen in Echtzeit zu klären.  

 

Die oben genannten Managemententscheidungen sind meistens automatisiert oder halbautomatisch mit begrenzten menschlichen Eingriffen. Geschäftsmodelle der Gig Economy beruhen auf der Massenautomatisierung von Managemententscheidungen und Arbeitsplatzüberwachung. Während einige Arbeitgeber in diesem Punkt zurückhaltend sind, hat Deliveroo dies in ihrer Datenschutzrichtlinie für Fahrer ganz offen gesagt:  
 

„Angesichts des Umfangs der von uns bearbeiteten Lieferungen verwenden wir automatisierte Systeme, um die oben beschriebenen automatisierten Entscheidungen zu treffen, da sie eine genauere, fairere und effizientere Möglichkeit bieten, mutmaßlichen Betrug zu erkennen, wiederholte Verstöße gegen Ihre Lieferantenvereinbarung zu verhindern und die negativen Auswirkungen auf unser Service. Menschliche Kontrollen wären im Zeitrahmen und angesichts der Liefermengen, die wir bearbeiten, einfach nicht möglich.“

​

Asset 8_1.5x.png

Leistungsmanagement

​

Dies umfasst, ist aber nicht beschränkt auf die Überwachung des Fahrverhaltens, einschließlich ETA, Kundenbewertungen, Auftragsannahme- und Abschlussraten, Interaktion mit Support-Mitarbeitern, Verfügbarkeit.

Asset 7_1.5x.png

Preisgestaltung
 

Eng verbunden mit der Arbeitszuweisung ist die automatisierte Entscheidungsfindung bei der Preisgestaltung. Die vielleicht bekannteste Methode ist Ubers sogenannte „Surge“- oder „dynamische Preisgestaltung“, die vorgibt, die Marktnachfrage mit lokalen Preisschwankungen in Echtzeit zu klären. 

Ãœberwachung
 

Aufdringliche Überwachung für den angegebenen Zweck der Sicherheit und Identifizierung. Dies umfasst den Einsatz von Betrugserkennungs- und Gesichtserkennungstechnologien. Uns ist bewusst, dass die Überwachung auch dann durchgeführt wird, wenn sich der Arbeitnehmer nicht angemeldet hat, um sich für die Arbeit zur Verfügung zu stellen. Dazu gehörte auch die Überwachung der Nutzung der App durch den Arbeitnehmer als Verbraucher.

Arbeitsverteilung
 

Uber hat bis vor kurzem darauf bestanden, dass die Arbeitsverteilung von der Nähe von Fahrern und Fahrgästen abhängt, gibt aber jetzt zu, dass vergangenes Verhalten und Vorlieben berücksichtigt werden werden bei der automatisierten Entscheidungsfindung bei der Arbeitsverteilung verwendet.

Asset 4_1.5x.png
Asset 6_1.5x.png

Teil I: Fehlklassifizierung 2.0  Gesteuert durch Algorithmus
 

Im sechsjährigen Kampf um Arbeitnehmerrechte in der britischen Gig Economy argumentierte Uber, dass es sich lediglich um den Agenten des selbstständigen Fahrers handelt, der nichts weiter tut, als Arbeitsaufträge passiv zu buchen und Zahlungen einzuziehen. Um diese Fiktion voranzutreiben, bauen Gig-Plattformen aufwendige Verträge auf, die den Anschein erwecken, als würden Fahrer und Beifahrer direkt miteinander Geschäfte machen, während tatsächlich alle Fahrgastinformationen von Unternehmen streng abgeschirmt sind. Uber zum Beispiel erstellt im Namen des Fahrers für jeden Mitfahrer eine fiktive Rechnung. Die Rechnung enthält nur den Vornamen des Passagiers und wird nie an den Kunden gesendet.

 

Diese Fehlklassifizierungstechniken, die in der Gig Economy häufig verwendet werden, ermöglichen es Plattformen, rechtliche Verantwortlichkeiten des Arbeitgebers wie den grundlegenden Schutz der Arbeitnehmerrechte und Sozialversicherungsbeiträge zu vermeiden. In Großbritannien hat es Plattformunternehmen außerdem ermöglicht, die Mehrwertsteuer (MwSt.) zu vermeiden. Aber Anfang dieses Jahres bestätigte der Oberste Gerichtshof das Recht der unteren Gerichte, künstliche Verträge zu verwerfen und die wahre Natur des Arbeitsverhältnisses auf der Grundlage von Beweisen für ein Kontrollverhältnis der Arbeitnehmer durch die Unternehmensleitung zu bestimmen.

 

Da Plattformunternehmen zu dem Schluss kommen, dass die Verwendung irreführender Verträge als Methode zur Fehlklassifizierung von Beschäftigung nicht mehr praktikabel ist, werden sie versucht sein, die Prozessautomatisierung zu verdoppeln, um die Kontrolle durch das Management zu verschleiern. Die algorithmische Steuerung wird zur Fehlklassifizierung 2.0. Tatsächlich gibt es zahlreiche Beweise dafür, dass dies bereits geschieht. Gig-Plattformen sind entschlossener denn je, Fehlklassifizierungsstrategien zu verfolgen, um die Belegschaft weiterhin zu kontrollieren und gleichzeitig das Risiko zu vermeiden, dass Fahrer vom „Arbeiter“-Status mit eingeschränkten Rechten in den Arbeitnehmerstatus mit wesentlich mehr Rechten übergehen.  

​

Was ist also algorithmische Kontrolle und was sind die spezifischen Risiken für Gig-Worker? Insbesondere in der Mitfahr- und Lieferbranche sind folgende Mittel des algorithmischen Managements von größter Bedeutung für uns:
 

  • Ãœberwachung. Aufdringliche Ãœberwachung zum angegebenen Zweck der Sicherheit und Identifizierung. Dies umfasst den Einsatz von Betrugserkennungs- und Gesichtserkennungstechnologien. Uns ist bewusst, dass die Ãœberwachung auch dann durchgeführt wird, wenn sich der Arbeitnehmer nicht eingeloggt hat, um sich für die Arbeit zur Verfügung zu stellen. Dazu gehörte auch die Ãœberwachung der Nutzung der App durch den Arbeitnehmer als Verbraucher.
     

  • Leistungsmanagement. Dies beinhaltet, ist aber nicht beschränkt auf die Ãœberwachung des Fahrverhaltens, einschließlich ETA, Kundenbewertungen, Auftragsannahme- und Abschlussquoten, Interaktion mit Support-Mitarbeitern, Verfügbarkeit.
     

  • Arbeitsverteilung. Uber hat bis vor kurzem darauf bestanden, dass die Arbeitsverteilung von der Nähe von Fahrern und Fahrgästen abhängt, gibt jedoch jetzt zu, dass vergangenes Verhalten und Präferenzen berücksichtigt werden. Ola räumt ein, dass Fahrerprofile mit „Verdienstprofil“ und „Betrugswahrscheinlichkeit“ bewertet werden werden bei der automatisierten Entscheidungsfindung bei der Arbeitsverteilung verwendet.
     

  • Preisgestaltung. Eng verbunden mit der Arbeitsverteilung ist die automatisierte Entscheidungsfindung bei der Preisgestaltung. Die vielleicht bekannteste Methode ist Ubers sogenanntes "Surge" oder "Dynamic Pricing", das vorgibt, die Marktnachfrage mit lokalen Preisschwankungen in Echtzeit zu klären.  

 

Die oben genannten Managemententscheidungen sind meistens automatisiert oder halbautomatisch mit begrenzten menschlichen Eingriffen. Geschäftsmodelle der Gig Economy beruhen auf der Massenautomatisierung von Managemententscheidungen und Arbeitsplatzüberwachung. Während einige Arbeitgeber in diesem Punkt zurückhaltend sind, hat Deliveroo dies in ihrer Datenschutzrichtlinie für Fahrer ganz offen gesagt:  
 

„Angesichts des Umfangs der von uns bearbeiteten Lieferungen verwenden wir automatisierte Systeme, um die oben beschriebenen automatisierten Entscheidungen zu treffen, da sie eine genauere, fairere und effizientere Möglichkeit bieten, mutmaßlichen Betrug zu erkennen, wiederholte Verstöße gegen Ihre Lieferantenvereinbarung zu verhindern und die negativen Auswirkungen auf unser Service. Menschliche Kontrollen wären im Zeitrahmen und angesichts der Liefermengen, die wir bearbeiten, einfach nicht möglich.“

​

„Angesichts des Liefervolumens, mit dem wir zu tun haben, verwenden wir automatisierte Systeme, um die oben beschriebenen automatisierten Entscheidungen zu treffen, da sie eine genauere, fairere und effizientere Möglichkeit bieten, Betrugsverdacht zu identifizieren, wiederholte Verstöße gegen Ihre Lieferantenvereinbarung zu verhindern und die negativen Auswirkungen zu begrenzen unser Service. Menschliche Kontrollen wären in dem zeitlichen Rahmen und angesichts des Liefervolumens, mit dem wir es zu tun haben, einfach nicht möglich.“

WIE-Report-Illustration-1_2x.png
WIE-Report-Illustration-3_2x.png

Ãœberwachung
 

Aufdringliche Überwachung für den angegebenen Zweck der Sicherheit und Identifizierung. Dies umfasst den Einsatz von Betrugserkennungs- und Gesichtserkennungstechnologien. Uns ist bewusst, dass die Überwachung auch dann durchgeführt wird, wenn sich der Arbeitnehmer nicht angemeldet hat, um sich für die Arbeit zur Verfügung zu stellen. Dazu gehört auch die Überwachung der Nutzung der App durch den Arbeitnehmer als Verbraucher.

Arbeitsverteilung
 

Uber hat bis vor Kurzem darauf bestanden, dass die Arbeitszuweisung anhand der Nähe von Fahrern und Fahrgästen zueinander entschieden wird, gibt jedoch jetzt an, dass früheres Verhalten und Vorlieben berücksichtigt werden Zuweisung.

WIE-Report-Illustration-2_2x.png

Leistungsmanagement

​

Die Bewertung der Arbeitsleistung umfasst, ist aber nicht beschränkt auf die Überwachung des Fahrverhaltens, einschließlich ETA, Kundenbewertungen, Auftragsannahme- und Abschlussraten, Interaktion mit Support-Mitarbeitern, Verfügbarkeit.

WIE-Report-Illustration-4_2x.png

Preisgestaltung
 

Eng verbunden mit der Arbeitszuteilung ist die automatisierte Preisfindung. Die vielleicht bekannteste Methode ist Ubers sogenannte „Surge“- oder „dynamische Preisgestaltung“, die vorgibt, die Marktnachfrage mit lokalen Preisschwankungen in Echtzeit zu klären. 

Wettrüsten in der Überwachung
 

Seit Uber im Jahr 2020 sein sogenanntes Hybrid Real Time Identification System eingeführt hat, erleben wir ein Wettrüsten in der Gig Economy. Nur einen Tag bevor Transport for London (TfL) im November 2019 seine Entscheidung bekannt gab, die Verlängerung ihrer Lizenz abzulehnen Uber bot an, dieses Ãœberwachungssystem einzuführen, das Gesichtserkennung mit GPS-Ãœberwachung umfasst.  
 

Dies war eine Reaktion auf die Beschwerde von TfL, dass 21 Fahrer (von 90.000, die über mehrere Jahre hinweg analysiert wurden) als am Account-Sharing beteiligt entdeckt wurden, der es potenziell nicht lizenzierten und nicht versicherten Fahrern ermöglichte, ihre Dienste illegal über die App anzubieten. Die Aktivität wurde ermöglicht, indem der GPS-Standort des Geräts auf außerhalb Großbritanniens zurückgesetzt wurde, wo es den Fahrern möglich ist, ihre eigenen Fotos hochzuladen. Diese Lücke wurde von Uber schnell geschlossen und die erkannte Aktivität war im Vergleich zum Umfang des Uber-Betriebs verschwindend gering. Die Einführung der Gesichtserkennungstechnologie durch die Industrie war im Verhältnis zum wahrgenommenen Risiko völlig unverhältnismäßig. Dennoch wurde die Anforderung einer Echtzeit-Identifizierung im September 2020 zu einer Bedingung für die Lizenzverlängerung von Uber beim Westminster Magistrates Court.
 

Im Fall von Uber haben sowohl das Management der Plattform als auch TfL es versäumt sicherzustellen, dass angemessene Vorkehrungen zum Schutz der Rechte und Freiheiten der Fahrer getroffen wurden, obwohl TfL die Datenschutz-Folgenabschätzung für die Technologie im März 2020 überprüft hat Informationsfreiheitsanfrage an TfL, Zugang zu Ubers DPIA für die Echtzeit-ID-Systeme zu erhalten, aber uns wurde verweigert. Laut TfL-Berichten stammen 94 % der Fahrer von privaten Mietwagen (PHV) aus schwarzen und ethnischen Minderheiten, und die Einführung dieser Technologie, die für ihre geringen Genauigkeitsraten innerhalb dieser Gruppen bekannt ist , hat sich für schutzbedürftige Arbeitnehmer bereits in der Region als katastrophal erwiesen prekäre Beschäftigung.  
 

Bolt hat inzwischen angekündigt , 150 Millionen Euro in KI-Systeme zur Betrugsbekämpfung für Fahrer einschließlich Gesichtserkennung zu investieren. Deliveroo kündigte an , auch Identitätsprüfungen mit Gesichtserkennung einzuführen. Ola Cabs hat auch die Gesichtserkennungserkennung als Funktion seines Guardian-Systems eingeführt , die maschinelles Lernen integriert, von dem sie behaupten, dass es ihnen ermöglicht, „täglich aus Millionen von Datenpunkten zu lernen und sich weiterzuentwickeln, um die Risikosignalisierung und sofortige Lösung zu verbessern“.  
 

FreeNow, ein Joint Venture von Daimler und BMW, überwacht im Rahmen seines Betrugspräventionsprogramms auch die Fahrer genau. Tatsächlich haben von FreeNow beim High Court eingereichte Dokumente in einer gerichtlichen Überprüfung der Entscheidung von TfL, ihnen eine Lizenz in London zu erteilen, offenbart, dass TfL monatliche Berichte über Entlassungen von Fahrern aus verschiedenen Gründen (einschließlich „betrügerischer Aktivitäten“) zu einer Bedingung ihrer kürzliche Lizenzverlängerung. Doch die Beschreibung der zum Zwecke der Betrugsprävention verarbeiteten Daten wirft mehr Fragen auf, als die Datenschutzerklärung von FreeNow beantwortet.

In diesem Dokument erklärt Free Now, dass sie einen „Random Forest“-Algorithmus verwenden, um einen Betrugs-Score zu erstellen, mit dem sie „ die gesendeten Fahrten entsprechend priorisieren. Dies gewährleistet einen fairen und risikominimierten Versand .“ Free Now bestritt die Verwendung dieses Betrugserkennungssystems auf unsere Anfrage im Juni 2021 und behauptete, dass dieser Abschnitt der Datenschutzrichtlinie veraltet sei (siehe Fallstudie des Unternehmens in Abschnitt II des Berichts). Die Beschreibung dieses Systems ist trotz einer Aktualisierung im September 2021 in der Richtlinie geblieben.

 

Besonders besorgniserregend beim Einsatz dieser Systeme ist, dass sie Fraud Management mit Performance Management vermischen. Die Tatsache, dass solche „Betrugs“-Indikatoren als Variablen für die Arbeitsverteilung verwendet werden und die Verhaltensweisen, die sie erzeugen, auf der Plattform fortgesetzt werden dürfen, zeigt, dass es sich nicht um kriminelle Betrugsfälle, sondern um Kontrollmechanismen handelt, die die Leistungsfähigkeit der Arbeitnehmer bewerten gegen die undurchsichtigen Metriken der Unternehmen. Wir schlagen vor, dass jede in diesen Kontexten verwendete „Betrugs“-Terminologie auch als Teil des Spiels der Fehlklassifizierung dient, um das Arbeitsverhältnis zu verschleiern. 

Surveillance Arms Race

Ãœberwachungsfallstudie I: Fehler bei der Gesichtserkennung

 


Im April 2020 führte Uber in Großbritannien ein Echtzeit-ID- Prüfsystem (RTID) ein, das eine Kombination aus Gesichtserkennung und Standortprüfung verwendet, um die Identität eines Fahrers zu authentifizieren und zu verhindern, dass der Fahrer den Zugriff auf sein Konto für die Arbeit teilt.  

 

Das RTID-System verwendet die FACE-API von Microsoft, eine Gesichtserkennungssoftware und erfordert, dass Fahrer und Kuriere routinemäßig Selfies in Echtzeit von sich selbst aufnehmen, um die Uber-App weiterhin verwenden zu können. Das Foto wird dann mit dem Profilbild des Fahrerkontos verglichen (und in einigen Gerichtsbarkeiten mit öffentlichen Datenbanken, um „ das Entleihen von Identitäten zu verhindern oder die Identität der Benutzer zu überprüfen “).

Pa Edrissa Manjang arbeitete seit etwa einem Jahr mit Uber zusammen, als er aufgrund eines Fehlers bei der Selfie-Überprüfung deaktiviert wurde. Während Uber-Fahrer und Kuriere routinemäßig Selfies bereitstellen, werden diese nicht auf den Telefonen der Arbeiter gespeichert und sie können die Beweise ihrer Einreichungen nicht aufbewahren. Pa wurde bis zu seiner Entlassung weder verwarnt noch über Probleme informiert; das Echtzeit-ID-Verifizierungssystem schien alle seine Fotos mit einem grünen Häkchen zu bestätigen.
 

 

Nach seiner Entlassung schickte Pa zahlreiche Nachrichten an Uber, um das Problem zu beheben, und forderte insbesondere einen Menschen auf, seine Eingaben zu überprüfen. Jedes Mal, wenn Pa mitgeteilt wurde, „waren wir nicht in der Lage, zu bestätigen, dass die bereitgestellten Fotos tatsächlich von Ihnen stammen, und aufgrund anhaltender Unstimmigkeiten haben wir die endgültige Entscheidung getroffen, unsere Partnerschaft mit Ihnen zu beenden.“ Wir erhielten die fraglichen Selfies durch eine Anfrage zum Zugriff auf das Subjekt, die ergab, dass alle Fotos, die Pa eingereicht hatte, tatsächlich von ihm stammten. Dies war das erste Mal, dass es uns gelungen ist, die von einem Kurier oder Fahrer eingereichten Selfies zu erhalten. Es ist unklar, warum diese Anfrage erfolgreich war, wenn viele zuvor gescheitert sind.

pa.jpg

Wir haben Anfang des Jahres auch an Microsoft geschrieben, um unsere Bedenken hinsichtlich der unregulierten Nutzung der FACE-API durch Uber auf seiner Plattform zu äußern. Als Reaktion darauf betonte Microsoft, dass alle an der Bereitstellung solcher Technologien beteiligten Parteien Verantwortlichkeiten haben, die Folgendes umfassen: „Einbeziehen sinnvoller menschlicher Ãœberprüfungen, um Fälle von Fehlidentifikationen oder anderen Fehlern zu erkennen und zu beheben“.  und  "Um Menschen zu unterstützen, die glauben, dass ihre Ergebnisse falsch waren, und um Genauigkeitsschwankungen aufgrund von unterschiedlichen Bedingungen zu erkennen und zu beheben." Pas Fall zeigt deutlich, dass diese entscheidenden Ãœberprüfungen bei der Verarbeitung von RTID-Bildern nicht implementiert wurden.  

 

Pa reicht jetzt ein Verfahren gegen Uber ein, um die rassistisch diskriminierende Einführung der Gesichtserkennung anzufechten, vertreten durch Bates Wells, mit Unterstützung der Equality and Human Rights Commission, der App Drivers and Couriers Union und Worker Info Exchange.

​

EMBED: Papas Video

Surveillance Case Study I: Facial Recognition

Fallstudie Ãœberwachung II: Geolocation-Checks  
 

Während die Verwendung fehlerhafter Gesichtserkennungssysteme zweifellos problematisch ist, haben wir auch gesehen, dass viele Fahrer nach falschen Anschuldigungen von Uber entlassen wurden, dass sie an betrügerischer Kontofreigabe beteiligt waren, nachdem zwei Geräte von Uber gleichzeitig an zwei Standorten erkannt wurden. In allen von uns analysierten Fällen haben wir festgestellt, dass das Problem damit zusammenhängt, dass der Fahrer die App aus Bequemlichkeitsgründen auf zwei Geräten installiert hat, aber nur eines der Geräte für die Arbeit angemeldet war.  
 

Kurz vor 20 Uhr am 11. September 2020 arbeitete Aweso Mowlana für Uber in Südlondon. Er war ein mit 4,95 Sternen bewerteter Fahrer, der in über 5 Jahren bei Uber mehr als 11.500 Fahrten durchgeführt hatte. Aweso hatte gerade einen Passagier in der Nähe von Elephant and Castle abgesetzt, als er sich für eine kurze Pause abmeldete. Wie viele Fahrer hatte Aweso die App auf einem zweiten Gerät installiert, einem iPhone. An diesem Abend hatte er das iPhone zu Hause gelassen und arbeitete mit seinem anderen Telefon, einem Samsung.
 

Um 20:02 Uhr versuchte Aweso, sich wieder in die Uber-App einzuloggen, um sich für seinen nächsten Job zur Verfügung zu stellen. Bevor er sich wieder einloggen durfte, wurde er im Rahmen von Ubers Real Time Identity Check (RTID) aufgefordert, ein Selfie bereitzustellen. Sein Foto stimmte mit dem Referenzfoto von Uber überein, sodass er den Anmeldevorgang erfolgreich abgeschlossen hat, um seine Schicht fortzusetzen. Aber ihm unbekannt, hatten Uber-Systeme entweder sein zweites Telefon erkannt und/oder angepingt. Sein Sohn hatte versehentlich sein zweites Telefon abgenommen und es zu seiner Freundin in Uxbridge mitgenommen. Uber sagte später, sie hätten um 20:03 Uhr eine RTID-Prüfung von diesem Gerät angefordert, aber zu diesem Zeitpunkt war Aweso bereits in Süd-London online. Uber behauptet, dass die Antwort auf die ID-Prüfung am Abend gegen 23:55 Uhr vom iPhone gesendet wurde.  
 

Am nächsten Tag teilte Uber ihm mit, dass sein Konto „aufgrund verdächtiger Anwendungsaktivitäten gekennzeichnet“ worden sei und dass sein Konto nun gesperrt werde, während „ein spezialisiertes Team dies überprüft“. Einige Zeit später entließ Uber Aweso per SMS endgültig, dass sie auf seinem Konto „Beweise für betrügerische Aktivitäten gefunden“ hätten. Uber behauptete daraufhin, den Zugriff auf sein Konto geteilt zu haben und dabei gegen die Allgemeinen Geschäftsbedingungen verstoßen zu haben. Im nächsten Monat entzog Transport for London Aweso sofort die Lizenz mit der Begründung, dass er aufgrund seiner Entlassung bei Uber nicht mehr als „tauglich und angemessen“ für eine öffentliche Lizenz befunden werden konnte.  
 

Worker Info Exchange unterstützte Aweso dabei, einen Antrag auf Zugang zum Thema zu stellen und die erhaltenen Daten zu analysieren. Eine Datei namens „D River Detailed Device Data “ zeichnet zumindest einen Teil der Daten auf, die von Geräten zu Uber in Echtzeit gestreamt werden. Die eigene Datenschutzrichtlinie von Uber weist darauf hin, dass auf einem Gerät die App im Hintergrund oder Vordergrund geöffnet ist, auch wenn sie nicht online und bereit ist, Tarife zu akzeptieren. In mehr als einem Dutzend Fällen, in denen wir den Entzug der Führerscheine beim Magistrates Court unterstützt haben, wurde jeder Berufung stattgegeben und TfL wurde angewiesen, die Führerscheine wieder einzuführen. Aus dieser Datei konnten wir bis zu 230 Datenzeilen pro Minute sehen, die von Uber von Geräten aufgezeichnet wurden. Die Daten, die Uber von den Geräten von Aweso gesammelt hat, enthalten  Geo-Standort, Akkustand, Geschwindigkeit, Kursrichtung, IMEI-Nummer usw.  

​

Die Daten zeigten, dass das Gerät in Uxbridge an diesem Tag noch nie für die Arbeit angemeldet war, da ein Feld mit der Bezeichnung „driver_online“ das iPhone an diesem Tag zu allen Zeiten als „FALSE“ anzeigte, einschließlich der Zeit, zu der es in Uxbridge aufgezeichnet wurde. Dies ist ein Beweis dafür, dass das Gerät nicht für die Arbeit mit anderen geteilt wurde, wie von Uber und Transport for London behauptet. Uber gewährte keinen Zugriff auf personenbezogene Daten, die in beiden RTID-Prüfungen verarbeitet wurden, einschließlich der gesammelten Fotos. Die „Detaillierten Gerätedaten“ zeigen nach 20:03:43 Uhr keine weiteren Aktivitäten für das iPhone. Wir sahen um 23:55 Uhr keine Datennachweise für Geräteaktivitäten, als Uber sagte, dass es eine Antwort auf die zuvor ausgestellte ID-Ãœberprüfung erhalten habe.    

​

Die Erfahrung von Pa und Aweso war im vergangenen Jahr sehr verbreitet und machte einen erheblichen Teil der Fallarbeit aus, die von Worker Info Exchange und der App Drivers & Couriers Union bearbeitet wurde. In London tendierte Transport for London dazu, Fahrern, die angeblich die RTID-Prüfungen von Uber nicht bestanden haben, trotz der offensichtlichen Probleme mit dem System sofort die Lizenzen zu entziehen. Oftmals gibt es vernünftige Erklärungen für die mehrfache Gerätenutzung, die automatisch als Betrug eingestuft wird. Die eigene Datenschutzrichtlinie von Uber weist darauf hin, dass auf einem Gerät die App im Hintergrund oder Vordergrund geöffnet ist, auch wenn sie nicht online und bereit ist, Tarife zu akzeptieren. In mehr als einem Dutzend Fällen, in denen wir den Entzug der Führerscheine beim Magistrates Court unterstützt haben, wurde jeder Berufung stattgegeben und TfL wurde angewiesen, die Führerscheine wieder einzuführen.  

 

Worker Info Exchange, Big Brother Watch und die App Drivers & Couriers Union schrieben einen gemeinsamen Brief an den Bürgermeister von London, um unsere Bedenken hinsichtlich der Abhängigkeit von Transport for London auf fehlerhafte Beweise von Uber bei der Entscheidung über den Widerruf zu äußern, und forderten dies als Vorsitzende des Verkehrssektors für den Londoner Vorstand, dass er eine Überprüfung all dieser unrechtmäßigen Widerrufe anordnet. Bisher haben weder der Bürgermeister noch TfL reagiert.

Surveillance Case Study II: Geolocation
Opaque Performance Management

Undurchsichtiges Leistungsmanagement
 

Die Undurchsichtigkeit der Plattformunternehmen verhindert das Verständnis der Mitarbeiter dafür, wie algorithmische Steuerung über die Spanne kritischer Prozesse und im Laufe der Zeit integriert werden könnte. Zum Beispiel wurde Arbeitnehmern nicht die Transparenz geboten, auf die sie gesetzlich Anspruch haben, um zu verstehen, wie die Leistungsprofilierung mit der Qualität und Quantität der angebotenen Arbeit sowie den erwarteten Erträgen für diese Arbeit zusammenhängt. 

Im Fall von Ola haben wir einige Kenntnisse über die Datenkategorien, die sie in ihren Arbeitsvergabesystemen sammeln und verarbeiten – wie z auf diese Variablen angewendet werden, noch die Logik der Verarbeitung.

Uber behauptet seit langem, dass sein Matching-System ausschließlich durch den Standort bestimmt wird, obwohl die eigene „Partner-Driver“-Schnittstelle etwas anderes vermuten lässt. Das Pro-Programm von Uber (für das Fahrer automatisch angemeldet werden, damit sie im Gegenzug für Vorteile und Belohnungen Anreize erhalten, Leistungsziele zu erreichen) informiert die Fahrer in vagen Worten, dass "höhere Bestätigungsraten kürzere Wartezeiten für Kunden und kürzere Abholzeiten für alle bedeuten". Fahrer“ in Anspielung darauf, dass sinkende Stellenangebote zu weniger Stellenangeboten führen werden.
 

​