top of page

Gerenciado por bot: exploração baseada em dados na economia Gig

WIEReportCover.png

Resumo
 

  • Worker Info Exchange foi criado para facilitar o acesso e coletivização de dados para construir poder de barganha por meio do estabelecimento de um trust de dados.  

 

  • Isso foi em resposta ao desenvolvimento de novas práticas de gerenciamento algorítmico, criando profundas assimetrias informacionais e exploração do trabalhador.
     

  • O Worker Info Exchange visa abordar a convergência de dados e direitos trabalhistas invocando os direitos do Artigo 15, 20 e 22 do RGPD em contextos de emprego.
     

  • Essa meta é severamente prejudicada pela não conformidade generalizada com o GDPR em toda a indústria de shows.
     

  • Fizemos mais de 500 solicitações de acesso de titulares de dados nos últimos oito meses para sete plataformas de compartilhamento de transporte diferentes, incluindo Amazon Flex, Bolt, Deliveroo, Free Now, Just Eat, Ola e Uber.
     

  • O acesso aos dados é desafiado por empresas que implantam padrões obscuros e deliberadamente abusam da implementação irregular do GDPR, o que leva os trabalhadores a resolverem os problemas no tribunal.
     

  • A coleta de dados por plataformas de giga é excessiva e leva à vigilância desproporcional e inexplicável dos trabalhadores, bem como a uma infraestrutura de aplicação da lei em expansão.
     

  • Não há transparência sobre os sistemas de gerenciamento algorítmicos usados. As narrativas da empresa sobre quais tecnologias são usadas e como são inconsistentes e não confiáveis.

Summary
Introduction

© 2021 Troca de informações do trabalhador

© 2021 Troca de informações do trabalhador

Introdução
 

O ano passado marcou uma virada para os trabalhadores de plataformas de shows na realização de seus empregos e direitos digitais. A prática do trabalho mediado digitalmente levou a uma convergência dos direitos de proteção de dados e emprego, e a crescente atividade de litígio e advocacia por parte dos trabalhadores tem rendido resultados nesses domínios. Em toda a Europa, os tribunais aprovaram vários julgamentos significativos reconhecendo o papel explorador das práticas de gerenciamento algorítmico por plataformas de gig e, ao mesmo tempo, condenando a falta de justiça e transparência em tais sistemas automatizados.  

 

Na Itália, o tribunal de Bolonha decidiu que o sistema de classificação da Deliveroo havia discriminado os trabalhadores, enquanto a autoridade de proteção de dados, Garante, aplicou duas multas GDPR a Deliveroo e Glovo devido à falha em divulgar adequadamente o funcionamento de seus algoritmos de alocação de trabalho e gerenciamento de desempenho.  

 

A Espanha aprovou a primeira legislação para tentar regulamentar a IA na área de emprego, estabelecendo tanto a condição de trabalhador para os trabalhadores de gig quanto o direito de ser informado sobre as regras e parâmetros dos algoritmos a que estão sujeitos - desencadeando uma torrente de reclamações. Isso resultou de mais um processo judicial contra Glovo, que acabou na Suprema Corte espanhola.  

 

Junto com essas decisões de alto perfil, a Suprema Corte do Reino Unido também concluiu este ano que os motoristas do Uber faziam parte de um serviço de transporte " estritamente definido e controlado pelo Uber ", traindo uma relação de trabalho clara, que a empresa alegou não existir em seu esforço para (des) classificar os trabalhadores como contratantes independentes. Significativamente, a evidência dessa relação vem dos sistemas baseados em dados que as plataformas de compartilhamento de viagens usam para gerenciar suas forças de trabalho. Algumas das questões destacadas pela Suprema Corte do Reino Unido estavam relacionadas à gestão de motoristas por meio do monitoramento algorítmico das taxas de aceitação de empregos, escolhas de rotas, comportamento ao dirigir e classificações de clientes. No entanto, embora haja um maior reconhecimento da gestão algorítmica, os ganhos recentes nos tribunais não protegem totalmente os trabalhadores contra seus danos. O status de trabalhador limb (b) concedido aos motoristas do Uber como resultado da decisão da Suprema Corte é um status intermediário entre o contratante e o empregado , e ainda não consegue protegê-los de demissões injustas, por exemplo.

 

Nossa experiência sugere que essas ferramentas de gerenciamento algorítmico, com a adição de práticas de vigilância intensivas, examinando continuamente os trabalhadores em busca de fraudes ou irregularidades em potencial, estão resultando em um ambiente de trabalho profundamente explorador. Estamos vendo um número excessivo de demissões automatizadas em toda a indústria de shows, muitas das quais acreditamos ser ilegais de acordo com o Artigo 22 do Regulamento Geral de Proteção de Dados (GDPR) . O Artigo 22 fornece aos trabalhadores algumas proteções limitadas contra os efeitos adversos da tomada de decisão automatizada e definição de perfis, por meio do direito de obter intervenção humana e contestar a decisão. O artigo 15 do RGPD garante o direito de ser informado sobre a existência de tal tomada de decisão automatizada e de receber informações significativas sobre a lógica de processamento.

 

Tendo esses direitos como base, o Worker Info Exchange foi criado com a missão de apoiar os trabalhadores de gig na navegação neste complexo e sob o espaço regulamentado. O objetivo e a missão de nosso trabalho é testar se esses instrumentos do GDPR podem ser utilizados para lidar com práticas de emprego injustas e expandir o escopo dos dados disponibilizados a indivíduos na qualidade de trabalhadores. Em outras palavras, nossa ambição é usar o acesso aos dados como um método de construção do poder coletivo do trabalhador para testar os mecanismos de reparação em um mercado de trabalho mediado digitalmente.  

 

Quando a relação de emprego entre a plataforma de trabalho e o trabalhador é executada por meio de extensa coleta e análise de dados, os direitos trabalhistas tornam-se inextricavelmente ligados ao exercício dos direitos de dados. As plataformas de giga asseguram o controle sobre os trabalhadores, mantendo uma assimetria informacional, e o acesso aos dados pode fornecer um meio de expor o (i) equilíbrio de poder gerado pela lacuna de informações entre as plataformas de giga e seus funcionários. O acesso aos dados pessoais pode permitir que os trabalhadores façam avaliações independentes sobre suas condições de trabalho e respondam a perguntas sobre seus cálculos de pagamento, a qualidade e a quantidade do trabalho oferecido, bem como desafiar os motivos para uma gestão de desempenho adversa, incluindo suspensão e  demissão.
 

Nosso objetivo ao facilitar o acesso aos dados é criar armazenamentos coletivos de dados para desenvolver uma maior compreensão das condições de trabalho e, consequentemente, do poder de barganha. Nos últimos anos, várias iniciativas dignas de nota surgiram operando com objetivos semelhantes, mas usando metodologias diferentes para a recuperação de dados. Alguns projetos neste campo executam sua própria coleta de dados e análises sobre ganhos e desempenho para avaliar a justiça das condições de trabalho (por exemplo, Driver's Seat Coop  e WeClock,  entre outros.) Todos estes apresentam percepções exclusivas sobre a economia de gig e devem ser considerados como constituindo um continuum de prática de dados. Abordamos esse problema exigindo que as plataformas compartilhem os dados aos quais os trabalhadores têm direito legal, no entanto, isso introduziu obstáculos adicionais ao objetivo maior de coletivizar os dados. Seguimos este caminho porque pretendíamos estabelecer padrões e precedentes na legislação de proteção de dados, mas também porque acreditamos que existem certos tipos de informação que só podem ser obtidos solicitando os dados diretamente nas plataformas.

 

Verificamos, em particular no caso da vigilância alimentada por alegações de atividade irregular e fraude, que é necessário ter os dados em poder das empresas para compreender e contestar as denúncias. O acesso aos dados pode nos ajudar a descobrir as inconsistências nas narrativas apresentadas pelas empresas de plataforma e ajudar a transferir o ônus da prova dos trabalhadores de volta para as plataformas. Dessa perspectiva, o esforço de exigir dados de plataforma tem se mostrado extremamente bem-sucedido na resolução de inúmeras disputas trabalhistas. A simples demonstração da recusa das plataformas em fornecer dados pessoais reverteu várias revogações de licenças (aplicadas pela TfL) em tribunal e, assim, tornou-se uma ferramenta adicional no exercício dos direitos laborais.

 

Este constitui o outro ramo de atividade do Worker Info Exchange; como estamos frustrados em nossas tentativas de obter clareza e transparência sobre os sistemas complexos que determinam as condições do local de trabalho, frequentemente precisamos recorrer a litígios e recorrer aos tribunais para decisões no campo emergente dos direitos trabalhistas digitais. A artificial 'crise de dados' que as plataformas de show criaram é, de muitas maneiras, uma tentativa de exaurir e esgotar os recursos de trabalhadores precários e sindicatos, levando as disputas aos tribunais, onde podem ser prolongadas e a responsabilidade por má conduta corporativa, adiada.  

 

Em linha com essas vertentes de atividade, este relatório é escrito em três partes: A primeira seção explora diferentes facetas do gerenciamento algorítmico e seus danos, com estudos de caso associados. A segunda seção trata de nosso processo de utilização de Solicitações de Acesso de Titulares de Dados (DSARs), enquanto a terceira oferece uma visão geral dos casos relacionados ao GDPR que levamos adiante em Amsterdã, bem como os casos de licenciamento que apoiamos em Londres. Este relatório conclui um período de trabalho que aborda essas funções de nossa organização, realizado com o apoio da Mozilla Foundation, Digital Freedom Fund e Open Society Foundations. Esperamos que este relatório demonstre a situação atual no exercício dos direitos na interseção de dados e mão de obra e revele os efeitos cumulativos do não cumprimento repetido por plataformas de show.

"As empresas de plataforma estão operando em um espaço sem lei, onde acreditam que podem fazer as regras. Infelizmente, isso não é um jogo; as realidades virtuais têm consequências duras para os trabalhadores temporários na vida real. O que é encorajador é que os próprios trabalhadores não estão esperando por leis, legisladores ou mesmo aliados do movimento de direitos humanos para resgatá-los. Os trabalhadores temporários estão se organizando e usando sua voz coletiva para exigir novas proteções que sejam adequadas ao propósito de uma economia digitalizada."

Bama Athreya, Fellow, Open Society Foundations

Part I Misclassification 2.0

Parte I: Classificação errada 2.0  Controlado por Algoritmo
 

Na batalha de seis anos pelos direitos dos trabalhadores na economia do Reino Unido, o Uber argumentou que era apenas o agente do motorista autônomo que não fazia nada mais do que registrar passivamente as ordens de serviço e receber o pagamento. Para avançar nessa ficção, as plataformas de show estabelecem contratos elaborados que fazem parecer que o motorista e o passageiro estão negociando diretamente um com o outro, quando na verdade todas as informações dos passageiros são protegidas de perto pelas empresas. O Uber, por exemplo, gera uma fatura fictícia em nome do motorista para cada passageiro que transporta. A fatura mencionará apenas o primeiro nome do passageiro e nunca será enviada ao cliente.

 

Essas técnicas de classificação incorreta, comumente usadas na economia de gig, permitem que as plataformas evitem as responsabilidades legais do empregador, como proteções básicas dos direitos do trabalhador e contribuições para o seguro nacional. No Reino Unido, também permitiu que as empresas de plataforma evitassem o imposto sobre vendas de valor agregado (IVA). Mas no início deste ano, o Supremo Tribunal Federal afirmou o direito dos tribunais inferiores de descartar contratos artificiais e determinar a verdadeira natureza da relação de trabalho com base na evidência de uma relação de controle de gestão sobre os trabalhadores.

 

À medida que as empresas de plataforma concluem que o uso de contratos enganosos não é mais viável como método de classificação incorreta de empregos, elas serão tentadas a dobrar a automação de processos para ocultar o controle de gestão. O controle algorítmico torna-se uma classificação incorreta 2.0. Na verdade, há ampla evidência de que isso já está acontecendo. As plataformas Gig estão mais determinadas do que nunca a buscar estratégias de classificação incorreta para que possam continuar a controlar a força de trabalho, evitando o risco de que os motoristas passem do status de 'trabalhador' com direitos limitados ao status de funcionário com substancialmente mais direitos.  

Então, o que é controle algorítmico e quais são os riscos específicos para os trabalhadores do show? Nos setores de compartilhamento de carona e entrega, especificamente, os meios de gerenciamento algorítmico de maior preocupação para nós incluem o seguinte:
 

  • Vigilância. Vigilância intrusiva para o propósito declarado de segurança e identificação. Isso inclui o uso de tecnologias de detecção de fraude e reconhecimento facial. Estamos cientes de que a vigilância é realizada mesmo quando o trabalhador não está logado para se colocar à disposição para trabalhar. Também incluiu o monitoramento do uso do aplicativo pelo trabalhador como consumidor.
     

  • Gestão de desempenho. Isso inclui, mas não se limita ao monitoramento do comportamento ao dirigir, incluindo ETA, avaliações do cliente, taxas de aceitação e conclusão do trabalho, interação com a equipe de suporte, disponibilidade.
     

  • Alocação de trabalho. O Uber tem insistido até recentemente que a alocação de trabalho é decidida na proximidade de motoristas e passageiros entre si, entretanto agora admite que o comportamento e as preferências anteriores são levados em consideração. Ola admite que os perfis do motorista incluem 'perfil de ganho' e pontuação de 'probabilidade de fraude' são usados na tomada de decisão automatizada de alocação de trabalho.
     

  • Preços. Intimamente relacionado à alocação de trabalho está a tomada de decisão automatizada de preços. Talvez o método mais conhecido seja o chamado 'aumento' ou 'preço dinâmico' do Uber, que pretende limpar a demanda do mercado com flutuações de preços locais em tempo real.  

 

As decisões de gerenciamento acima são em sua maioria automatizadas ou semiautomáticas com intervenção humana limitada. Os modelos de negócios da economia gigante dependem da automação em massa das decisões de gerenciamento e da supervisão do local de trabalho. Embora alguns empregadores sejam reticentes neste ponto, a Deliveroo foi bastante franca sobre isso em sua política de privacidade do passageiro:  
 

“Dado o volume de entregas com que lidamos, usamos sistemas automatizados para tomar as decisões automatizadas descritas acima, pois fornecem uma maneira mais precisa, justa e eficiente de identificar suspeitas de fraude, evitando violações repetidas de seu Contrato de Fornecedor e limitando o impacto negativo sobre nosso serviço. Os controles humanos simplesmente não seriam possíveis nos prazos e dados os volumes de entregas com que lidamos. ”

Asset 8_1.5x.png

Gestão de Desempenho

Isso inclui, mas não se limita ao monitoramento do comportamento de direção, incluindo ETA, classificações de clientes, taxas de aceitação e conclusão de trabalhos, interação com a equipe de suporte, disponibilidade.

Asset 7_1.5x.png

Preços
 

Intimamente relacionado à alocação de trabalho está a tomada de decisão automatizada de preços. Talvez o método mais conhecido seja o chamado 'surge' ou 'preço dinâmico' da Uber, que pretende limpar a demanda do mercado com flutuações de preços locais em tempo real. 

Vigilância
 

Vigilância intrusiva com o propósito declarado de segurança e identificação. Isso abrange o uso de tecnologias de detecção de fraude e reconhecimento facial. Estamos cientes de que a vigilância é realizada mesmo quando o trabalhador não está logado para se colocar à disposição para o trabalho. Também incluiu a vigilância do uso do aplicativo pelo trabalhador como consumidor.

Alocação de trabalho
 

Até muito recentemente, a Uber insistiu que a alocação de trabalho é decidida na proximidade de motoristas e passageiros, mas agora admite que o comportamento e as preferências anteriores são levados em consideração. são usados na tomada de decisão automatizada de alocação de trabalho.

Asset 4_1.5x.png
Asset 6_1.5x.png

Parte I: Classificação errada 2.0  Controlado por Algoritmo
 

Na batalha de seis anos pelos direitos dos trabalhadores na economia do Reino Unido, o Uber argumentou que era apenas o agente do motorista autônomo que não fazia nada mais do que registrar passivamente as ordens de serviço e receber o pagamento. Para avançar nessa ficção, as plataformas de show estabelecem contratos elaborados que fazem parecer que o motorista e o passageiro estão negociando diretamente um com o outro, quando na verdade todas as informações dos passageiros são protegidas de perto pelas empresas. O Uber, por exemplo, gera uma fatura fictícia em nome do motorista para cada passageiro que transporta. A fatura mencionará apenas o primeiro nome do passageiro e nunca será enviada ao cliente.

 

Essas técnicas de classificação incorreta, comumente usadas na economia de gig, permitem que as plataformas evitem as responsabilidades legais do empregador, como proteções básicas dos direitos do trabalhador e contribuições para o seguro nacional. No Reino Unido, também permitiu que as empresas de plataforma evitassem o imposto sobre vendas de valor agregado (IVA). Mas no início deste ano, o Supremo Tribunal Federal afirmou o direito dos tribunais inferiores de descartar contratos artificiais e determinar a verdadeira natureza da relação de trabalho com base na evidência de uma relação de controle de gestão sobre os trabalhadores.

 

À medida que as empresas de plataforma concluem que o uso de contratos enganosos não é mais viável como método de classificação incorreta de empregos, elas serão tentadas a dobrar a automação de processos para ocultar o controle de gestão. O controle algorítmico torna-se uma classificação incorreta 2.0. Na verdade, há ampla evidência de que isso já está acontecendo. As plataformas Gig estão mais determinadas do que nunca a buscar estratégias de classificação incorreta para que possam continuar a controlar a força de trabalho, evitando o risco de que os motoristas passem do status de 'trabalhador' com direitos limitados ao status de funcionário com substancialmente mais direitos.  

Então, o que é controle algorítmico e quais são os riscos específicos para os trabalhadores do show? Nos setores de compartilhamento de carona e entrega, especificamente, os meios de gerenciamento algorítmico de maior preocupação para nós incluem o seguinte:
 

  • Vigilância. Vigilância intrusiva para o propósito declarado de segurança e identificação. Isso inclui o uso de tecnologias de detecção de fraude e reconhecimento facial. Estamos cientes de que a vigilância é realizada mesmo quando o trabalhador não está logado para se colocar à disposição para trabalhar. Também incluiu o monitoramento do uso do aplicativo pelo trabalhador como consumidor.
     

  • Gestão de desempenho. Isso inclui, mas não se limita ao monitoramento do comportamento ao dirigir, incluindo ETA, avaliações do cliente, taxas de aceitação e conclusão do trabalho, interação com a equipe de suporte, disponibilidade.
     

  • Alocação de trabalho. O Uber tem insistido até recentemente que a alocação de trabalho é decidida na proximidade de motoristas e passageiros entre si, entretanto agora admite que o comportamento e as preferências anteriores são levados em consideração. Ola admite que os perfis do motorista incluem 'perfil de ganho' e pontuação de 'probabilidade de fraude' são usados na tomada de decisão automatizada de alocação de trabalho.
     

  • Preços. Intimamente relacionado à alocação de trabalho está a tomada de decisão automatizada de preços. Talvez o método mais conhecido seja o chamado 'aumento' ou 'preço dinâmico' do Uber, que pretende limpar a demanda do mercado com flutuações de preços locais em tempo real.  

 

As decisões de gerenciamento acima são em sua maioria automatizadas ou semiautomáticas com intervenção humana limitada. Os modelos de negócios da economia gigante dependem da automação em massa das decisões de gerenciamento e da supervisão do local de trabalho. Embora alguns empregadores sejam reticentes neste ponto, a Deliveroo foi bastante franca sobre isso em sua política de privacidade do passageiro:  
 

“Dado o volume de entregas com que lidamos, usamos sistemas automatizados para tomar as decisões automatizadas descritas acima, pois fornecem uma maneira mais precisa, justa e eficiente de identificar suspeitas de fraude, evitando violações repetidas de seu Contrato de Fornecedor e limitando o impacto negativo sobre nosso serviço. Os controles humanos simplesmente não seriam possíveis nos prazos e dados os volumes de entregas com que lidamos. ”

“Dado o volume de entregas com as quais lidamos, usamos sistemas automatizados para tomar as decisões automatizadas descritas acima, pois fornecem uma maneira mais precisa, justa e eficiente de identificar suspeitas de fraude, evitando violações repetidas do seu Contrato de Fornecedor e limitando o impacto negativo sobre nosso serviço. As verificações humanas simplesmente não seriam possíveis nos prazos e nos volumes de entregas com os quais lidamos.”

WIE-Report-Illustration-1_2x.png
WIE-Report-Illustration-3_2x.png

Vigilância
 

Vigilância intrusiva com o propósito declarado de segurança e identificação. Isso abrange o uso de tecnologias de detecção de fraude e reconhecimento facial. Estamos cientes de que a vigilância é realizada mesmo quando o trabalhador não está logado para se colocar à disposição para o trabalho. Também inclui a vigilância do uso do aplicativo pelo trabalhador como consumidor.

Alocação de trabalho
 

Até muito recentemente, Uber insistiu que a alocação de trabalho é decidida na proximidade de motoristas e passageiros, mas agora afirma que o comportamento e as preferências anteriores são levados em consideração. alocação.

WIE-Report-Illustration-2_2x.png

Gestão de Desempenho

A avaliação do desempenho no trabalho inclui, mas não se limita ao monitoramento do comportamento de direção, incluindo ETA, classificações do cliente, taxas de aceitação e conclusão do trabalho, interação com a equipe de suporte, disponibilidade.

WIE-Report-Illustration-4_2x.png

Preços
 

Intimamente relacionado à alocação de trabalho está a definição automatizada de preços. Talvez o método mais conhecido seja o chamado 'aumento' ou 'preço dinâmico' do Uber, que pretende limpar a demanda do mercado com flutuações de preços locais em tempo real. 

Corrida de armas de vigilância
 

Temos visto uma corrida armamentista de vigilância na economia de gig desde que o Uber introduziu seu chamado Sistema de Identificação em Tempo Real Híbrido em 2020. Apenas um dia antes do Transport for London (TfL) anunciar sua decisão de recusar a renovação de sua licença em novembro de 2019, O Uber se ofereceu para apresentar este sistema de vigilância que incorpora reconhecimento facial com monitoramento por GPS.  
 

Isso foi em resposta à reclamação do TfL de que 21 motoristas foram detectados (de 90.000 analisados ao longo de vários anos) como envolvidos no compartilhamento de contas, o que permitiu que motoristas potencialmente sem licença e sem seguro oferecessem ilegalmente seus serviços no aplicativo. A atividade foi possível redefinindo a localização GPS do dispositivo como fora do Reino Unido, onde os motoristas podem enviar suas próprias fotos. Essa lacuna foi rapidamente fechada pelo Uber e a atividade detectada foi incrivelmente pequena em comparação com a escala de operação do Uber. A introdução da tecnologia de reconhecimento facial pela indústria foi totalmente desproporcional em relação ao risco percebido. No entanto, a exigência de identificação em tempo real passou a ser uma condição para a renovação da licença do Uber no Tribunal de Magistrados de Westminster em setembro de 2020.
 

No caso do Uber, tanto a gestão da plataforma quanto o TfL não conseguiram garantir que as salvaguardas adequadas fossem implementadas para proteger os direitos e liberdades dos motoristas, apesar de o TfL ter revisado a avaliação do impacto da proteção de dados para a tecnologia em março de 2020. Fizemos um solicitação de liberdade de informação ao TfL para ter acesso ao DPIA da Uber para os sistemas de identificação em tempo real, mas foi-nos negada. De acordo com relatórios da TfL , 94% dos motoristas de veículos de aluguel privado (PHV) são de origens negras e de minorias étnicas e a introdução desta tecnologia, que é bem reconhecida por suas baixas taxas de precisão dentro desses grupos , provou ser desastrosa para trabalhadores vulneráveis já em emprego precário.  
 

A Bolt anunciou que estava investindo 150 milhões de euros em sistemas de detecção antifraude para drivers de IA, incluindo reconhecimento facial. A Deliveroo anunciou que eles também introduziriam verificações de identidade de reconhecimento facial. A Ola Cabs também lançou a identificação de reconhecimento facial como um recurso de seu sistema Guardian , incorporando o aprendizado de máquina que, segundo eles, permite "aprender e evoluir continuamente a partir de milhões de pontos de dados todos os dias, para melhorar a sinalização de risco e a resolução instantânea".  
 

A FreeNow, uma joint venture da Daimler e da BMW, também acompanha de perto os motoristas como parte de seu programa de prevenção de fraude. Na verdade, os documentos apresentados pela FreeNow com o Tribunal Superior em uma Revisão Judicial da decisão da TfL de conceder-lhes uma licença em Londres, revelaram que a TfL fez relatórios mensais de demissões de motoristas por várias razões (incluindo 'atividade fraudulenta') uma condição de sua renovação recente da licença. Mas a descrição dos dados processados com o propósito de prevenção de fraude levanta mais questões do que as respondidas pela política de privacidade do FreeNow.

Neste documento, o Free Now afirma que eles usam um algoritmo de 'floresta aleatória' para produzir uma pontuação de fraude que eles usam para “ priorizar as viagens despachadas de acordo. Isso garante um despacho justo e com minimização de riscos . ” A Free Now contestou o uso desse sistema de detecção de fraude quando questionamos sobre isso em junho de 2021, alegando que esta seção da política de privacidade estava desatualizada (consulte o estudo de caso da empresa na seção II do relatório.) No entanto, a descrição deste sistema permaneceu na política, apesar de uma atualização feita em setembro de 2021.

 

O que é particularmente preocupante sobre o uso desses sistemas é que eles combinam gerenciamento de fraude com gerenciamento de desempenho. O fato de tais indicadores de 'fraude' serem utilizados como variáveis de alocação de trabalho e os comportamentos que os geram continuarem na plataforma demonstra que não se trata de fraudes criminais, mas de mecanismos de controle que avaliam o desempenho dos trabalhadores contra as métricas opacas definidas pelas empresas. Sugerimos que qualquer terminologia de 'fraude' usada nesses contextos também funcione como parte do jogo de classificação incorreta, projetado para ocultar a relação de trabalho. 

Surveillance Arms Race

Estudo de caso de vigilância I: falha de reconhecimento facial

 


Em abril de 2020, o Uber introduziu um sistema de verificação de ID em tempo real (RTID) no Reino Unido que usa uma combinação que inclui reconhecimento facial e verificação de localização para autenticar a identidade de um motorista e para tentar evitar que o motorista compartilhe o acesso à sua conta para o trabalho.  

 

O sistema RTID incorpora o uso da API FACE da Microsoft, software de reconhecimento facial e exige que os motoristas e mensageiros tirem selfies em tempo real de si mesmos para continuar usando o aplicativo Uber. A foto é então verificada com a foto do perfil da conta do motorista (e em algumas jurisdições, com bancos de dados públicos para “ evitar o empréstimo de identidade ou para verificar a identidade dos usuários ”).

Pa Edrissa Manjang trabalhava com o Uber há cerca de um ano quando foi desativado devido a uma falha na verificação de selfies. Embora os motoristas e mensageiros do Uber forneçam selfies rotineiramente, elas não são armazenadas nos telefones dos funcionários e eles não podem reter as evidências de suas apresentações. Pa não recebeu nenhum aviso ou notificação de quaisquer problemas até sua demissão; o sistema de verificação de identidade em tempo real parecia aprovar todas as suas fotos com uma marca verde.
 

 

Após sua demissão, Pa enviou várias mensagens ao Uber para retificar o problema, especificamente pedindo a um humano para revisar seus envios. Cada vez que Pa foi informado de “não fomos capazes de confirmar se as fotos fornecidas eram realmente suas e, devido a incompatibilidades contínuas, tomamos a decisão final sobre encerrar nossa parceria com você”. Obtivemos as selfies em questão por meio de uma solicitação de acesso do sujeito, que revelou que todas as fotos que Pa enviou eram na verdade dele. Essa foi a primeira vez em que conseguimos obter as selfies enviadas por um mensageiro ou motorista. Não está claro por que esse pedido foi bem-sucedido quando muitos antes dele falharam.

pa.jpg

Também escrevemos para a Microsoft no início do ano para levantar nossas preocupações com relação ao uso não regulamentado da API FACE pelo Uber em sua plataforma. Em resposta , a Microsoft enfatizou que todas as partes envolvidas na implantação de tais tecnologias têm responsabilidades que incluem: "incorporar revisão humana significativa para detectar e resolver casos de identificação incorreta ou outra falha"  e  "para fornecer suporte às pessoas que acreditam que seus resultados foram incorretos; e para identificar e resolver flutuações na precisão devido à variação nas condições." O caso de Pa demonstra claramente que essas verificações cruciais não foram implementadas no processamento de imagens RTID.  

 

Pa está agora abrindo um processo contra o Uber para desafiar sua implantação de reconhecimento facial racialmente discriminatório, representado por Bates Wells, com o apoio da Comissão de Igualdade e Direitos Humanos, do Sindicato de Drivers e Correios de Aplicativos e do Worker Info Exchange.

EMBED: vídeo do Pa

Surveillance Case Study I: Facial Recognition

Estudo de caso de vigilância II: verificações de geolocalização  
 

Embora o uso de sistemas de reconhecimento facial com falhas seja sem dúvida problemático, também vimos muitos motoristas serem demitidos após falsas acusações do Uber de que estavam envolvidos em compartilhamento fraudulento de contas depois que dois dispositivos foram detectados pelo Uber em dois locais ao mesmo tempo. Em todos os casos que analisamos, descobrimos que o problema está relacionado ao driver ter instalado o aplicativo em dois dispositivos por conveniência, mas com apenas um dos dispositivos conectado para funcionar.  
 

Pouco antes das 20h do dia 11 de setembro de 2020, Aweso Mowlana estava trabalhando para o Uber no sul de Londres. Ele era um motorista de 4,95 estrelas que realizou mais de 11.500 viagens em mais de 5 anos trabalhando para o Uber. Aweso tinha acabado de deixar um passageiro perto de Elephant and Castle quando fez logoff para uma pequena pausa. Como muitos drivers, Aweso instalou o aplicativo em um segundo dispositivo que era um iPhone. Nessa noite em particular, ele havia deixado o iPhone em casa e estava trabalhando com seu outro telefone, um Samsung.
 

Às 20h02, Aweso tentou se conectar novamente ao aplicativo Uber para se tornar disponível para seu próximo trabalho. Antes de poder fazer o login novamente, ele foi solicitado a fornecer uma selfie como parte da Verificação de identidade em tempo real (RTID) do Uber. Sua foto correspondia à foto de referência do Uber, então ele concluiu com êxito o procedimento de logon para continuar seu turno. Mas sem que ele soubesse, os sistemas Uber detectaram e / ou pingaram seu segundo telefone. Seu filho pegou o segundo telefone por engano e o levou para a casa de sua namorada em Uxbridge. O Uber disse mais tarde que solicitou uma verificação RTID deste dispositivo às 20h03, mas a essa altura o Aweso já estava online no sul de Londres. O Uber afirma que a resposta à verificação de identidade foi enviada do iPhone por volta das 23h55 daquela noite.  
 

No dia seguinte, o Uber o informou que sua conta havia sido 'sinalizada por atividade de aplicativo suspeita' e que sua conta seria suspensa enquanto 'uma equipe especializada analisa isso'. Algum tempo depois, o Uber dispensou Aweso permanentemente por mensagem de texto dizendo que eles haviam 'encontrado evidências indicando atividade fraudulenta' em sua conta. O Uber então alegou que estava compartilhando o acesso à sua conta e, ao fazer isso, violou os termos e condições. No mês seguinte, o Transport for London revogou imediatamente a licença de Aweso com o fundamento de que ele não poderia mais ser considerado "apto e adequado" para possuir uma licença pública com base em sua demissão do Uber.  
 

O Worker Info Exchange ajudou Aweso a fazer uma solicitação de acesso de assunto e a analisar os dados recebidos. Um arquivo chamado 'D river Detailed Device Data ' registra pelo menos parte do fluxo de dados de dispositivos para o Uber em tempo real. A própria política de privacidade do Uber indica que onde um dispositivo tem o aplicativo aberto em segundo ou primeiro plano, mesmo se não estiver online e pronto para aceitar tarifas. Em mais de uma dúzia de casos em que apoiamos a apelação dos motoristas de suas revogações no Tribunal de Magistrados, todos os recursos foram confirmados e o TfL recebeu ordem de restabelecer as licenças. A partir desse arquivo, podemos ver até 230 linhas de dados por minuto sendo registrados pelo Uber a partir de dispositivos. Os dados que o Uber coletou dos dispositivos do Aweso incluíram  geolocalização, nível de bateria, velocidade, rumo do curso, número IMEI etc.  

Os dados mostraram que o dispositivo em Uxbridge nunca havia se logado para trabalhar naquele dia porque um campo intitulado 'driver_online' mostrou o iPhone como 'FALSE' em todos os momentos daquele dia, incluindo o horário em que foi gravado em Uxbridge. Esta é a prova de que o dispositivo não estava sendo compartilhado para o trabalho com outras pessoas, conforme alegado pelo Uber e pela Transport for London. O Uber não forneceu acesso aos dados pessoais processados em ambos os cheques RTID, incluindo as fotos coletadas. Os 'Dados Detalhados do Dispositivo' não mostram nenhum registro de qualquer outra atividade do iPhone após 20h03min43s. Não vimos nenhuma evidência de dados de atividade do dispositivo às 23h55, quando o Uber disse que recebeu uma resposta ao cheque de identidade emitido anteriormente.    

A experiência de Pa e Aweso foi muito prevalente durante o ano passado e representou um volume significativo de casos tratados pelo Worker Info Exchange e pela App Drivers & Couriers Union. Em Londres, a Transport for London tendeu a revogar imediatamente as carteiras de motoristas que haviam falhado nas verificações RTID do Uber, apesar dos problemas óbvios com o sistema. Freqüentemente, há explicações razoáveis para o uso de vários dispositivos que são automaticamente classificados como fraude. A própria política de privacidade do Uber indica que onde um dispositivo tem o aplicativo aberto em segundo ou primeiro plano, mesmo se não estiver online e pronto para aceitar tarifas. Em mais de uma dúzia de casos em que apoiamos a apelação dos motoristas de suas revogações no Tribunal de Magistrados, todos os recursos foram confirmados e o TfL recebeu ordem de restabelecer as licenças.  

 

Worker Info Exchange, Big Brother Watch e App Drivers & Couriers Union escreveram uma carta conjunta ao prefeito de Londres para levantar nossas preocupações sobre a confiança do Transport for London em evidências falhas do Uber para tomar uma decisão de revogação e exigiu isso, como Presidente de Transporte para o conselho de Londres, que ordenasse uma revisão de todas essas revogações ilícitas. Até o momento, nem o prefeito nem o TfL responderam.

Surveillance Case Study II: Geolocation
Opaque Performance Management

Opaco Performance Management
 

A opacidade das empresas de plataforma inibe a compreensão do trabalhador de como o controle algorítmico pode ser integrado ao longo do período de processos críticos e ao longo do tempo. Por exemplo, os trabalhadores não receberam a transparência a que têm direito legalmente para compreender como o perfil de desempenho se relaciona com a qualidade e a quantidade do trabalho oferecido, bem como com os rendimentos esperados para esse trabalho. 

No caso de Ola, temos algum conhecimento das categorias de dados que eles coletam e processam em seus sistemas de alocação de trabalho - como pontuação de probabilidade de fraude, perfil de ganho, aceitação de reserva e histórico de cancelamento, entre outros - no entanto, isso não revela as diferentes ponderações aplicada a essas variáveis, nem a lógica de processamento.

O Uber há muito afirma que seu sistema de correspondência é exclusivamente determinado pela localização, apesar de sua própria interface “Parceiro-Driver” sugerir o contrário. O programa Pro do Uber (no qual os motoristas são automaticamente inscritos para que possam ser incentivados a cumprir as metas de desempenho em troca de benefícios e recompensas) informa aos motoristas em linguagem vaga que "taxas de confirmação mais altas significam tempos de espera mais curtos para os clientes e tempos de coleta mais curtos para todos motoristas ”, referindo-se vagamente ao fato de que empregos em declínio resultarão em menos ofertas de emprego.
 

O Uber recentemente ofereceu mais transparência no sistema de correspondência por meio de uma atualização de sua política de privacidade que afirma: “Os usuários podem ser correspondidos com base na disponibilidade, proximidade e outros fatores, como probabilidade de aceitar uma viagem com base em seu comportamento ou preferências anteriores” mas, no momento da redação, o link que oferecia mais informações sobre o sistema de correspondência foi quebrado, atestando a natureza evolutiva de tal processamento de dados. Uma recente solicitação de liberdade de informação que fizemos ao TfL, perguntando sobre quais atualizações o Uber havia fornecido em seu sistema de correspondência (como é obrigado a fazer ao fazer alterações em seu modelo operacional) não retornou resultados, destacando ainda mais a ofuscação de suas práticas de gerenciamento algorítmico e a ausência de supervisão regulatória.

As recentes revelações sobre as variáveis que determinam a alocação do trabalho também levantam questões importantes sobre a qualidade dos empregos oferecidos aos motoristas. Os motoristas com altas taxas de aceitação de emprego oferecem viagens de longa duração e duração, resultando em salários mais altos, com base em perfis semelhantes? Ou, indo um passo além, os motoristas são oferecidos taxas diferentes por meio do sistema de preços dinâmico? De fato, se e como a precificação algorítmica é combinada com a alocação de trabalho é uma questão sensível sobre a qual pouco ainda se sabe.  

Nos últimos anos, o Uber substituiu os preços variáveis de tempo e distância para os clientes por um modelo de preço fixo no qual um preço inicial é aceito no início da viagem. O Uber afirma que