Contenido
Contenido
Resumen
Parte I: Clasificación errónea 2.0: controlado por algoritmo
Estudio de caso de vigilancia I: Fallo en el reconocimiento facial
Estudio de caso de vigilancia II: Verificaciones de geolocalización
Gestión del rendimiento opaco
Estudio de caso: control algorítmico
Expansión de la infraestructura de aplicación de la ley
Estudio de caso: intercambio de inteligencia con las fuerzas del orden
Parte II: Ejercicio de los derechos sobre los datos en el trabajo: acceso
Estudios de caso: DSAR individuales
Respuestas circulares e inútiles
Intercambio de datos incremental e inconsistente
Estudios de caso: Respuestas de la plataforma a solicitudes por lotes de WIE
Parte III: Ejercicio de los derechos sobre los datos en el trabajo: litigio
Conductores Uber vs Uber I (solicitudes de transparencia general)
Ola drivers v. Ola (solicitudes generales de transparencia)
Uber drivers v. Uber II (transparencia en la toma de decisiones automatizada)
Casos de apelación de licencias de Londres
Conclusión: ¿El camino a seguir para el ejercicio de los derechos digitales en el trabajo?
Resumen
Worker Info Exchange se creó para facilitar el acceso y la colectivización de datos a fin de generar poder de negociación mediante el establecimiento de un fideicomiso de datos.
Esto fue en respuesta al desarrollo de nuevas prácticas de gestión algorítmica que crearon profundas asimetrías informativas y explotación de los trabajadores.
Worker Info Exchange tiene como objetivo abordar la convergencia de datos y derechos laborales invocando los derechos de los artículos 15, 20 y 22 del RGPD en contextos laborales.
Este objetivo se ve gravemente obstaculizado por el incumplimiento generalizado del RGPD en la industria de los conciertos.
Hemos realizado más de 500 solicitudes de acceso de sujetos de datos en los últimos ocho meses a siete plataformas de viajes compartidos diferentes, incluidas Amazon Flex, Bolt, Deliveroo, Free Now, Just Eat, Ola y Uber.
El acceso a los datos es desafiado por empresas que implementan patrones oscuros y abusan deliberadamente de la implementación irregular del RGPD, lo que impulsa a los trabajadores a resolver problemas en los tribunales.
La recopilación de datos por plataformas de conciertos es excesiva y conduce a una vigilancia desproporcionada e irresponsable de los trabajadores, así como a una infraestructura de aplicación de la ley en expansión.
No hay transparencia sobre los sistemas de gestión algorítmica que se utilizan. Las narrativas de la empresa sobre qué tecnologías se utilizan y cómo son inconsistentes y poco fiables.
© 2021 Intercambio de información del trabajador
© 2021 Intercambio de información del trabajador
Introducción
El año pasado marcó un punto de inflexión para los trabajadores de plataformas de conciertos en la realización de sus derechos laborales y digitales. La práctica del trabajo mediado digitalmente ha llevado a una convergencia de los derechos laborales y de protección de datos y la creciente actividad de litigio y defensa de los trabajadores ha estado dando resultados en estos dominios. En toda Europa, los tribunales han emitido varios juicios importantes que reconocen el papel explotador de las prácticas de gestión algorítmica por parte de las plataformas de conciertos, al tiempo que condenan la falta de equidad y transparencia en dichos sistemas automatizados.
En Italia, el tribunal de Bolonia dictaminó que el sistema de calificación de Deliveroo había discriminado a los trabajadores, mientras que la autoridad de protección de datos, Garante, impuso dos multas de GDPR a Deliveroo y Glovo debido a que no revelaron adecuadamente el funcionamiento de su asignación de trabajo y algoritmos de gestión del desempeño.
España aprobó la primera legislación para intentar regular la IA en el ámbito del empleo, estableciendo tanto la condición de trabajador para los trabajadores de concierto como el derecho a ser informado sobre las reglas y parámetros de los algoritmos a los que están sujetos, lo que desencadenó un torrente de quejas. Esto fue el resultado de otro caso judicial contra Glovo que terminó en el Tribunal Supremo de España.
Junto con estas decisiones de alto perfil, la Corte Suprema del Reino Unido también concluyó este año que los conductores de Uber eran parte de un servicio de transporte que está " muy estrictamente definido y controlado por Uber ", lo que traiciona una relación laboral clara, que, según la compañía, no existía en su esfuerzo por (mal) clasificar a los trabajadores como contratistas independientes. Significativamente, la evidencia de esta relación proviene de los sistemas basados en datos que utilizan las plataformas de viajes compartidos para administrar su fuerza laboral. Algunas de las cuestiones destacadas por la Corte Suprema del Reino Unido se relacionan con la gestión de los conductores a través del seguimiento algorítmico de las tasas de aceptación del trabajo, las opciones de ruta, el comportamiento de conducción y las valoraciones de los clientes. Sin embargo, aunque existe un mayor reconocimiento de la gestión algorítmica, los recientes avances en los tribunales no protegen por completo a los trabajadores contra sus daños. El estatus de trabajador de extremidad (b) otorgado a los conductores de Uber como resultado de la decisión de la Corte Suprema es un estatus de intermediario entre el contratista y el empleado , y aún no los protege de despidos injustos, por ejemplo.
Nuestra experiencia sugiere que estas herramientas de gestión algorítmica, junto con la intensificación de las prácticas de vigilancia, el escrutinio continuo de los trabajadores en busca de posibles fraudes o irregularidades, están dando como resultado un entorno de trabajo profundamente explotador. Estamos viendo una cantidad excesiva de despidos automatizados en toda la industria de los conciertos, muchos de los cuales creemos que son ilegales de acuerdo con el artículo 22 del Reglamento general de protección de datos (GDPR) . El artículo 22 proporciona a los trabajadores algunas protecciones limitadas contra los efectos adversos de la toma de decisiones automatizada y la elaboración de perfiles, a través del derecho a obtener la intervención humana y a impugnar la decisión. El artículo 15 del RGPD garantiza el derecho a ser informado sobre la existencia de dicha toma de decisiones automatizada y a recibir información significativa sobre la lógica del procesamiento.
Tomando estos derechos como base, Worker Info Exchange se creó con la misión de ayudar a los trabajadores a navegar en este espacio complejo y poco regulado. El objetivo y el cometido de nuestro trabajo es probar si estos instrumentos del RGPD se pueden utilizar para abordar las prácticas laborales injustas y ampliar el alcance de los datos que se ponen a disposición de las personas en su calidad de trabajadores. En otras palabras, nuestra ambición es utilizar el acceso a los datos como un método para desarrollar el poder colectivo de los trabajadores para probar los mecanismos de reparación en un mercado laboral mediado digitalmente.
Cuando la relación laboral entre la plataforma de conciertos y el trabajador se ejecuta a través de una amplia recopilación y análisis de datos, los derechos laborales se vinculan inextricablemente con el ejercicio de los derechos sobre los datos. Las plataformas de conciertos afirman el control sobre los trabajadores al mantener una asimetría de información, y el acceso a los datos puede proporcionar un medio para exponer el (des) equilibrio de poder generado por la brecha de información entre las plataformas de conciertos y sus trabajadores. Obtener acceso a datos personales puede permitir a los trabajadores realizar evaluaciones independientes sobre sus condiciones de trabajo y responder preguntas sobre sus cálculos salariales, la calidad y cantidad de trabajo ofrecido, así como desafiar los motivos de una gestión del desempeño adversa, incluida la suspensión y despido.
Nuestro objetivo al facilitar el acceso a los datos es crear almacenes colectivos de datos para desarrollar una mayor comprensión de las condiciones laborales y, en consecuencia, poder de negociación. En los últimos años, han surgido una serie de iniciativas destacadas que operan con objetivos similares pero utilizan diferentes metodologías para recuperar datos. Algunos proyectos en este campo ejecutan su propia recopilación de datos y análisis sobre ganancias y desempeño para evaluar la equidad de las condiciones laborales (por ejemplo, Driver's Seat Coop y WeClock, entre otros). Todos ellos presentan una visión única de la economía de los conciertos y deben considerarse como parte de un continuo de la práctica de los datos. Hemos abordado este problema exigiendo que las plataformas compartan los datos a los que los trabajadores tienen derecho legalmente; sin embargo, esto ha introducido obstáculos adicionales al objetivo más amplio de colectivizar los datos. Tomamos este camino porque queríamos sentar estándares y precedentes en la ley de protección de datos, pero también porque creemos que hay cierto tipo de información que solo se puede obtener solicitando los datos directamente desde las plataformas.
Hemos descubierto, particularmente en el caso de denuncias de actividad irregular y fraude alimentadas por vigilancia, que es necesario tener los datos en poder de las empresas para comprender y rebatir las acusaciones. El acceso a los datos puede ayudarnos a descubrir las inconsistencias en las narrativas avanzadas por las empresas de plataformas y ayudar a trasladar la carga de la prueba de los trabajadores a las plataformas. Desde esta perspectiva, el esfuerzo de los datos de la plataforma exigente ha demostrado ser un gran éxito en la resolución de numerosos conflictos laborales. La simple demostración de la negativa de las plataformas a proporcionar datos personales ha revertido varias revocaciones de licencias (ejecutadas por TfL) en los tribunales y, por lo tanto, se ha convertido en una herramienta adicional en el ejercicio de los derechos laborales.
Ésta constituye la otra rama de actividad de Worker Info Exchange; Como nos sentimos frustrados en nuestros intentos de ganar claridad y transparencia sobre los complejos sistemas que determinan las condiciones del lugar de trabajo, con frecuencia necesitamos recurrir a litigios y acudir a los tribunales para obtener decisiones en el campo emergente de los derechos laborales digitales. La 'crisis de datos' artificial que han creado las plataformas de conciertos es, en muchos sentidos, un intento de agotar y agotar los recursos de los trabajadores precarios y de los sindicatos al llevar las disputas a los tribunales, donde pueden prolongarse y retrasarse la rendición de cuentas por mala conducta empresarial.
De acuerdo con estas líneas de actividad, este informe está escrito en tres partes: La primera sección explora diferentes facetas de la gestión algorítmica y sus daños, con estudios de casos asociados. La segunda sección trata sobre nuestro proceso en la utilización de solicitudes de acceso de sujetos de datos (DSAR), mientras que la tercera ofrece una descripción general de los casos relacionados con GDPR que hemos llevado adelante en Ámsterdam, así como los casos de licencia que apoyamos en Londres. Este informe concluye un período de trabajo sobre estas funciones de nuestra organización, realizado con el apoyo de la Fundación Mozilla, Digital Freedom Fund y Open Society Foundations. Esperamos que este informe demuestre la situación actual en el ejercicio de los derechos en la intersección de los datos y el trabajo y revele los efectos acumulativos del incumplimiento reiterado por parte de las plataformas de conciertos.
"Las empresas de plataformas operan en un espacio sin ley donde creen que pueden hacer las reglas. Desafortunadamente, esto no es un juego; las realidades virtuales tienen duras consecuencias para los trabajadores temporales en la vida real. Lo que es alentador es que los propios trabajadores no están esperando leyes, políticos o incluso aliados en el movimiento de derechos humanos para rescatarlos. Los trabajadores temporales se están organizando y utilizando su voz colectiva para exigir nuevas protecciones que se ajusten a su propósito en una economía digitalizada".
Bama Athreya, miembro, fundaciones de la sociedad abierta

Parte I: Clasificación errónea 2.0 Controlado por algoritmo
En la batalla de seis años por los derechos de los trabajadores en la economía de conciertos del Reino Unido, Uber argumentó que era simplemente el agente del conductor autónomo que no hacía nada más que reservar pasivamente órdenes de trabajo y cobrar el pago. Para avanzar en esta ficción, las plataformas de conciertos establecen elaborados contratos que hacen que parezca que el conductor y el pasajero están realizando transacciones directamente entre sí, cuando en realidad toda la información de los pasajeros está estrechamente protegida por las empresas. Uber, por ejemplo, genera una factura teórica en nombre del conductor para cada pasajero que transporta. La factura citará solo el nombre del pasajero y nunca se envía al cliente.
Estas técnicas de clasificación errónea, que se utilizan comúnmente en la economía de los conciertos, permiten que las plataformas eviten las responsabilidades legales de los empleadores, como la protección de los derechos básicos de los trabajadores y las contribuciones al seguro nacional. En el Reino Unido, también ha permitido a las empresas de plataformas evitar el impuesto sobre las ventas (IVA). Pero a principios de este año, la Corte Suprema afirmó el derecho de los tribunales inferiores a descartar los contratos artificiales y determinar la verdadera naturaleza de la relación laboral con base en la evidencia de una relación de gestión de control sobre los trabajadores.
A medida que las empresas de plataformas concluyan que el uso de contratos engañosos ya no es viable como método de clasificación errónea de empleos, se verán tentadas a duplicar la automatización de procesos para ocultar el control de gestión. El control algorítmico se convierte en una clasificación errónea 2.0. De hecho, existe amplia evidencia de que esto ya está sucediendo. Las plataformas de conciertos están más decididas que nunca a perseguir estrategias de clasificación errónea para poder seguir controlando la fuerza laboral y evitar el riesgo de que los conductores se gradúen del estado de 'trabajador' con derechos limitados al estado de empleado con sustancialmente más derechos.
Entonces, ¿qué es el control algorítmico y cuáles son los riesgos específicos para los trabajadores de conciertos? En las industrias de transporte compartido y entrega, específicamente, los medios de gestión algorítmica que más nos preocupan incluyen lo siguiente:
Vigilancia. Vigilancia intrusiva con el propósito declarado de seguridad e identificación. Esto abarca el uso de tecnologías de detección de fraude y reconocimiento facial. Somos conscientes de que la vigilancia se lleva a cabo incluso cuando el trabajador no ha iniciado sesión para estar disponible para trabajar. También incluyó vigilar el uso de la aplicación por parte del trabajador como consumidor.
Gestión del rendimiento. Esto incluye, entre otros, el seguimiento del comportamiento de conducción, incluida la ETA, las calificaciones de los clientes, las tasas de aceptación y finalización del trabajo, la interacción con el personal de apoyo y la disponibilidad.
Localización de trabajo. Uber ha insistido hasta hace muy poco en que la asignación del trabajo se decide en función de la proximidad entre conductores y pasajeros; sin embargo, ahora admite que se tienen en cuenta el comportamiento y las preferencias anteriores. Ola admite que los perfiles de los conductores que incluyen la puntuación de 'perfil de ganancias' y 'probabilidad de fraude' se utilizan en la toma de decisiones automatizada de asignación de trabajo.
Precios. Estrechamente relacionado con la asignación de trabajo está la toma de decisiones de precios automatizada. Quizás el método más conocido es el llamado 'aumento' o 'precio dinámico' de Uber, que pretende despejar la demanda del mercado con fluctuaciones de precios locales en tiempo real.
Las decisiones de gestión anteriores son en su mayoría automatizadas o semiautomatizadas con una intervención humana limitada. Los modelos de negocio de la economía de los conciertos se basan en la automatización masiva de las decisiones de gestión y la supervisión del lugar de trabajo. Si bien algunos empleadores se muestran reticentes en este punto, Deliveroo ha sido bastante franco al respecto en su política de privacidad de usuarios :
“Dado el volumen de entregas con las que tratamos, utilizamos sistemas automatizados para tomar las decisiones automatizadas descritas anteriormente, ya que brindan una forma más precisa, justa y eficiente de identificar sospechas de fraude, evitando incumplimientos repetidos de su Acuerdo de proveedor y limitando el impacto negativo en nuestro servicio. Los controles humanos simplemente no serían posibles en los plazos y dados los volúmenes de entregas con las que nos ocupamos ".

Gestión del rendimiento
Esto incluye, entre otros, el monitoreo del comportamiento de conducción, incluida la ETA, las calificaciones de los clientes, las tasas de aceptación y finalización del trabajo, la interacción con el personal de apoyo y la disponibilidad.

Precios
Estrechamente relacionado con la asignación de trabajo está la toma de decisiones de fijación de precios automatizada. Quizás el método más conocido es el llamado "aumento" o "precio dinámico" de Uber, que pretende despejar la demanda del mercado con fluctuaciones de precios locales en tiempo real.
Vigilancia
Vigilancia intrusiva con el propósito declarado de seguridad e identificación. Esto abarca el uso de tecnologías de detección de fraude y reconocimiento facial. Somos conscientes de que la vigilancia se lleva a cabo incluso cuando el trabajador no ha iniciado sesión para estar disponible para trabajar. También incluía la vigilancia del uso de la aplicación por parte del trabajador como consumidor.
Localización de trabajo
Hasta hace muy poco, Uber ha insistido en que la asignación de trabajo se decide en función de la proximidad entre los conductores y los pasajeros, pero ahora admite que se tienen en cuenta el comportamiento y las preferencias anteriores. se utilizan en la toma de decisiones automatizada de asignación de trabajo.


Parte I: Clasificación errónea 2.0 Controlado por algoritmo
En la batalla de seis años por los derechos de los trabajadores en la economía de conciertos del Reino Unido, Uber argumentó que era simplemente el agente del conductor autónomo que no hacía nada más que reservar pasivamente órdenes de trabajo y cobrar el pago. Para avanzar en esta ficción, las plataformas de conciertos establecen elaborados contratos que hacen que parezca que el conductor y el pasajero están realizando transacciones directamente entre sí, cuando en realidad toda la información de los pasajeros está estrechamente protegida por las empresas. Uber, por ejemplo, genera una factura teórica en nombre del conductor para cada pasajero que transporta. La factura citará solo el nombre del pasajero y nunca se envía al cliente.
Estas técnicas de clasificación errónea, que se utilizan comúnmente en la economía de los conciertos, permiten que las plataformas eviten las responsabilidades legales de los empleadores, como la protección de los derechos básicos de los trabajadores y las contribuciones al seguro nacional. En el Reino Unido, también ha permitido a las empresas de plataformas evitar el impuesto sobre las ventas (IVA). Pero a principios de este año, la Corte Suprema afirmó el derecho de los tribunales inferiores a descartar los contratos artificiales y determinar la verdadera naturaleza de la relación laboral con base en la evidencia de una relación de gestión de control sobre los trabajadores.
A medida que las empresas de plataformas concluyan que el uso de contratos engañosos ya no es viable como método de clasificación errónea de empleos, se verán tentadas a duplicar la automatización de procesos para ocultar el control de gestión. El control algorítmico se convierte en una clasificación errónea 2.0. De hecho, existe amplia evidencia de que esto ya está sucediendo. Las plataformas de conciertos están más decididas que nunca a perseguir estrategias de clasificación errónea para poder seguir controlando la fuerza laboral y evitar el riesgo de que los conductores se gradúen del estado de 'trabajador' con derechos limitados al estado de empleado con sustancialmente más derechos.
Entonces, ¿qué es el control algorítmico y cuáles son los riesgos específicos para los trabajadores de conciertos? En las industrias de transporte compartido y entrega, específicamente, los medios de gestión algorítmica que más nos preocupan incluyen lo siguiente:
Vigilancia. Vigilancia intrusiva con el propósito declarado de seguridad e identificación. Esto abarca el uso de tecnologías de detección de fraude y reconocimiento facial. Somos conscientes de que la vigilancia se lleva a cabo incluso cuando el trabajador no ha iniciado sesión para estar disponible para trabajar. También incluyó vigilar el uso de la aplicación por parte del trabajador como consumidor.
Gestión del rendimiento. Esto incluye, entre otros, el seguimiento del comportamiento de conducción, incluida la ETA, las calificaciones de los clientes, las tasas de aceptación y finalización del trabajo, la interacción con el personal de apoyo y la disponibilidad.
Localización de trabajo. Uber ha insistido hasta hace muy poco en que la asignación del trabajo se decide en función de la proximidad entre conductores y pasajeros; sin embargo, ahora admite que se tienen en cuenta el comportamiento y las preferencias anteriores. Ola admite que los perfiles de los conductores que incluyen la puntuación de 'perfil de ganancias' y 'probabilidad de fraude' se utilizan en la toma de decisiones automatizada de asignación de trabajo.
Precios. Estrechamente relacionado con la asignación de trabajo está la toma de decisiones de precios automatizada. Quizás el método más conocido es el llamado 'aumento' o 'precio dinámico' de Uber, que pretende despejar la demanda del mercado con fluctuaciones de precios locales en tiempo real.
Las decisiones de gestión anteriores son en su mayoría automatizadas o semiautomatizadas con una intervención humana limitada. Los modelos de negocio de la economía de los conciertos se basan en la automatización masiva de las decisiones de gestión y la supervisión del lugar de trabajo. Si bien algunos empleadores se muestran reticentes en este punto, Deliveroo ha sido bastante franco al respecto en su política de privacidad de usuarios :
“Dado el volumen de entregas con las que tratamos, utilizamos sistemas automatizados para tomar las decisiones automatizadas descritas anteriormente, ya que brindan una forma más precisa, justa y eficiente de identificar sospechas de fraude, evitando incumplimientos repetidos de su Acuerdo de proveedor y limitando el impacto negativo en nuestro servicio. Los controles humanos simplemente no serían posibles en los plazos y dados los volúmenes de entregas con las que nos ocupamos ".
“Dado el volumen de entregas que manejamos, utilizamos sistemas automatizados para tomar las decisiones automatizadas descritas anteriormente, ya que brindan una forma más precisa, justa y eficiente de identificar sospechas de fraude, prevenir incumplimientos repetidos de su Acuerdo de proveedor y limitar el impacto negativo en nuestro servicio. Los controles humanos simplemente no serían posibles en los plazos y dados los volúmenes de entregas que manejamos”.


Vigilancia
Vigilancia intrusiva con el propósito declarado de seguridad e identificación. Esto abarca el uso de tecnologías de detección de fraude y reconocimiento facial. Somos conscientes de que la vigilancia se lleva a cabo incluso cuando el trabajador no ha iniciado sesión para estar disponible para trabajar. También incluye la vigilancia del uso que el trabajador hace de la aplicación como consumidor.
Localización de trabajo
Uber ha insistido hasta hace muy poco en que la asignación de trabajo se decide en función de la proximidad entre los conductores y los pasajeros, pero ahora afirma que se tienen en cuenta el comportamiento y las preferencias anteriores. Ola utiliza perfiles de conductor que incluyen "puntuaciones de probabilidad de fraude" en la toma de decisiones automatizada para el trabajo. asignación.

Gestión del rendimiento
La evaluación del desempeño laboral incluye, entre otros, el monitoreo del comportamiento de conducción, incluida la ETA, las calificaciones de los clientes, las tasas de aceptación y finalización del trabajo, la interacción con el personal de apoyo y la disponibilidad.

Precios
Estrechamente relacionado con la asignación de trabajo está la fijación automática de precios. Quizás el método más conocido es el llamado "aumento" o "precio dinámico" de Uber, que pretende despejar la demanda del mercado con fluctuaciones de precios locales en tiempo real.
Carrera armamentista de vigilancia
Hemos presenciado una carrera de armas de vigilancia en la economía de los conciertos desde que Uber introdujo su llamado Sistema de identificación en tiempo real híbrido durante 2020. Justo un día antes de que Transport for London (TfL) anunciara su decisión de rechazar la renovación de su licencia en noviembre de 2019, Uber se ofreció a introducir este sistema de vigilancia que incorpora reconocimiento facial con monitoreo GPS.
Esto fue en respuesta a la queja de TfL de que se había detectado a 21 conductores (de los 90,000 analizados durante varios años) que participaban en el intercambio de cuentas, lo que permitía a los conductores potencialmente sin licencia y sin seguro ofrecer ilegalmente sus servicios en la aplicación. La actividad fue posible al restablecer la ubicación GPS del dispositivo como fuera del Reino Unido, donde es posible que los conductores carguen sus propias fotos. Uber cerró rápidamente esta brecha y la actividad detectada fue extremadamente pequeña en comparación con la escala de la operación de Uber. La introducción de la tecnología de reconocimiento facial por parte de la industria ha sido completamente desproporcionada en relación con el riesgo percibido. Sin embargo, el requisito de identificación en tiempo real pasó a convertirse en una condición para la renovación de la licencia de Uber en el Tribunal de Magistrados de Westminster en septiembre de 2020.
En el caso de Uber, tanto la administración de la plataforma como TfL no han logrado garantizar que se implementaron las salvaguardas adecuadas para proteger los derechos y libertades de los conductores a pesar de que TfL había revisado la evaluación de impacto de protección de datos para la tecnología en marzo de 2020. Solicitud de libertad de información a TfL para tener acceso a la DPIA de Uber para los sistemas de identificación en tiempo real, pero se nos negó. Según los informes de TfL , el 94% de los conductores de vehículos de alquiler privados (PHV) provienen de minorías negras y étnicas y la introducción de esta tecnología, que es bien reconocida por sus bajas tasas de precisión dentro de estos grupos , ha demostrado ser desastrosa para los trabajadores vulnerables que ya están en empleo precario.
Desde entonces, Bolt anunció que estaba invirtiendo 150 millones de euros en sistemas de detección antifraude de controladores de inteligencia artificial, incluido el reconocimiento facial. Deliveroo anunció que ellos también introducirían controles de identidad por reconocimiento facial. Ola Cabs también ha implementado la identificación de reconocimiento facial como una característica de su sistema Guardian , incorporando el aprendizaje automático que, según ellos, les permite "aprender y evolucionar continuamente a partir de millones de puntos de datos todos los días, para mejorar la señalización de riesgos y la resolución instantánea".
FreeNow, una empresa conjunta de Daimler y BMW, también vigila de cerca a los conductores como parte de su programa de prevención del fraude. De hecho, los documentos presentados por FreeNow ante el Tribunal Superior en una revisión judicial de la decisión de TfL de otorgarles una licencia en Londres, revelaron que TfL ha realizado informes mensuales de despidos de conductores por diversas razones (incluida la 'actividad fraudulenta') una condición de su Renovación reciente de licencia. Pero la descripción de los datos procesados con el fin de prevenir el fraude plantea más preguntas de las que responde la política de privacidad de FreeNow.
En este documento, Free Now afirma que utilizan un algoritmo de "bosque aleatorio" para producir una puntuación de fraude que utilizan para " priorizar los viajes enviados en consecuencia". Esto asegura un envío justo y con riesgo mínimo ”. Free Now impugnó el uso de este sistema de detección de fraude cuando preguntamos al respecto en junio de 2021, alegando que esta sección de la política de privacidad estaba desactualizada (consulte el estudio de caso de la empresa en la sección II del informe). Sin embargo, la descripción de este sistema se ha mantenido en la política, a pesar de una actualización realizada en septiembre de 2021.
Lo que es particularmente preocupante sobre el uso de estos sistemas es que combinan la gestión del fraude con la gestión del desempeño. El hecho de que dichos indicadores de 'fraude' se utilicen como variables para la asignación de trabajo y que se permita que los comportamientos que los generan continúen en la plataforma demuestra que no se trata de instancias de fraude criminal, sino de mecanismos de control, que evalúan el desempeño de los trabajadores. frente a las opacas métricas establecidas por las empresas. Sugerimos que cualquier terminología de 'fraude' utilizada en estos contextos también funciona como parte del juego de clasificación errónea, diseñado para ocultar la relación laboral.
Estudio de caso de vigilancia I: Fallo en el reconocimiento facial
En abril de 2020, Uber introdujo un sistema de verificación de identificación en tiempo real (RTID) en el Reino Unido que utiliza una combinación que incluye reconocimiento facial y verificación de ubicación para autenticar la identidad de un conductor e intentar evitar que los conductores compartan el acceso a su cuenta para trabajar.
El sistema RTID incorpora el uso de la API FACE de Microsoft, el software de reconocimiento facial y requiere que los conductores y mensajeros se tomen selfies en tiempo real de forma rutinaria para seguir usando la aplicación Uber. Luego, la foto se compara con la imagen de perfil de la cuenta del conductor (y en algunas jurisdicciones, con bases de datos públicas para " evitar el préstamo de identidad o para verificar las identidades de los usuarios ").
Pa Edrissa Manjang había estado trabajando con Uber durante aproximadamente un año cuando fue desactivado debido a una falla en la verificación de la selfie. Si bien los conductores y mensajeros de Uber brindan selfies de manera rutinaria, estos no se almacenan en los teléfonos de los trabajadores y no pueden retener la evidencia de sus envíos. Pa no recibió advertencias ni notificó ningún problema hasta su despido; el sistema de verificación de identificación en tiempo real pareció aprobar todas sus fotografías con un cheque verde.
Después de su despido, Pa envió numerosos mensajes a Uber para rectificar el problema, pidiendo específicamente que un humano revisara sus presentaciones. Cada vez que le dijeron a Pa "no pudimos confirmar que las fotos proporcionadas eran en realidad tuyas y debido a las continuas discrepancias, tomamos la decisión final de poner fin a nuestra asociación contigo". Obtuvimos las selfies en cuestión a través de una solicitud de acceso de sujeto, que reveló que todas las fotos que Pa envió eran en realidad suyas. Esta fue la primera instancia en la que logramos obtener las selfies enviadas por un mensajero o conductor. No está claro por qué esta solicitud tuvo éxito cuando muchas antes fracasaron.

También escribimos a Microsoft a principios de año para plantear nuestras preocupaciones con respecto al uso no regulado de la API FACE por parte de Uber en su plataforma. En respuesta , Microsoft enfatizó que todas las partes involucradas en la implementación de dichas tecnologías tienen responsabilidades que incluyen: "incorporar una revisión humana significativa para detectar y resolver casos de identificación errónea u otras fallas". y "para brindar apoyo a las personas que creen que sus resultados fueron incorrectos e identificar y abordar las fluctuaciones en la precisión debido a la variación en las condiciones". El caso de Pa demuestra claramente que estos controles cruciales no se han implementado en el procesamiento de imágenes RTID.
Pa ahora presenta un caso contra Uber para impugnar su despliegue de reconocimiento facial racialmente discriminatorio, representado por Bates Wells, con el apoyo de la Comisión de Igualdad y Derechos Humanos, App Drivers and Couriers Union y Worker Info Exchange.
EMBED: video de papá
Estudio de caso de vigilancia II: Verificaciones de geolocalización
Si bien el uso de sistemas de reconocimiento facial defectuosos es indudablemente problemático, también hemos visto que muchos conductores fueron despedidos después de falsas acusaciones de Uber de que participaban en el uso compartido de cuentas fraudulentas después de que Uber detectara dos dispositivos en dos ubicaciones al mismo tiempo. En todos los casos que hemos analizado, hemos encontrado que el problema está relacionado con que el controlador instaló la aplicación en dos dispositivos por conveniencia, pero solo uno de los dispositivos inició sesión para trabajar.
Justo antes de las 8 pm del 11 de septiembre de 2020 y Aweso Mowlana estaba trabajando para Uber en el sur de Londres. Era un conductor con calificación de 4.95 estrellas que había realizado más de 11,500 viajes en más de 5 años trabajando para Uber. Aweso acababa de dejar a un pasajero cerca de Elephant and Castle cuando se desconectó para un breve descanso. Como muchos controladores, Aweso había instalado la aplicación en un segundo dispositivo que era un iPhone. Esa noche en particular había dejado el iPhone en casa y estaba trabajando con su otro teléfono, un Samsung.
A las 8:02 pm, Aweso intentó volver a iniciar sesión en la aplicación Uber para estar disponible para su próximo trabajo. Antes de que se le permitiera volver a iniciar sesión, se le pidió que proporcionara una selfie como parte de la Verificación de identidad en tiempo real (RTID) de Uber. Su foto coincidía con la foto de referencia de Uber, por lo que completó con éxito el procedimiento de inicio de sesión para continuar su turno. Pero sin que él lo supiera, los sistemas de Uber habían detectado y / o hecho ping a su segundo teléfono. Su hijo había cogido su segundo teléfono por error y se lo había llevado a la casa de su novia en Uxbridge. Uber dijo más tarde que solicitaron un cheque RTID de este dispositivo a las 8:03 pm, pero en ese momento Aweso ya estaba en línea en el sur de Londres. Uber afirma que la respuesta a la verificación de identidad se envió desde el iPhone alrededor de las 11:55 p.m. de esa noche.
Al día siguiente, Uber le informó que su cuenta había sido 'marcada por actividad de aplicación sospechosa' y que su cuenta ahora se suspendería mientras 'un equipo especializado revisa esto'. Algún tiempo después, Uber despidió permanentemente a Aweso a través de un mensaje de texto diciendo que habían 'encontrado evidencia que indica actividad fraudulenta' en su cuenta. Luego, Uber alegó que estaba compartiendo el acceso a su cuenta y, al hacerlo, había incumplido los términos y condiciones. Al mes siguiente, Transport for London revocó de inmediato la licencia de Aweso con el argumento de que ya no se podía considerar que estuviera "en forma y adecuado" para tener una licencia pública debido a su despido de Uber.
Worker Info Exchange ayudó a Aweso a realizar una solicitud de acceso al sujeto y analizar los datos recibidos. Un archivo llamado ' Datos detallados del dispositivo de D river' registra al menos algunos de los datos que se transmiten desde los dispositivos a Uber en tiempo real. La propia política de privacidad de Uber indica que cuando un dispositivo tiene la aplicación abierta en segundo plano o en primer plano, incluso si no está en línea y está lista para aceptar tarifas. En más de una docena de casos en los que apoyamos que los conductores apelaran sus revocaciones en el Tribunal de Magistrados, se confirmó cada apelación y se ordenó a TfL que restableciera las licencias. A partir de este archivo, pudimos ver hasta 230 filas de datos por minuto que Uber registra desde los dispositivos. Los datos que Uber recopiló de los dispositivos de Aweso incluyeron ubicación geográfica, nivel de batería, velocidad, rumbo del curso, número IMEI, etc.
Los datos mostraron que el dispositivo en Uxbridge nunca había iniciado sesión para trabajar ese día porque un campo titulado 'driver_online' mostraba el iPhone como 'FALSO' en todo momento ese día, incluida la hora en que se registró en Uxbridge. Esta es una prueba de que el dispositivo no se estaba compartiendo para trabajar con otros, como alegan Uber y Transport for London. Uber no proporcionó acceso a los datos personales procesados en ambas verificaciones de RTID, incluidas las fotos recopiladas. Los 'Datos detallados del dispositivo' no muestran ningún registro de ninguna actividad adicional para el iPhone después de las 8:03:43 pm. No vimos evidencia de datos de actividad del dispositivo a las 11:55 p.m. cuando Uber dijo que recibió una respuesta a la verificación de identificación emitida anteriormente.
La experiencia de Pa y Aweso fue muy frecuente durante el año pasado y representó un volumen significativo de casos manejados por Worker Info Exchange y App Drivers & Couriers Union. En Londres, Transport for London tendió a revocar de inmediato las licencias de los conductores que, según se informó, no aprobaron los controles RTID de Uber a pesar de los problemas obvios con el sistema. A menudo, existen explicaciones razonables para el uso de varios dispositivos que se clasifican automáticamente como fraude. La propia política de privacidad de Uber indica que cuando un dispositivo tiene la aplicación abierta en segundo plano o en primer plano, incluso si no está en línea y está lista para aceptar tarifas. En más de una docena de casos en los que apoyamos que los conductores apelaran sus revocaciones en el Tribunal de Magistrados, se confirmó cada apelación y se ordenó a TfL que restableciera las licencias.
Worker Info Exchange, Big Brother Watch y App Drivers & Couriers Union escribieron una carta conjunta al alcalde de Londres para plantear nuestras preocupaciones sobre la confianza de Transport for London en pruebas defectuosas de Uber para tomar una decisión de revocación y exigieron que, como presidente de Transportes para la junta de Londres, que ordene una revisión de todas esas revocaciones injustas. Hasta la fecha, ni el alcalde ni TfL han respondido.
Gestión del rendimiento opaco
La opacidad de las empresas de plataformas inhibe la comprensión de los trabajadores sobre cómo se puede integrar el control algorítmico en la gama de procesos críticos y a lo largo del tiempo. Por ejemplo, a los trabajadores no se les ha proporcionado la transparencia a la que tienen derecho legalmente para comprender cómo el perfil de desempeño se relaciona con la calidad y cantidad del trabajo ofrecido, así como con los rendimientos esperados para dicho trabajo.
En el caso de Ola, tenemos cierto conocimiento de las categorías de datos que recopilan y procesan en sus sistemas de asignación de trabajo, como puntajes de probabilidad de fraude, perfil de ganancias, historial de aceptación y cancelación de reservas, entre otros, sin embargo, esto no revela las diferentes ponderaciones. aplicado a estas variables, ni la lógica de procesamiento.
Uber ha sostenido durante mucho tiempo que su sistema de emparejamiento está determinado únicamente por la ubicación, a pesar de que su propia interfaz "Partner-Driver" sugiere lo contrario. El programa Pro de Uber (en el que los conductores se inscriben automáticamente para que puedan ser incentivados a cumplir los objetivos de rendimiento a cambio de beneficios y recompensas) informa a los conductores en un lenguaje vago que “las tasas de confirmación más altas significan tiempos de espera más cortos para los clientes y tiempos de recogida más cortos para todos conductores ”, aludiendo vagamente al hecho de que la disminución de puestos de trabajo resultará en menos ofertas de trabajo.