Publicada

"Cualquier tecnología suficientemente avanzada es indistinguible de la magia". La célebre tercera ley formulada por el escritor de ciencia ficción Arthur C. Clarke, autor entre otras de 2001, una odisea en el espacio, tiene mucho de cierto.

Sin embargo, detrás de esa 'magia', ya sea la conducción autónoma de los robotaxis de Waymo, los movimientos de los robots humanoides o las respuestas de modelos de IA como ChatGPT, las compañías tecnológicas esconden verdaderos ejércitos de trabajadores remotos, a menudo en condiciones precarias y encargados de tareas que pueden causar graves problemas psicológicos.

El caso de la subsidiaria de Alphabet (matriz de Google) dedicada a la fabricación y gestión de coches autónomos ha sido el último en salir a la luz. Tras varias polémicas e incidentes, como el atropello de un niño cerca de un colegio, el Senado de EEUU citó la semana pasada a directivos de Waymo y Tesla para abordar los potenciales peligros y la necesidad de regulación de la conducción autónoma.

Durante el interrogatorio, Mauricio Peña, director de seguridad de Waymo, confirmó lo que ocurre cuando uno de sus vehículos se encuentra con una situación que no puede resolver de forma independiente: recurre a un operador humano de asistencia remota, que se encarga de resolver el entuerto.

La sorpresa fue aún mayor cuando Peña se vio obligado a desvelar dónde trabajan algunos de estos operadores remotos: Filipinas. Varios senadores criticaron la falta de información pública sobre estos trabajadores, a pesar de su papel en la seguridad de los vehículos.

Un coche de Waymo circulando por autopista Waymo Omicrono

Peña matizó que "proporcionan orientación, pero Waymo siempre se encarga de la conducción", sin precisar más detalles ni contestar a algunas de las dudas planteadas por los senadores. El ejemplo que ponen desde la compañía sobre esta 'orientación' es sugerir una ruta alternativa si una calle está cortada.

Más allá de las vulnerabilidades de seguridad que eso implica, lo que revela esta práctica es una realidad oculta a ojos del gran público que afecta a millones de personas: el llamado 'trabajo fantasma', mal pagado y a menudo degradante, que realizan a diario para que las tecnológicas presenten sus avances en automatización como si no hubiera humanos implicados en la retaguardia.

Coches no tan autónomos

La tecnología detrás de los coches autónomos es mucho más compleja de lo que empresarios como Elon Musk llevan afirmando desde hace años, dando por hecho que los automóviles sin conductor llegarían en poco tiempo. A día de hoy, la llegada a nuestras ciudades del nivel 5 de autonomía, sin ninguna supervisión humana, todavía queda lejos.

Por mucho que sorprendan las crecientes capacidades de los vehículos, sus 'habilidades' para circular en escenarios reales descansan sobre millones de horas de trabajo humano invisible: no sólo de estos operadores remotos de Waymo (conocidos como fleet response agents), sino de los anotadores y etiquetadores de datos que alimentan, corrigen y contextualizan la información que cada máquina capta en la calle.

Los etiquetadores de datos preparan y corrigen los sistemas de conducción autónoma Freepik Omicrono

De hecho, hay empresas que se dedican específicamente al etiquetado para automoción, marcando manualmente carriles, peatones, señales, bicicletas, obras, coches mal aparcados o situaciones límite en millones de imágenes y nubes de puntos de LIDAR, la tecnología de detección que usa pulsos de luz láser para medir distancias con extrema precisión.

Este trabajo, repetitivo y alienante, se suele externalizar a proveedores de países con salarios muy bajos, con pagos por hora o por tarea. Su misión, más allá de entrenar el sistema de percepción inicial, también pasa por revisar incidentes, analizar errores del coche y suministrar ejemplos adicionales cada vez que el modelo falla en una nueva situación.

El mayor malentendido sobre los coches autónomos es pensar que son realmente autónomos”, señala Missy Cummings, directora del Centro de Autonomía y Robótica de la Universidad George Mason (Virginia, EEUU), en la web de The Center for Auto Safety, una importante organización sin ánimo de lucro estadounidense que promueve mejoras en la seguridad de los automóviles.

Cummings explica que las capacidades de un vehículo se dividen en "percepción, planificación y actuación", y que en todos esos niveles “los coches tienen dificultades para ver una representación correcta del mundo”.

La cantidad de datos que necesitan procesar estos vehículos para que no se produzcan accidentes lleva a pensar que esta capa de trabajo manual no es un parche temporal, sino un componente estructural del sistema, sostenido por enormes equipos de trabajadores invisibles que permiten alimentar la ilusión de que los coches ven y entienden el mundo.

Y no es algo que afecte solo a esta industria, sino que también resulta imprescindible para los modelos que se están entrenando para mover a los robots humanoides, la clasificación de imágenes satelitales o para seguir mejorando la IA generativa.

El ejército oculto de la IA

La inteligencia artificial que utilizan millones de usuarios a diario en todo el mundo parecía imposible hace solo unos años: la capacidad para responder en cuestión de segundos a cualquier pregunta, incluso las más complejas y especializadas, sigue impactando, a pesar del persistente problema de las alucinaciones.

Pero como sucede con las redes sociales, donde moderadores de contenido tienen que cribar manualmente millones de posts cada minuto para evitar contenidos violentos o sexuales, discursos de odio o todo tipo de actividades ilegales, el entrenamiento de la IA depende de legiones de trabajadores fantasma encargados de etiquetar datos, cuando no suplantar directamente a la IA.

Sam Altman, CEO de OpenAI Europa Press

Desde países como Venezuela, Kenia, Siria o India, estos trabajadores subcontratados con sueldos inferiores a los 10 euros al día se encargan de supervisar y clasificar correctamente todo tipo de atrocidades, de automutilaciones a zoofilia, para evitar que ChatGPT y otras IAs acaben recomendando a un usuario que la mejor solución para evitar problemas con su pareja es asesinarla.

El caso de OpenAI y ChatGPT ha sido uno de los que más revuelo ha causado. Una investigación de la revista Time desveló cómo la compañía subcontrató a Sama (empresa de nombre sospechosamente igual al que usa Sam Altman en redes sociales) para operar en Kenia. Allí, decenas de empleados se encargaban de etiquetar textos e imágenes con abusos infantiles, violaciones, asesinatos o suicidios.

Además de los sueldos precarios, varios trabajadores denunciaban el atroz impacto psicológico causado por la exposición continuada a esos contenidos. Uno de ellos resumía así su jornada: "Pasábamos nueve horas al día leyendo lo peor que puedes imaginar de la mente humana".

Tras la publicación del reportaje, OpenAI aseguró que el trabajo de etiquetado era fundamental, un mal menor para “hacer que los sistemas fueran más seguros” y que “revisaría sus prácticas de abastecimiento de datos y la supervisión de proveedores". El rastro de estas prácticas sigue existiendo, aunque sea invisible para la mayoría.

"La gente no es consciente del trabajo esclavo detrás de la IA", explicó en su día a EL ESPAÑOL - Omicrono Karen Hao, autora de El imperio de la IA, una radiografía afilada como un cuchillo de OpenAI y Sam Altman publicada hace unos meses en España.

"Eso perpetúa en gran medida el mito de que estas tecnologías no implican mano de obra humana. Si las empresas crean y siguen alimentando ese mito, sus modelos de IA parecen mágicos y da la sensación de que la IA se vuelve más inteligente por sí sola, en lugar de tener un gran ejército de personas enseñando a los modelos exactamente qué decir y qué no decir", sostiene Hao.

Pese a la descripción de los horrores de etiquetadoras como Mofat Okinyi, asignada al equipo de contenido sexual con la tarea de revisar 15.000 contenidos al mes, para Hao hay motivos para la esperanza. "Estos trabajadores también se han vuelto mucho más organizados y visibles a la hora de contar sus propias historias".

Suplantando identidades

Asociados en iniciativas como Data Workers' Inquiry, un proyecto colectivo de investigación liderado por la socióloga y doctora en Ciencias de la Computación Milagros Miceli, estos trabajadores están empezando a denunciar públicamente prácticas abusivas y psicológicamente dañinas, pese a los estrictos acuerdos de confidencialidad que les impiden hablar sobre su trabajo incluso con familiares y amigos.

Los más sorprendentes son testimonios como el de Michael Geoffrey Asia, que soñaba con trabajar en logística aeronáutica en Nairobi pero acabó aceptando una oferta de Sama para etiquetar datos para Meta tras varios años desempleado, en un país en el que la tasa de paro juvenil supera el 50 %.

Su labor inicial pasó a ser la 'moderación de chats', un nombre lo suficientemente ambiguo como para esconder otra realidad bien distinta: suplantar identidades ficticias y chatear "con usuarios de pago que creen que están estableciendo conexiones auténticas", tanto amorosas como sexuales.

Chatbot basado en IA generativa de Tinder Tinder Omicrono

Además de engañar a esos usuarios que creen estar intercambiando intimidades con chicas y chicos jóvenes y atractivos, Asia cuenta en un demoledor ensayo que sospechaba algo todavía más perverso: su trabajo estaba sirviendo para entrenar a futuros 'compañeros de IA'. "Estaba entrenando a mi propio sustituto, enseñando a las máquinas a manipular a las personas solitarias de la misma manera en que yo me veía obligado a hacerlo".

Cobrando sólo 0,05 dólares por mensaje, con la exigencia de escribir al menos 40 palabras por minuto, Asia llegó a otra conclusión aún más siniestra. "Quizás los usuarios pensaban que ya habían comprado una novia o novio virtual, y yo era el humano fingiendo ser la máquina fingiendo ser humano".

Este infinito juego de espejos no parece tener final, y vuelve a poner de manifiesto la necesidad de una regulación más estricta a nivel internacional de los límites, usos y condiciones aplicables a las empresas de IA. Es la demostración de que detrás de esta y otras tecnologías no hay ninguna magia, sólo algoritmos cada vez más sofisticados y cantidades ingentes de trabajo humano degradante y mal remunerado.