IA & Empleo 21 Oct 2025
El burnout invisible de los que entrenan a la IA
En la era de la inteligencia artificial generativa, no todo el trabajo que permite su existencia es técnico o glamuroso. Detrás de cada respuesta de un chatbot, de cada imagen generada o de cada modelo “inteligente”, hay personas reales que etiquetan datos, moderan contenido, corrigen errores y supervisan sesgos. Personas que trabajan en silencio, bajo presión, expuestas a contenidos extremos y con salarios bajos. Este artículo aborda una realidad incómoda: la IA no sería posible sin una fuerza laboral invisible que ya está al borde del agotamiento, y acaba de empezar!
Cristina Gómez
Cuando la inteligencia artificial necesita más humanidad de la que reconoce
1. ¿Quiénes son “los que entrenan la IA”?
Cuando hablamos de inteligencia artificial, solemos pensar en ingenieros, científicos de datos o grandes laboratorios tecnológicos. Pero detrás del rendimiento de estos sistemas hay una red global de trabajadores humanos encargados de entrenarlos, corregirlos y mantenerlos alineados. Son quienes hacen que la IA “parezca inteligente”.
¿Qué tareas realizan?
Estas personas no diseñan algoritmos ni escriben código. Realizan tareas como:
- Etiquetar datos: asignar categorías a imágenes, sonidos o textos.
- Moderar contenido: revisar material para filtrar violencia, odio o lenguaje ofensivo.
- Evaluar respuestas generadas por IA: marcar si son útiles, erróneas o sesgadas.
- Corregir sesgos: detectar estereotipos o errores lógicos.
- Anotar lenguaje oral: transcribir audios y marcar matices del habla.
La mayoría de estas personas realizan tareas para plataformas que alimentan y entrenan sistemas de inteligencia artificial, a menudo sin un contrato estable ni condiciones laborales definidas, algunos ejemplos;
- Sama: subcontratada por OpenAI, conocida por su caso en Kenia, donde moderadores ganaban entre 1,46 y 3,74 USD por hora mientras filtraban contenido traumático.
- Appen: proveedor global de datos para IA, que reconoce en sus propios informes los desafíos en escalabilidad, calidad y carga laboral.
- Scale AI: actualmente bajo investigación del Departamento de Trabajo de EE.UU. por posibles condiciones laborales injustas hacia las personas que clasifican datos para entrenar sistemas de inteligencia artificial.
- Amazon Mechanical Turk: plataforma de microtareas que permite externalizar trabajos de clasificación y revisión de datos a gran escala; sus condiciones varían, pero es comúnmente utilizada para entrenar modelos de inteligencia artificial.
Estos trabajadores son esenciales, porque sin ellos, la inteligencia artificial no funciona.
Por mucho que hablemos de modelos “autónomos” o “autosuficientes”, la realidad es que el aprendizaje automático depende de una base estructurada de datos revisados por humanos. Y no solo una vez: se necesita una revisión constante, cuidadosa y precisa para que los sistemas mejoren, se mantengan seguros y aprendan a interactuar con el mundo real de forma coherente. Ellos son lo que:
- Enseñan a un modelo qué está bien y qué está mal.
- Corrigen respuestas problemáticas o sin sentido.
- Filtran contenido dañino antes de que llegue a nosotros.
- Aportan contexto cultural y lingüístico que la IA por sí sola no capta.
- Evalúan el funcionamiento del sistema según criterios humanos, no sólo estadísticos.
Os expongo algunos ejemplos:
- Si un chatbot responde con una frase discriminatoria o falsa, alguien debe marcarlo y sugerir una mejor respuesta. Ese alguien no es el algoritmo, es una persona.
- Si un sistema de visión artificial debe distinguir entre una pistola de juguete y una real, necesita miles de imágenes previamente clasificadas por humanos.
- Si una IA genera contenido ofensivo, no basta con “entrenarla”, hay que enseñarle, caso por caso, por qué está mal y cómo evitarlo. Eso también lo hace una persona.
Aunque sin su trabajo, la IA no sería segura, ni fiable, irónicamente, cuanto mejor hacen su tarea, menos visibles se vuelven. Porque cuando una IA “funciona bien”, nadie piensa en quienes corrigieron sus errores, ni en quienes la guiaron durante miles de interacciones.
Se invisibiliza su aporte, aunque es estructural.
En resumen: sin este trabajo humano, no hay IA ética, no hay IA útil, y no hay IA que podamos confiar.
2. ¿Por qué se produce el burnout en estos empleados?
El burnout —ese agotamiento físico, emocional y mental provocado por el trabajo— no aparece de la nada. En quienes colaboran entrenando o moderando sistemas de inteligencia artificial, se acumula de forma silenciosa pero constante, alimentado por cinco factores clave.
Exposición prolongada a contenido traumático
Muchas de estas personas deben revisar material sensible: violencia explícita, discursos de odio, abuso infantil, contenido sexual o racista. Lo hacen día tras día, durante horas, sin acompañamiento psicológico ni preparación emocional.
Aunque su tarea es “limpiar” los datos que alimentan la IA, nadie limpia después lo que esa exposición deja en su salud mental.
Tareas repetitivas y métricas inhumanas
El trabajo es altamente repetitivo. Un mismo gesto, una misma evaluación, cientos de veces al día. Y todo se mide: velocidad, exactitud, cantidad. Las plataformas establecen cuotas rígidas, y si no se cumplen, simplemente se deja de asignar trabajo. Esto crea una presión constante, con nulo margen para la pausa o el error.
Inseguridad y falta de protección
La mayoría de estos trabajadores no tiene contrato fijo ni acceso a seguridad social, vacaciones pagadas o protección ante despidos. Pueden ser desconectados del sistema sin aviso, sin explicación y sin derecho a réplica. Esto refuerza una sensación permanente de precariedad e invisibilidad.
Aislamiento y falta de reconocimiento
Muchos trabajan desde casa, en soledad, sin compañeros ni supervisión humana cercana. No hay equipo, ni cultura laboral, ni reconocimiento. Tampoco figuran en las presentaciones corporativas ni en los papers de investigación. Es trabajo esencial, pero anónimo.
Confusión entre impacto y valor
Aunque saben que su trabajo es fundamental para que la IA funcione correctamente, rara vez reciben un trato acorde a ese impacto. Esta desconexión entre la importancia del trabajo y el valor que se les asigna genera una tensión interna que mina l
a motivación y deteriora la autoestima profesional.
3. Casos reales: cuando el coste humano de la IA deja de ser invisible
Aunque a menudo se presente como una industria limpia, innovadora y “sin fricción”, la inteligencia artificial se apoya sobre cadenas de trabajo humano que están lejos de ser justas o transparentes. Los siguientes casos documentados demuestran cómo este modelo opera en distintos países y contextos, pero repite patrones de precariedad, invisibilidad y desgaste psicológico.
Kenia: la moderación de contenido en el corazón de la IA generativa
En 2023, una investigación de The Guardian sacó a la luz el caso de más de 3.000 trabajadores en Nairobi, contratados por la empresa Sama para colaborar con OpenAI. Su tarea era filtrar contenido extremadamente perturbador —como descripciones de violencia sexual, tortura o discurso de odio— durante el entrenamiento de modelos como ChatGPT.
A cambio, recibían entre 1,46 y 3,74 dólares por hora, sin asistencia psicológica profesional ni condiciones laborales estables. Muchos desarrollaron síntomas de ansiedad, insomnio y estrés prolongado debido a la exposición continua a contenido traumático. Algunos fueron despedidos tras intentar sindicalizarse o denunciar las condiciones de trabajo.
Este caso reveló que la IA generativa no se entrena sola: necesita de personas que asuman el coste emocional que las máquinas no pueden gestionar.
Estados Unidos: trabajo precario en el corazón del primer mundo
La precariedad no es exclusiva del sur global. En EE.UU., un estudio de la Communication Workers of America (CWA) y TechEquity Collaborative demostró que muchos trabajadores que preparan datos para IA sufren condiciones igualmente vulnerables.
El informe, basado en encuestas a trabajadores de plataformas como Scale AI y Mechanical Turk, reveló que:
- El 86 % tenía dificultades para cubrir gastos básicos.
- El 25 % dependía de ayudas públicas.
- El salario medio rondaba los 15 USD/hora, con pagos irregulares y sin protección social.
Muchos reportaron además tiempos de espera no remunerados y una presión constante por cumplir métricas sin garantías de continuidad laboral.
Industria global: subcontratación, vigilancia y anonimato
Más allá de casos puntuales, el problema es sistémico. Un informe de Data & Society (2024) advierte que el sector de preparación de datos para IA crece a un ritmo del 25 % anual, pero lo hace sobre un modelo laboral fragmentado y opaco.
El estudio identifica prácticas recurrentes en múltiples países y plataformas:
- Externalización en cascada: una empresa subcontrata a otra, que a su vez terceriza en plataformas con poca o ninguna supervisión.
- Vigilancia algorítmica del rendimiento: se mide cada clic, tiempo de respuesta y error como si el trabajador fuera un componente más del sistema.
- Desconexión total del producto final: quienes realizan las tareas jamás ven cómo se usan sus datos, ni reciben feedback ni reconocimiento.
Este ecosistema permite desarrollar tecnologías punteras a bajo coste, pero traslada los riesgos y el desgaste al último eslabón: las personas que hacen el trabajo invisible.
4. Invisibles por diseño: cómo se borra a quienes hacen posible la IA
El trabajo humano detrás de la inteligencia artificial no es invisible por accidente. Es una invisibilidad planificada, estructural y funcional al negocio. Estas personas existen, pero no aparecen. No se nombran en las notas de prensa, no figuran en las presentaciones de producto y casi nunca se menciona su rol en artículos académicos. ¿Por qué?
Porque estorban al relato tecnológico
La narrativa que vende la IA como un producto mágico y autónomo se debilita si se reconoce que, en realidad, necesita a miles de personas haciendo tareas repetitivas y mal pagadas para funcionar correctamente. Mostrar a los entrenadores humanos rompe la ilusión de que los sistemas “aprenden solos”.
Porque visibilizarlos implica reconocer derechos
Si admites que hay personas trabajando horas para entrenar tu modelo, también deberías garantizarles condiciones laborales dignas, salarios justos, apoyo emocional y un marco de protección legal. Y eso supone asumir costes y responsabilidades que muchas empresas quieren evitar.
Porque la cadena de trabajo se fragmenta a propósito
En muchos casos, estas tareas se subcontratan a otras empresas, que a su vez recurren a plataformas intermedias, que a su vez conectan con trabajadores en países con escasa regulación. Esta cadena fragmentada impide que alguien se haga responsable del conjunto, y diluye las obligaciones éticas y legales.
Porque el reconocimiento los humanizaría
Nombrar a quienes entrenan los modelos es darles rostro. Y darles rostro es darles dignidad. En un entorno obsesionado con la eficiencia y la automatización, reconocer la humanidad detrás de los sistemas puede resultar incómodo. Pero es necesario.
La inteligencia artificial está transformando el mundo, pero esa transformación no es neutra ni automática. Cada modelo que responde con fluidez, cada imagen que genera una IA, cada sistema que “entiende” nuestras palabras, es el resultado de miles de horas de trabajo humano. Trabajo que no se ve. Trabajo que no se reconoce. Trabajo que desgasta.
La paradoja es clara: queremos construir máquinas cada vez más inteligentes, pero lo hacemos a costa de personas sometidas a tareas repetitivas, condiciones inestables y exposición constante a contenidos dañinos. Las llamamos “colaboradores”, pero las tratamos como piezas descartables de una cadena que prefiere la eficiencia al cuidado.
Si seguimos ignorando este componente humano, la inteligencia artificial no será más justa, ni más ética, ni más confiable. Será solo una tecnología sofisticada construida sobre desigualdad, precariedad y agotamiento emocional.
Humanizar la IA no es solo una cuestión de diseño o resultados. Es también una cuestión de cómo se construye, quién la hace posible y en qué condiciones se realiza ese trabajo.
La automatización no debería avanzar pisando derechos laborales ni silenciando voces.
Porque si los humanos que entrenan a la IA se queman, lo que estamos desarrollando no es inteligencia… es indiferencia.
- The Guardian (2023) – ChatGPT content moderators reveal trauma and low pay in Kenya
- CWA/TechEquity (2025) – Ghost Workers: Labor Conditions for AI Data Workers in the U.S.
- Data & Society (2024) – Generative AI and Labor: A Primer
- Time Magazine – Inside the dirty secret of AI training pipelines
- Appen – State of AI and Data Report 2024
- SiliconAngle – Scale AI faces labor investigation (2025)
#IA #TrabajoInvisible #GhostWorkers #BurnoutDigital #EntrenamientoIA
#ÉticaTecnológica #InteligenciaArtificial #TrabajoJusto #ResponsabilidadCorporativa
#DatosConConciencia #AIForHumans