La Inteligencia Artificial ya no solo cambia cómo se programan aplicaciones, se atienden clientes o se revisan contenidos. También empieza a redefinir los límites legales de la automatización laboral. Un tribunal de Hangzhou ha dado la razón a un trabajador despedido después de que su empresa alegara que su puesto podía ser sustituido por IA, una decisión que llega en un momento en el que muchas compañías tecnológicas están usando modelos generativos y agentes para reducir tareas humanas repetitivas.
El caso no convierte a China en un país donde sea imposible despedir por cambios tecnológicos. La lectura es más fina: una empresa no puede presentar la adopción de IA como si fuera una causa externa, imprevisible e inevitable que justifica por sí sola una rebaja salarial o la ruptura del contrato. Para el sector tech, la sentencia introduce una idea incómoda pero necesaria: automatizar es una decisión de negocio, y sus costes no pueden recaer siempre sobre el trabajador.
El caso Zhou: cuando el humano entrena a su sustituto
El trabajador, identificado como Zhou, tenía 35 años y trabajaba en una compañía tecnológica de Hangzhou en tareas de control de calidad de modelos de IA. Su función consistía en revisar interacciones entre usuarios y sistemas de Inteligencia Artificial, comprobar la calidad de las respuestas, filtrar errores y detectar contenidos que pudieran incumplir normas internas o legales. Es decir, realizaba una de esas tareas humanas que han sido esenciales para mejorar productos basados en modelos generativos.
La empresa argumentó que el proyecto en el que trabajaba se había visto afectado por la evolución de la IA y propuso recolocarlo en un puesto inferior, con una reducción de salario de 25.000 a 15.000 yuanes mensuales. Zhou rechazó el cambio. La compañía acabó comunicándole la rescisión del contrato y el caso terminó en arbitraje laboral, primera instancia judicial y apelación. En todas las fases, el trabajador obtuvo respaldo.
El tribunal consideró que la empresa había incurrido en despido ilegal y confirmó una compensación de más de 260.000 yuanes. La clave está en la interpretación de la legislación laboral china: la compañía intentó encajar la automatización dentro de una “modificación sustancial de las circunstancias objetivas” que hacía imposible mantener el contrato, pero los jueces no aceptaron ese argumento.
La razón es relevante para cualquier empresa que esté desplegando IA en operaciones internas. Introducir un modelo para reducir costes, mejorar productividad o reemplazar parte de una función no es comparable a una catástrofe natural, un cambio regulatorio inesperado o una situación de fuerza mayor. Es una elección empresarial. Puede ser legítima, incluso necesaria desde el punto de vista competitivo, pero no convierte automáticamente al puesto humano en prescindible sin garantías.
La automatización como decisión de arquitectura empresarial
La sentencia de Hangzhou conecta con una realidad que las empresas tecnológicas conocen bien. La IA se está integrando en flujos de trabajo que antes dependían de operadores humanos: revisión de datos, moderación de contenido, soporte técnico, clasificación de tickets, generación de informes, programación, QA, traducción, documentación y análisis de incidencias.
En muchos casos, esos sistemas no aparecen de la nada. Se entrenan, ajustan y evalúan con trabajo humano. Los empleados documentan procesos, corrigen salidas, construyen ejemplos, etiquetan datos, detectan fallos y ayudan a convertir una tarea ambigua en un flujo que un modelo puede repetir. La paradoja es evidente: parte de la plantilla contribuye a crear el sistema que luego se usa para justificar su degradación o salida.
Para un medio tecnológico, el caso Zhou debería leerse también desde la óptica de la gobernanza de IA. Automatizar un puesto no es solo conectar una API, desplegar un agente o integrar un modelo en un panel interno. Implica rediseñar procesos, modificar responsabilidades, cambiar métricas de rendimiento y decidir qué ocurre con las personas que sostenían ese flujo antes de la automatización.
Ahí está el punto de fricción. Muchas empresas venden la IA como aumento de productividad, pero la gestionan como sustitución laboral. Hablan de “copilotos” mientras planifican reducciones de plantilla. Piden a sus equipos que documenten tareas para mejorar el sistema, pero no siempre ofrecen formación, movilidad interna o participación en el valor generado. La sentencia china no frena la tecnología, pero recuerda que la eficiencia no elimina las obligaciones laborales.
Una señal para RR. HH., producto y compliance
Hasta ahora, gran parte de la conversación sobre IA y empleo se ha centrado en sesgos algorítmicos, vigilancia laboral o uso de sistemas automatizados en procesos de selección. Todo eso importa, pero el caso de Hangzhou abre otra línea: qué ocurre cuando la empresa usa IA como fundamento operativo para eliminar un puesto concreto.
La respuesta del tribunal apunta a una doctrina práctica. Primero, la empresa debe justificar la reorganización con algo más sólido que “la IA ya puede hacerlo”. Segundo, cualquier cambio de puesto o salario debe ser razonable y negociado. Tercero, la formación y la recolocación interna deben considerarse antes de trasladar el coste íntegro al empleado. Cuarto, la reducción salarial no puede disfrazarse de modernización tecnológica si en realidad funciona como una presión para forzar la salida.
Para los departamentos de RR. HH. y compliance, esto tiene implicaciones directas. Los proyectos de automatización deberían incorporar evaluación de impacto laboral, no solo cálculo de retorno de inversión. Si una compañía implanta agentes para atención al cliente, QA o soporte interno, necesita definir qué tareas se eliminan, cuáles cambian, qué perfiles se reentrenan, qué métricas se aplican y qué alternativas se ofrecen.
En empresas con fuerte exposición a IA, esta capa de gobernanza será tan importante como la seguridad del modelo o la protección de datos. Un sistema puede ser técnicamente correcto y aun así generar un conflicto laboral si su despliegue se usa para degradar condiciones de forma unilateral. El riesgo no está solo en una demanda individual; también está en la pérdida de confianza de equipos que perciben que colaborar con la automatización equivale a acelerar su propia salida.
China, Estados Unidos y Europa: tres enfoques distintos
El contraste internacional es llamativo. En Estados Unidos, buena parte del mercado laboral funciona bajo el principio de empleo “at will”, que permite despedir sin una causa específica siempre que no se vulneren protecciones concretas, como discriminación o represalias ilegales. No existe una norma federal general que impida sustituir a un empleado por una herramienta de IA.
Europa se mueve en otra dirección, pero tampoco ha resuelto por completo este punto. El Reglamento de Inteligencia Artificial clasifica como de alto riesgo ciertos sistemas usados en empleo, gestión de trabajadores y acceso al autoempleo, lo que obligará a controles, documentación, gestión de riesgos y supervisión humana. Pero la protección concreta frente a despidos por automatización seguirá dependiendo en gran medida del derecho laboral de cada país, la negociación colectiva y la interpretación judicial.
China, al menos en este caso y en otros similares conocidos en Beijing y Guangzhou, está dibujando una frontera desde el derecho laboral clásico: la IA no es una causa objetiva externa por sí misma. Es una tecnología que la empresa decide adoptar para competir, ahorrar costes o reorganizar procesos. Por tanto, la empresa debe asumir parte del coste de transición.
Este enfoque puede tener consecuencias en el mercado. Si los tribunales consolidan esa interpretación, las compañías chinas tendrán más incentivos para diseñar planes de reconversión, recolocación y formación antes de automatizar puestos. También puede hacer que los proyectos de IA interna tengan que justificar mejor su impacto organizativo. En lugar de vender la automatización como un ahorro inmediato de nóminas, las empresas tendrán que calcular costes de adaptación, compensación y gestión del cambio.
El coste real de reemplazar personas por IA
El caso también cuestiona una premisa habitual: que la IA siempre es más barata que una persona. En tareas simples y a baja escala, puede parecerlo. Pero en entornos empresariales reales aparecen costes menos visibles: infraestructura, licencias, consumo de tokens, integración, supervisión humana, evaluación, ciberseguridad, cumplimiento normativo, mantenimiento de prompts, auditoría, corrección de errores y responsabilidad ante clientes.
Además, muchos sistemas de IA no eliminan completamente el trabajo humano. Lo desplazan. Una parte de las tareas desaparece, otra se convierte en supervisión, otra exige intervención ante excepciones y otra se transforma en mantenimiento del propio sistema. Si se recorta demasiado rápido, la empresa puede perder conocimiento operativo justo cuando más lo necesita para validar que la automatización funciona.
Para el sector tech, la lección es clara. La IA no debería desplegarse como sustituto barato sin rediseño serio del proceso. Si se usa bien, puede liberar a equipos de tareas repetitivas, mejorar tiempos de respuesta y aumentar calidad. Si se usa mal, puede degradar condiciones, romper confianza interna y crear sistemas frágiles que dependen de una automatización que nadie entiende del todo.
La sentencia de Hangzhou no detiene la llegada de agentes, copilotos y flujos automatizados. Pero introduce una pregunta que ninguna empresa debería esquivar: quién captura el valor de la productividad generada por IA y quién paga el coste de la transición. Durante años, la respuesta implícita ha sido que la empresa captura el ahorro y el trabajador asume el riesgo. Este caso sugiere que, al menos en algunos tribunales, esa respuesta empieza a ser insuficiente.
La próxima fase de la Inteligencia Artificial en la empresa no será solo técnica. Será organizativa, legal y social. Los modelos serán mejores, los agentes harán más tareas y muchas funciones cambiarán. Pero si la automatización se construye sobre trabajadores que entrenan sistemas para luego ser descartados sin alternativas, el problema no será de eficiencia. Será de legitimidad.
Preguntas frecuentes
¿China ha prohibido despedir empleados por Inteligencia Artificial?
No de forma general. Lo que ha ocurrido es que tribunales chinos han considerado ilegal usar la adopción de IA como única justificación para degradar, reducir salario o despedir a un trabajador sin una causa objetiva suficiente.
¿Qué hizo exactamente la empresa del caso Zhou?
Propuso mover a Zhou, supervisor de control de calidad de modelos de IA, a un puesto inferior con una rebaja salarial de 25.000 a 15.000 yuanes mensuales. Al rechazarlo, fue despedido. Los tribunales dieron la razón al trabajador.
¿Qué implica esto para las empresas tecnológicas?
Que los proyectos de automatización deben acompañarse de análisis de impacto laboral, negociación, formación, recolocación razonable y documentación. La IA no debería usarse como excusa automática para recortar plantilla.
¿Puede aplicarse una doctrina similar en Europa?
Dependerá de cada país. La UE regula ciertos usos de IA en empleo como sistemas de alto riesgo, pero la protección concreta frente al despido por automatización se decidirá con las leyes laborales nacionales y la jurisprudencia.