Aprender con copiloto encendido: Anthropic alerta de una caída del 17 % en comprensión al usar IA

La carrera por “programar más rápido” con asistentes de Inteligencia Artificial está dejando una sombra incómoda sobre la mesa: qué ocurre con las habilidades cuando el objetivo no es producir, sino aprender. Un nuevo estudio de Anthropic —la compañía detrás de Claude— apunta a un trade-off que muchas empresas intuían, pero pocas habían medido con un experimento controlado: la asistencia de IA puede acelerar ligeramente el trabajo… a costa de entender menos lo que se está construyendo.

El trabajo se basa en un ensayo controlado aleatorizado con 52 ingenieros de software (en su mayoría perfiles junior) que debían aprender una librería nueva de Python: Trio, centrada en programación asíncrona. La mitad realizó las tareas con un asistente de IA integrado en el entorno; la otra mitad, sin IA. Tras completar ejercicios guiados, todos pasaron un test de comprensión diseñado para medir competencias consideradas críticas en una era de código cada vez más asistido: depuración (debugging), lectura de código y comprensión conceptual.

El titular que destaca el propio estudio es claro: el grupo con IA obtuvo un 17 % menos de “maestría”. Y ese golpe no vino acompañado de una ganancia de velocidad que justificase el peaje.

Resultados: casi el mismo tiempo, mucha menos comprensión

Según Anthropic, quienes usaron IA terminaron unos 2 minutos antes de media, pero la diferencia no fue estadísticamente significativa. En cambio, la brecha en el test sí lo fue: el grupo con IA promedió un 50 %, frente al 67 % del grupo que programó “a mano”. Dicho de otra forma: más dependencia de la herramienta no significó más aprendizaje, y el incremento de productividad no compensó la pérdida de comprensión.

Lo más relevante, además, no está solo en la nota global. La mayor distancia apareció en debugging, justo la habilidad que, en teoría, debería convertirse en el “cinturón de seguridad” cuando parte del código lo sugiere o lo genera una IA. Si el profesional no identifica con rapidez cuándo el código es incorrecto y por qué, el coste se paga después: revisiones superficiales, fallos en producción, problemas de seguridad y un mantenimiento más caro.

Tabla rápida del experimento

IndicadorGrupo con IAGrupo sin IA
Participantes52 (divididos en dos grupos)52 (divididos en dos grupos)
Tiempo de finalización~2 minutos más rápido (no significativo)
Nota media del test50 %67 %
Mayor brechaDepuración (debugging)Mejor rendimiento en debugging

La clave no es “usar IA”, sino cómo se usa

El estudio no concluye que la IA sea intrínsecamente perjudicial. Lo que sostiene es más específico: el modo de interacción marca la diferencia entre “aprender con IA” y “delegar el pensamiento en la IA”.

Para analizarlo, los investigadores revisaron grabaciones y clasificaron patrones de uso. Un hallazgo llamativo es el tiempo dedicado a “conversar” con la herramienta: algunos participantes emplearon hasta 11 minutos —cerca de un tercio del tiempo disponible— redactando hasta 15 consultas. Ese detalle ayuda a explicar por qué el “boost” de productividad no fue tan grande: cuando el objetivo es aprender algo nuevo, la IA puede convertirse en un canal adicional de fricción, no en un atajo.

Anthropic identificó seis patrones de interacción, tres asociados a resultados bajos y tres a puntuaciones altas. Los que peor salieron comparten un elemento: sustituir el razonamiento propio por generación o depuración delegada.

Patrones asociados a bajo rendimiento (delegación):

  • Delegación total: pedir el código final y limitarse a integrarlo.
  • Dependencia progresiva: empezar preguntando poco y terminar cediendo todo el trabajo.
  • Depuración delegada: usar a la IA para verificar o arreglar en lugar de entender el error.

Patrones asociados a mejor rendimiento (IA como apoyo cognitivo):

  • Generar y luego comprender: pedir código, pero forzar después explicación, revisión y comprobación propia.
  • Generación + explicación: solicitar soluciones con razonamiento detallado.
  • Consulta conceptual: preguntar por conceptos y escribir el código con ese marco mental, aceptando “atascos” y errores como parte del aprendizaje.

La lectura entre líneas es significativa para cualquier equipo técnico: si el asistente se usa como sustituto, se aprende menos; si se usa como tutor, el aprendizaje se preserva mejor, aunque no sea el camino más rápido.

Por qué esto preocupa a las empresas: la supervisión humana se vuelve más cara

La industria está entrando en una etapa en la que el desafío no es “escribir líneas”, sino supervisar sistemas. En ese contexto, la degradación de habilidades como debugging no es anecdótica: es un problema de gobernanza técnica. Si los perfiles en formación aprenden a “cerrar tareas” sin construir comprensión, el riesgo es doble:

  1. A corto plazo, aumenta la probabilidad de errores no detectados (especialmente en trabajos con dependencias complejas, concurrencia o seguridad).
  2. A medio plazo, se debilita el pipeline que convierte juniors en seniors capaces de liderar arquitectura, incident response y revisiones exigentes.

El estudio de Anthropic no entra a cuantificar impactos en empleo, pero el debate conecta con una tendencia más amplia que sí aparece en investigaciones de mercado laboral. Un informe del Stanford Digital Economy Lab observa que, tras la adopción generalizada de herramientas de IA generativa, los trabajadores de 22 a 25 años en ocupaciones muy expuestas a automatización muestran un descenso relativo del 13 % en empleo (según su análisis con datos administrativos en EE. UU.). Eso no prueba causalidad directa ni explica por sí solo el fenómeno, pero refuerza la preocupación: si cae la contratación de entrada y, además, aprender con IA se gestiona mal, el sistema puede quedarse sin cantera.

Recomendaciones prácticas: IA en “modo aprendizaje” no es IA en “modo producción”

Para un medio técnico, el valor del estudio está en su traducción operativa. Varias prácticas emergen como “mínimo viable” para evitar que la herramienta sustituya la formación:

  • Separar políticas por contexto: cuando se aprende una librería o un framework nuevo, priorizar preguntas conceptuales y explicaciones; cuando se ejecuta trabajo repetitivo conocido, permitir generación más directa.
  • Regla de oro en reviews: si se pega código generado, exigir una explicación breve de flujo, supuestos y puntos de fallo. No como castigo, sino como control de calidad.
  • Entrenar debugging sin red: reservar sesiones o tareas donde la depuración se haga sin asistente, igual que se entrenan simulacros de incidentes.
  • Promover “errores útiles”: el grupo sin IA cometió más fallos, pero ese coste parece estar relacionado con mayor aprendizaje: arreglar errores propios consolida comprensión.

Anthropic, de hecho, lo formula con un mensaje poco habitual en el marketing de copilotos: la productividad no es un atajo hacia la competencia, sobre todo cuando el trabajo consiste en adquirir habilidades nuevas.


Preguntas frecuentes

¿Significa esto que los asistentes de IA hacen “peores” a los programadores?
No necesariamente. El estudio sugiere que el impacto depende del uso: delegar la solución tiende a reducir comprensión; usar la IA para preguntar y entender puede preservar el aprendizaje.

¿Por qué la depuración (debugging) es el área más afectada?
Porque depurar exige construir un modelo mental del sistema y validar hipótesis. Si la IA asume ese rol, el cerebro entrena menos esa capacidad, justo la más necesaria para supervisar código asistido.

¿Qué política simple puede aplicar una empresa mañana mismo?
Definir un “modo aprendizaje” (IA como tutor: explicaciones, preguntas conceptuales) y un “modo producción” (IA como acelerador en tareas conocidas), además de exigir explicación del código en revisiones cuando se use generación automática.

¿Este resultado aplica a cualquier situación de programación con IA?
El estudio mide aprendizaje a corto plazo con una librería concreta (Trio) y una muestra limitada. Es una señal sólida, pero no una sentencia universal: el efecto puede variar según experiencia, tipo de tarea y disciplina del equipo.

vía: anthropic

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×