Malas prácticas con IA 16 Oct 2025

IA generativa: la productividad sube, la calidad baja (y nadie quiere hablar de ello)

La promesa de la inteligencia artificial generativa es tentadora: producir textos, diseños o código en segundos, multiplicar resultados con menos esfuerzo. Pero detrás del entusiasmo, hay una realidad que muchos evitan señalar: a medida que crece la productividad, se desploma la calidad. En este artículo, desgranamos por qué este desequilibrio ya está ocurriendo, con ejemplos verificados, y qué hacer para evitar que la IA nos haga más rápidos… pero peores.

CoFounder Match your Career Cristina Gómez
IA Generativa

La productividad sube y la calidad baja

1. El espejismo de productividad: un ejemplo claro

Un estudio controlado de Microsoft y GitHub demostró que desarrolladores con acceso a GitHub Copilot completaban tareas de programación en JavaScript un 55,8 % más rápido que quienes no lo usaban. Eso confirma que la IA puede acelerar tareas concretas, particularmente las repetitivas o bien delimitadas. (arxiv.org)

Sin embargo, cuando esas tareas requieren conectar ideas, diseñar arquitectura, interpretar requisitos o crear nuevas lógicas, muchas veces la IA falla: genera código fragmentado, soluciones parciales o respuestas plausibles pero incorrectas. El estudio Transforming Software Development: Evaluating the Efficiency and Challenges of GitHub Copilot in Real‑World Projects observó que Copilot rinde bien en tareas de documentación, autocompletado y generación de pruebas unitarias, pero su desempeño decae en funciones complejas o con múltiples archivos. (arxiv.org)

Se gana velocidad en lo superficial, pero no siempre se avanza con solidez.

2. Señales de que la calidad está siendo comprometida

2.1 Alucinaciones y errores factuales: ejemplos reales

Uno de los casos más extremos ocurrió cuando ChatGPT inventó una historia falsa acusando a un ciudadano noruego de haber asesinado a sus propios hijos. Aunque algunos datos coincidían (ciudad, número de hijos), la narrativa era completamente ficticia. El afectado llevó el caso ante la autoridad de protección de datos de Noruega. (noyb.eu)

Otro ejemplo: en una prueba de modelos legales como Lexis+ AI y Ask Practical Law AI, se detectó que estos sistemas generaban respuestas erróneas o citaban casos jurídicos inexistentes en más del 17 % de las consultas. (hai.stanford.edu)

Estos fallos no son técnicos. Son errores de fondo que dañan la confianza, la reputación y la verdad.

2.2 Superficialidad argumentativa

Los textos generados por IA suelen tener estructura correcta y estilo fluido, pero les falta pensamiento. Reproducen frases hechas, omiten matices, evitan contradicciones. Parecen redactados para pasar filtros, no para plantear ideas nuevas. Sirven como borrador, pero no como contenido final de valor.

2.3 Vulnerabilidades en código generado: estudios concretos

Un estudio reciente, “Security Weaknesses of Copilot‑Generated Code in GitHub Projects: An Empirical Study”, analizó 733 fragmentos generados por Copilot. Encontró que 29,5 % de los códigos en Python y 24,2 % en JavaScript contenían vulnerabilidades de seguridad. (arxiv.org)

Otro trabajo titulado “Assessing the Security of GitHub Copilot's Generated Code – A Targeted Replication Study” confirmó que entre 27 % y 40 % de los fragmentos sugeridos por Copilot introducen fallos de calidad o riesgos técnicos. (researchgate.net)

Además, un tercer estudio de GitHub/Microsoft identificó que Copilot tiende a reproducir código con errores conocidos en un 33 % de los casos, mientras que reproduce código corregido solo un 25 % de las veces. (arxiv.org)

Si no hay revisión humana, el coste de los errores puede ser mayor que el tiempo que se ahorra.

3. La trampa de “más trabajo = mejor desempeño”

Cuando una persona produce más gracias a la IA, lo que antes era una excepción se convierte en nuevo estándar. En lugar de reducir la carga laboral, muchas empresas elevan las expectativas: “si con IA puedes hacer más, deberías hacer más”.

Esto crea un efecto de presión inversa: quien no la usa se queda atrás; quien la usa, queda obligado a mantener un ritmo artificial.

Además, la adopción suele ser informal. Según Microsoft, el 71 % de los empleados ya usan herramientas de IA generativa sin aprobación ni supervisión corporativa. (cdn-dynmedia-1.microsoft.com)

Se corre el riesgo de construir entornos laborales acelerados, pero mal controlados.

4. ¿Por qué casi nadie lo admite?

Criticar la IA generativa implica cuestionar una narrativa que vende eficiencia, escalabilidad y progreso. Y sin embargo:

  • Muchos no revisan lo que la IA produce.

  • Los errores quedan ocultos o maquillados.

  • Admitir fallos podría dañar la imagen de empresas y profesionales que la usan como símbolo de modernidad.

Ese silencio es peligroso. Crea una ilusión de fiabilidad que no siempre existe.

5. Cómo usar IA generativa sin renunciar a estándares

  1. Revisión humana real: nunca publicar sin verificar fondo, fuentes y lógica.

  2. Uso estratégico: IA para tareas operativas, no para decisiones críticas o contenido sin revisión.

  3. Estándares de calidad: establecer parámetros técnicos y éticos que los outputs deben cumplir.

  4. Formación crítica: enseñar a usar IA, pero también a identificar sus límites.

  5. Transparencia: aclarar qué partes fueron generadas por IA, y cuáles no.

Conclusión

La IA generativa nos da más contenido, más código, más ideas... pero no garantiza que sean buenas. El desafío no es cuánto podemos automatizar, sino cómo mantener la responsabilidad humana en el centro. La calidad no se mide solo en velocidad.

Fuentes consultadas

  • Microsoft Research – The Impact of AI on Developer Productivity: Evidence from GitHub Copilot

  • Pandey et al. – Transforming Software Development: Evaluating GitHub Copilot

  • Asare et al. – Is GitHub Copilot as Bad as Humans at Introducing Vulnerabilities?

  • Security Weaknesses of Copilot‑Generated Code in GitHub Projects

  • Assessing the Security of GitHub Copilot's Generated Code – A Targeted Replication Study

  • NOYB – AI hallucinations: ChatGPT created a fake child murderer

  • Stanford HAI – AI on Trial: Legal Models Hallucinate in 1 Out of 6 Queries

  • Microsoft Security Copilot Economic Report (2024)

#IAGenerativa #ProductividadVsCalidad #TransformaciónDigital #AIresponsable
#ÉticaTecnológica #ShadowAI #CalidadDeContenido #IAyTrabajo
#SeguridadDigital #AutomatizaciónCrítica