Un crítica incómoda (y necesaria) sobre la IA
3 verdades incómodas que Timnit Gebru expuso, y que todo profesional que trabaje con LLMs debería tener muy presentes.
Timnit Gebru lo dijo alto y claro. Aunque muchos del sector IA miraron hacia otro lado.
Yo no. Y tú, si trabajas con modelos de lenguaje, tampoco deberías.
Gebru no es una outsider. Fue codirectora del equipo de IA ética en Google, coautora del paper “Stochastic Parrots”, y una de las voces más lúcidas (y valientes) en todo este debate.
Critica desde dentro. Y tiene razón en casi todo.
Si trabajas con LLMs, estas son 3 verdades incómodas que deberías tener presentes cada vez que usas un modelo.
1️⃣ Los modelos de lenguaje no entienden lo que dicen
Los modelos generan texto que suena perfecto. Pero eso no significa que entiendan lo que están diciendo.
No hay intención, no hay contexto más allá del prompt.
Gebru lo resume con una imagen brillante: son “loros estocásticos”. Repiten con fluidez, pero sin comprensión.
Esto es clave porque cuanto más natural suena el output, más fácil es creer que es inteligente.
Y ese espejismo puede llevarnos a tomar malas decisiones: automatizar tareas sensibles, difundir desinformación, o confiar en las respuestas sin validarlas.
✅ ¿Qué hacer? No asumir que el modelo es consciente, ni imparcial, ni infalible. Y actuar en consecuencia. Especialmente si estás aplicándolo en procesos reales que afectan a personas.
2️⃣ La IA no es neutral, aunque lo parezca
Los LLMs se entrenan con texto humano. Y lo humano viene cargado de sesgos. De hecho, lo que no está en los datos también es una decisión.
Gebru lleva años demostrando cómo estos modelos amplifican desigualdades, invisibilizan voces y refuerzan narrativas dominantes.
Lo preocupante no es solo que exista sesgo. Es que se disfraza de objetividad. Y cuanto más opaco es el sistema, más difícil es detectarlo.
✅ ¿Qué hacer? Diseñar con conciencia. Preguntarse siempre: ¿de dónde vienen los datos? ¿qué voces predominan? ¿a quién estamos dejando fuera? Y no conformarse con “es lo que había”. Elegir datos es elegir impacto.
3️⃣ El poder está en manos de muy pocos
Los modelos más avanzados hoy están en manos de unas pocas empresas. Controlan los datos, la infraestructura y las decisiones estratégicas.
Gebru lo advierte sin filtros: si no democratizamos la IA, acabará concentrando demasiado poder. Y eso nos afecta a todos, no solo a quienes trabajamos en tecnología.
No es solo un problema de competencia. Es una cuestión de quién decide qué puede hacer una IA, con qué valores, y al servicio de quién. Ahora mismo, lo deciden unos pocos.
✅ ¿Qué hacer? Apoyar modelos abiertos, exigir transparencia, y abrir el debate a más voces. Esto no es solo ingeniería. Es política, ética y sociedad.
Cuando leí el artículo de Timnit Gebru, entendí algo que muchos siguen negando: los modelos de lenguaje no son neutrales, ni inocuos, ni mágicos.
Son potentes, sí. Pero también frágiles, sesgados y peligrosamente persuasivos si no los diseñamos y usamos con responsabilidad.
Trabajo con esto a diario. Y de vez en cuando, necesito que alguien me recuerde estas verdades.
¿Cuál de estas tres crees que se está ignorando más hoy?



