![]() |
| (Diario El País) |
De la vampirización del conocimiento humano a las nuevas interfaces de voz - Naomi Klein
En pocos años, la inteligencia artificial ha pasado de ser una promesa futurista a una infraestructura invisible que organiza cómo producimos, circulamos y monetizamos el conocimiento. Este giro no es neutro: mientras grandes plataformas extraen masivamente datos y obras para entrenar modelos, surgen herramientas que prometen aumentar nuestra productividad apoyándose en esos mismos avances. Entre la crítica política y el entusiasmo tecno-productivista se abre un debate urgente sobre quién se beneficia realmente de la revolución de la IA.
1. La “vampirización” del conocimiento humano
Naomi Klein ha descrito el funcionamiento actual de la IA generativa como una gigantesca operación de “vampirización” del conocimiento humano. Empresas como Microsoft, Apple, Google, Meta o Amazon han capturado ingentes volúmenes de textos, imágenes y datos producidos por millones de personas, encapsulándolos en modelos propietarios que luego comercializan como servicios inteligentes. El resultado, en palabras de Klein, son “máquinas de acoso y apropiación” que devoran nuestra vida personal y nuestro legado intelectual y artístico colectivo.
Esta extracción no es un efecto colateral, sino el modelo de negocio. La IA contemporánea se alimenta de contenidos generados durante décadas por investigadores, artistas, periodistas, programadores o docentes, muchas veces sin su consentimiento explícito, sin reconocimiento y sin reparto de valor. El problema no es solo jurídico (derechos de autor, privacidad), sino también político: ¿quién decide qué datos se usan, con qué fines y bajo qué condiciones de rendición de cuentas?
2. El mayor “robo de arte” de la historia
En el terreno artístico, el conflicto se ha vuelto especialmente visible. La ilustradora Molly Crabapple y otros creadores han denunciado que los generadores de arte por IA se entrenan con millones de imágenes protegidas por copyright, recopiladas sin permiso, compensación ni transparencia. Crabapple lo resume como “el mayor robo de arte de la historia, perpetrado por empresas aparentemente respetables respaldadas por capital riesgo de Silicon Valley”.
La paradoja es evidente: los modelos pueden imitar estilos personales, remezclar obras o producir variaciones casi indistinguibles de originales, mientras los artistas que alimentaron esos sistemas ven precarizado su trabajo. Al mismo tiempo que se les promete “nuevas herramientas creativas”, se socavan las bases materiales que permiten sostener una práctica artística profesional. La cuestión ética ya no es si la IA es creativa, sino en qué condiciones materiales se produce esa creatividad aparente.
3. Trabajo humano: del entrenamiento al reemplazo
La crítica de Klein subraya además la dimensión laboral de este “gran robo”. El trabajo humano no solo es insumo para entrenar modelos, sino también objetivo de sustitución una vez que esos modelos se despliegan. Consultoras como PwC, Bain & Company o Deloitte figuran entre las primeras en adoptar estas tecnologías con la promesa de “ahorrar costes”, un eufemismo frecuente para automatizar tareas y reducir plantillas. PwC, por ejemplo, ha anunciado inversiones de alrededor de 1.000 millones de dólares en IA con este horizonte.
Nos encontramos así con un doble movimiento: primero se extrae el conocimiento tácito y explícito de millones de trabajadores; después, se utiliza esa misma infraestructura para reconfigurar el mercado laboral en su contra. En el lenguaje de Klein, esta dinámica encaja en una fase “tecno-necro” del capitalismo, en la que la maximización de la extracción de valor de humanos y naturaleza se combina con una concentración extrema de poder económico y tecnológico.
4. Lenguaje, “alucinaciones” y legitimidad
Otra dimensión relevante es el lenguaje con el que se describe el funcionamiento de la IA. En lugar de hablar de errores, sesgos o fallos de diseño, se ha popularizado el término “alucinaciones” para referirse a salidas incorrectas de los modelos generativos. Klein cuestiona esta elección verbal: ¿por qué atribuir a las máquinas un rasgo propio de la experiencia humana en lugar de hablar, sencillamente, de “basura algorítmica”?
Este giro lingüístico no es inocente. Antropomorfizar los sistemas ayuda a normalizar sus limitaciones, desplazar responsabilidades y reforzar narrativas casi mágicas sobre su potencial. Mientras se promete que la IA resolverá desde la pobreza hasta el cambio climático, se invisibilizan las infraestructuras de extracción de datos, energía y trabajo que hacen posible estos modelos. Para Klein, las verdaderas “alucinaciones” no son las de las máquinas, sino las de sus promotores.
5. Precedentes legales y estrategias de regulación
Frente a este panorama, existen ya precedentes legales que indican posibles vías de regulación. La Comisión Federal de Comercio de Estados Unidos (FTC) obligó en su momento a Cambridge Analytica y a Everalbum a destruir tanto los datos recopilados ilícitamente como los modelos entrenados con ellos. Estos casos muestran que la “eliminación algorítmica” no es solo una metáfora, sino una sanción posible cuando se vulneran principios básicos de consentimiento y licitud.
Diversos autores proponen, además, que se establezcan obligaciones claras de transparencia sobre los datos de entrenamiento y la arquitectura de los modelos, así como marcas visibles que distingan contenidos generados artificialmente. El objetivo no sería solo proteger derechos individuales, sino reorientar el desarrollo tecnológico hacia máquinas que trabajen para las personas, y no sociedades adaptadas para ser legibles por las máquinas. En el ámbito europeo, debates como el del AI Act van en esa dirección, aunque con tensiones entre regulación efectiva e intereses industriales.
Referencias sugeridas
-
Klein, N. (2023). “El gran robo de la inteligencia artificial: ¿alguien pidió permiso para vampirizar todo conocimiento generado por los humanos?”. El País.
-
Crabapple, M. (2023). “Las máquinas de IA no están alucinando, pero sí sus creadores”. Arte y Estética / LinkedIn.





