28 enero, 2026

El gran robo de la inteligencia artificial

(Diario El País)

De la vampirización del conocimiento humano a las nuevas interfaces de voz - Naomi Klein

En pocos años, la inteligencia artificial ha pasado de ser una promesa futurista a una infraestructura invisible que organiza cómo producimos, circulamos y monetizamos el conocimiento. Este giro no es neutro: mientras grandes plataformas extraen masivamente datos y obras para entrenar modelos, surgen herramientas que prometen aumentar nuestra productividad apoyándose en esos mismos avances. Entre la crítica política y el entusiasmo tecno-productivista se abre un debate urgente sobre quién se beneficia realmente de la revolución de la IA.

1. La “vampirización” del conocimiento humano

Naomi Klein ha descrito el funcionamiento actual de la IA generativa como una gigantesca operación de “vampirización” del conocimiento humano. Empresas como Microsoft, Apple, Google, Meta o Amazon han capturado ingentes volúmenes de textos, imágenes y datos producidos por millones de personas, encapsulándolos en modelos propietarios que luego comercializan como servicios inteligentes. El resultado, en palabras de Klein, son “máquinas de acoso y apropiación” que devoran nuestra vida personal y nuestro legado intelectual y artístico colectivo.

Esta extracción no es un efecto colateral, sino el modelo de negocio. La IA contemporánea se alimenta de contenidos generados durante décadas por investigadores, artistas, periodistas, programadores o docentes, muchas veces sin su consentimiento explícito, sin reconocimiento y sin reparto de valor. El problema no es solo jurídico (derechos de autor, privacidad), sino también político: ¿quién decide qué datos se usan, con qué fines y bajo qué condiciones de rendición de cuentas?

2. El mayor “robo de arte” de la historia

En el terreno artístico, el conflicto se ha vuelto especialmente visible. La ilustradora Molly Crabapple y otros creadores han denunciado que los generadores de arte por IA se entrenan con millones de imágenes protegidas por copyright, recopiladas sin permiso, compensación ni transparencia. Crabapple lo resume como “el mayor robo de arte de la historia, perpetrado por empresas aparentemente respetables respaldadas por capital riesgo de Silicon Valley”.

La paradoja es evidente: los modelos pueden imitar estilos personales, remezclar obras o producir variaciones casi indistinguibles de originales, mientras los artistas que alimentaron esos sistemas ven precarizado su trabajo. Al mismo tiempo que se les promete “nuevas herramientas creativas”, se socavan las bases materiales que permiten sostener una práctica artística profesional. La cuestión ética ya no es si la IA es creativa, sino en qué condiciones materiales se produce esa creatividad aparente.

3. Trabajo humano: del entrenamiento al reemplazo

La crítica de Klein subraya además la dimensión laboral de este “gran robo”. El trabajo humano no solo es insumo para entrenar modelos, sino también objetivo de sustitución una vez que esos modelos se despliegan. Consultoras como PwC, Bain & Company o Deloitte figuran entre las primeras en adoptar estas tecnologías con la promesa de “ahorrar costes”, un eufemismo frecuente para automatizar tareas y reducir plantillas. PwC, por ejemplo, ha anunciado inversiones de alrededor de 1.000 millones de dólares en IA con este horizonte.

Nos encontramos así con un doble movimiento: primero se extrae el conocimiento tácito y explícito de millones de trabajadores; después, se utiliza esa misma infraestructura para reconfigurar el mercado laboral en su contra. En el lenguaje de Klein, esta dinámica encaja en una fase “tecno-necro” del capitalismo, en la que la maximización de la extracción de valor de humanos y naturaleza se combina con una concentración extrema de poder económico y tecnológico.

4. Lenguaje, “alucinaciones” y legitimidad

Otra dimensión relevante es el lenguaje con el que se describe el funcionamiento de la IA. En lugar de hablar de errores, sesgos o fallos de diseño, se ha popularizado el término “alucinaciones” para referirse a salidas incorrectas de los modelos generativos. Klein cuestiona esta elección verbal: ¿por qué atribuir a las máquinas un rasgo propio de la experiencia humana en lugar de hablar, sencillamente, de “basura algorítmica”?

Este giro lingüístico no es inocente. Antropomorfizar los sistemas ayuda a normalizar sus limitaciones, desplazar responsabilidades y reforzar narrativas casi mágicas sobre su potencial. Mientras se promete que la IA resolverá desde la pobreza hasta el cambio climático, se invisibilizan las infraestructuras de extracción de datos, energía y trabajo que hacen posible estos modelos. Para Klein, las verdaderas “alucinaciones” no son las de las máquinas, sino las de sus promotores.

5. Precedentes legales y estrategias de regulación

Frente a este panorama, existen ya precedentes legales que indican posibles vías de regulación. La Comisión Federal de Comercio de Estados Unidos (FTC) obligó en su momento a Cambridge Analytica y a Everalbum a destruir tanto los datos recopilados ilícitamente como los modelos entrenados con ellos. Estos casos muestran que la “eliminación algorítmica” no es solo una metáfora, sino una sanción posible cuando se vulneran principios básicos de consentimiento y licitud.

Diversos autores proponen, además, que se establezcan obligaciones claras de transparencia sobre los datos de entrenamiento y la arquitectura de los modelos, así como marcas visibles que distingan contenidos generados artificialmente. El objetivo no sería solo proteger derechos individuales, sino reorientar el desarrollo tecnológico hacia máquinas que trabajen para las personas, y no sociedades adaptadas para ser legibles por las máquinas. En el ámbito europeo, debates como el del AI Act van en esa dirección, aunque con tensiones entre regulación efectiva e intereses industriales.

Referencias sugeridas

  • Klein, N. (2023). “El gran robo de la inteligencia artificial: ¿alguien pidió permiso para vampirizar todo conocimiento generado por los humanos?”. El País.

  • Crabapple, M. (2023). “Las máquinas de IA no están alucinando, pero sí sus creadores”. Arte y Estética / LinkedIn.

18 junio, 2025

¿Usar ChatGPT para redactar el trabajo de fin de grado es copiar?

 

TZIDO SUN/Shutterstock
¿Usar ChatGPT para redactar el trabajo de fin de grado es copiar?

Artículo de THE CONVERSATION, 17 junio 2025

El artículo analiza si usar ChatGPT para redactar trabajos de fin de grado equivale a copiar. Cada vez más estudiantes emplean inteligencia artificial (IA) para elaborar textos académicos, que puede sorprender a sus profesores, ya que expresa mejorías notables en poco tiempo. Esto plantea dudas sobre la autenticidad del trabajo y si el estudiante realmente alcanza el aprendizaje deseado.

Estudios de la La Fundación CYD que analiza el uso de la IA en el entorno universitarioindican que el 89% de los universitarios usa IA generativa y el 45% la utiliza para tareas académicas, aunque el 72% no ha recibido formación ética sobre su uso. Esto amenaza la creatividad y originalidad del estudiante.

Algunas universidades españolas, como la Carlos III de Madrid, exigen declaraciones de uso ético de IA, permitiendo su ayuda en búsqueda de información pero no en la redacción final. Otras usan plataformas antiplagio para detectar contenido generado por máquinas, aunque estas herramientas presentan riesgos de falsos positivos.

Desde el punto de vista legal, según la legislación española, solo las personas físicas pueden ser autoras de una obra, por lo que un texto hecho por IA no está protegido. Además, se advierte sobre la pérdida de habilidades críticas y metacognitivas en los estudiantes, producto de un intensivo uso de esta tecnología.

Se proponen alternativas como evaluación continua, metodologías activas, competencias digitales y marcos de transparencia. La clave está en equilibrar innovación tecnológica con rigor académico para formar profesionales críticos y autónomos.

30 marzo, 2025

Los principios de accesibilidad no sólo tienen que ver con el diseño web

 

Web Consortium to advance web standardization

Como autor o creador de contenidos, tienes un importante rol en la accesibilidad y usabilidad de los sitios web y otros activos digitales, por eejemplo los post de un blog. El objetivo es que el contenido sea fácil de encontrar y comprender. Y para ello, es importante usar el texto alternativo, los encabezados y el lenguaje sencillo, así podrás llegar a todo el mundo, con un lenguaje sencillo y comprensible.

Este post resume los 4 principios de la accesibilidad web de W3.org

Principio 1: Perceptible (Perceivability) - Las personas deben poder percibir el contenido de una página Web. Cuando una persona no puede percibir el contenido, la página no es accesible. Las imágenes y elementos gráficos deben tener descripciones textuales, el texto debe ser legible con buen contraste y escalabilidad, y los contenidos de audio y vídeo deben contar con subtítulos o transcripciones.

Principio 2: Operable (Operability) - todas las funciones y elementos interactivos deben ser fáciles de usar. La navegación debe funcionar sin ratón, los botones y enlaces deben ser claros e intuitivos, y deben evitarse las acciones sensibles al tiempo, permitiendo a los usuarios interactuar a su propio ritmo.

Principio 3: Comprensible (Understandability) - La comprensibilidad garantiza que el contenido y la funcionalidad sean sencillos e intuitivos. El lenguaje debe ser claro y fácil de leer, las instrucciones deben ser directas. aunque los visitantes puedan ver el contenido e interactuar con él, un sitio no es plenamente accesible si no pueden entenderlo.

Principio 4: Robustez (Robustness) - Un sitio web debe funcionar en distintos dispositivos, navegadores y tecnologías de asistencia, como lectores de pantalla. La tecnología debe estar actualizada y ser compatible con las nuevas soluciones digitales para ofrecer a todos los usuarios una experiencia estable y accesible.

Referencia

WCAG 2.0 Guidelines https://www.w3.org/TR/2008/REC-WCAG20-20081211/


25 noviembre, 2024

OpenEU, hacia una universidad abierta europea

 


La alianza OpenEU, coordinada por la Universitat Oberta de Catalunya (UOC), agrupa 14 universidades y 13 asociaciones académicas, empresariales, rurales, municipales y civiles de toda Europa para crear una universidad abierta paneuropea.

Ver artículo completo en: La alianza OpenEU

OpenEU contribuirá a la transformación digital de las instituciones de educación superior y a la integración de la tecnología en la docencia y el aprendizaje.

El objetivo de OpenEU, como primera universidad abierta paneuropea, es reforzar la dimensión digital, ecológica y social del espacio europeo de educación superior (EEES) ofreciendo acceso a una educación superior de calidad y un aprendizaje a lo largo de la vida.

La OpenEU se plantea crear una universidad abierta a escala europea que garantice oportunidades de aprendizaje para todo el mundo, en cualquier momento y desde cualquier lugar, independientemente de las limitaciones de tiempo, el lugar de residencia o el contexto personal o profesional, a fin de fortalecer el espacio europeo de educación superior.

OpenEU es la unión de las visiones comunes y las experiencias de diez universidades, con una misión compartida y diez metas para los próximos cuatro años:

  1. Construir los fundamentos para una universidad abierta europea sólida y sostenible.
  2. Fomentar la Innovación en planes de estudios, docencia y evaluación, microcredenciales acumulables que pueden conducir a titulaciones oficiales, proporcionar habilidades transferibles técnicas y no técnicas basadas en necesidades.
  3. Hacer realidad el aprendizaje a lo largo de la vida por toda Europa, con Rutas de aprendizaje flexibles, personalizadas que faciliten las competencias necesarias para la sociedad y el mercado laboral.
  4. Ampliar la participación de colectivos infrarrepresentados y desfavorecidos en la educación superior (como refugiados e inmigradas, mujeres en ámbito STEM, personas con discapacidad o que viven en áreas poco pobladas).
  5. Garantizar la calidad del aprendizaje digital y de soluciones educativas innovadoras, a través de la investigación y la innovación basadas en retos.
  6. Impulsar la transformación digital de la educación superior en Europa compartiendo la experiencia, conocimientos y recursos de OpenEU con otras universidades.
  7. Democratizar la internacionalización a través de opciones de movilidad innovadoras y flexibles.
  8. Potenciar la generación, transferencia y el intercambio de conocimiento basado en retos.
  9. Aumentar el impacto social de las universidades en educación, investigación e innovación.
  10. Fomentar los valores europeos a través del establecimiento de una cultura común a OpenEU, basada en principios como la calidad, la igualdad, la diversidad, la inclusión, el conocimiento abierto y la sostenibilidad medioambiental, para contribuir a crear sociedades y economías más resilientes.

16 mayo, 2024

OpenAI y Google han presentado sus avances en IA

 


Los nuevos asistentes de OpenAI y Google auguran la próxima batalla de la IA 

Prometen estar muy por delante de herramientas como Siri o Alexa. 

Esta semana, Google y OpenAI han anunciado la creación de asistentes de inteligencia artificial súper potentes: herramientas que pueden conversar contigo en tiempo real y retomar la conversación cuando les interrumpes, analizar tu entorno mediante vídeo en directo y traducir conversaciones sobre la marcha.  

OpenAI se adelantó el lunes, cuando presentó su nuevo modelo insignia GPT-4o. La demostración en directo mostraba cómo leía cuentos antes de dormir y ayudaba a resolver problemas matemáticos, todo ello con una voz que sonaba inquietantemente parecida a la de la novia IA de Joaquin Phoenix en la película Her (un rasgo que no pasó desapercibido al consejero delegado Sam Altman).  

El martes, Google anunció sus propias herramientas, incluido un asistente conversacional llamado Gemini Live, que puede hacer muchas cosas iguales a las de GPT-4o. También reveló que está construyendo una especie de agente de IA "que lo hace todo", actualmente en desarrollo, pero que no verá la luz hasta finales de este año.

Leer más:

Los nuevos asistentes de OpenAI y Google auguran la próxima batalla de la IA


26 abril, 2024

La Inteligencia Artificial (IA), la docencia y la investigación

 La IA está transformando de manera significativa la sociedad y la educación.


La IA contribuye a transformar y redefinir los roles del docente, del estudiante y del investigador. La labor docente se orienta a un rol facilitador y orientador del proceso educativo. La IA facilita la personalización del aprendizaje, adaptando el contenido según las necesidades individuales de los estudiantes y liberando a los docentes de tareas rutinarias para centrarse en actividades más creativas y de apoyo.

La IA empodera a los estudiantes, proporcionándoles herramientas educativas interactivas que fomentan la exploración autónoma y colaborativa de conceptos. Los estudiantes pueden acceder a recursos personalizados, realizar simulaciones y recibir retroalimentación instantánea, promoviendo así el aprendizaje activo y crítico, y la autonomía académica.

En la investigación, la IA facilita la realización de tareas complejas y el análisis de grandes conjuntos de datos. El uso de herramientas de IA permite identificar patrones, realizar predicciones y generar conocimiento de manera más eficiente. Esto abre nuevas perspectivas en la investigación, permitiendo descubrir relaciones no evidentes entre variables y la exploración de áreas interdisciplinarias, lo que conduce a avances significativos en diversos campos académicos.

En resumen, la IA tiene un impacto positivo en la educación superior, pero su uso debe ser regulado y supervisado para garantizar un equilibrio entre la eficiencia y la preservación de los valores humanos fundamentales. La privacidad de datos y el abordaje ético de temas sensibles es imperativo. Proteger la privacidad del estudiante es central.

El gran robo de la inteligencia artificial

(Diario El País) De la vampirización del conocimiento humano a las nuevas interfaces de voz - Naomi Klein En pocos años, la inteligencia ar...