![]() |
TZIDO SUN/Shutterstock |
Artículo de THE CONVERSATION, 17 junio 2025
El artículo analiza si usar ChatGPT para redactar trabajos de fin de grado equivale a copiar. Cada vez más estudiantes emplean inteligencia artificial (IA) para elaborar textos académicos, que puede sorprender a sus profesores, ya que expresa mejorías notables en poco tiempo. Esto plantea dudas sobre la autenticidad del trabajo y si el estudiante realmente alcanza el aprendizaje deseado.
Estudios de la La Fundación CYD que analiza el uso de la IA en el entorno universitario, indican que el 89% de los universitarios usa IA generativa y el 45% la utiliza para tareas académicas, aunque el 72% no ha recibido formación ética sobre su uso. Esto amenaza la creatividad y originalidad del estudiante.
Algunas universidades españolas, como la Carlos III de Madrid, exigen declaraciones de uso ético de IA, permitiendo su ayuda en búsqueda de información pero no en la redacción final. Otras usan plataformas antiplagio para detectar contenido generado por máquinas, aunque estas herramientas presentan riesgos de falsos positivos.
Desde el punto de vista legal, según la legislación española, solo las personas físicas pueden ser autoras de una obra, por lo que un texto hecho por IA no está protegido. Además, se advierte sobre la pérdida de habilidades críticas y metacognitivas en los estudiantes, producto de un intensivo uso de esta tecnología.
Se proponen alternativas como evaluación continua, metodologías activas, competencias digitales y marcos de transparencia. La clave está en equilibrar innovación tecnológica con rigor académico para formar profesionales críticos y autónomos.
No hay comentarios:
Publicar un comentario