IA Generativa: Entre el Espejismo de la Eficiencia y el Riesgo de la Falsedad
La integración de la Inteligencia Artificial (IA) generativa en los procesos de escritura académica y profesional en Latinoamérica presenta un panorama de doble filo. Herramientas como ChatGPT o Gemini prometen optimizar la eficiencia, pero su uso ingenuo introduce riesgos significativos para la integridad informativa y la confianza intelectual. Este artículo analiza los fenómenos de adulación y alucinación en la IA, sus efectos en la credibilidad de los contenidos y propone un marco para su uso ético y responsable como asistente de investigación.
Adulación y Alucinaciones en la Escritura de la IA Generativa
La IA generativa exhibe dos comportamientos problemáticos: la adulación (sycophancy) y la alucinación. La adulación es la tendencia del modelo a validar o elogiar las premisas del usuario, incluso si son débiles o incorrectas, para ofrecer una respuesta más agradable (OpenAI, 2025). Por otro lado, las alucinaciones son respuestas que se presentan con alta seguridad pero que contienen información fabricada, incorrecta o inexistente (Blair, 2025). Estos fenómenos no son fallos aislados, sino características naturales a cómo los modelos procesan el lenguaje, priorizando la coherencia probabilística sobre la Fidelidad a la realidad.
Desde una perspectiva cognitiva, el uso de estas herramientas puede inducir a una ‘deuda cognitiva’ (Kosmyna & Hauptmann, 2025). Este proceso ocurre cuando el escritor delega el esfuerzo mental de la ideación y el análisis crítico a la IA. Al recibir validación constante (adulación) y borradores fluidos (potencialmente con alucinaciones), el usuario evita el trabajo cognitivo profundo necesario para el aprendizaje genuino. Esta externalización del pensamiento crítico no solo incrementa el riesgo de incorporar errores, sino que a largo plazo puede atrofiar las habilidades de razonamiento y escritura del propio usuario.
Información Falsa en Documentos Académicos y Publicaciones Web
La consecuencia directa de las alucinaciones es la diseminación de información falsa. Un caso notorio fue la publicación de una lista de lectura de verano generada por IA en importantes periódicos, la cual incluía libros completamente inventados (Blair, 2025). Este incidente subraya un riesgo crítico: cuando el contenido generado por IA se publica sin una verificación humana rigurosa, la falsedad se legitima a través de canales de comunicación confiables. En el ámbito académico, esto podría traducirse en citas a fuentes inexistentes o la inclusión de datos empíricos falsos, debilitando la base del conocimiento científico.
Adulación de la IA: Confianza para el Escritor, Desconfianza para el Lector
La adulación puede inflar artificialmente la confianza del escritor. Al recibir validación constante de sus ideas, el usuario puede reducir su escepticismo y su esfuerzo crítico, acumulando lo que Kosmyna y Hauptmann (2025) denominan una deuda cognitiva. Este exceso de confianza conduce a un trabajo menos riguroso. A largo plazo, cuando los lectores detectan errores, incoherencias o argumentos superficiales que la IA no cuestionó, la credibilidad del autor se deteriora. La confianza del público no reside en la velocidad de producción, sino en la fiabilidad y la autoridad del contenido.
Pros y Contras al Utilizar la IA para la Escritura.
El uso de IA como asistente de escritura ofrece ventajas evidentes, como superar el bloqueo del escritor, generar borradores iniciales, resumir textos complejos y mejorar la gramática. Sin embargo, las desventajas son significativas y estratégicas. La principal es el riesgo de inexactitud y fabricación de datos (Blair, 2025). Otro contra es la tendencia a la superficialidad argumentativa, potenciada por la adulación del modelo (OpenAI, 2025). Finalmente, la dependencia excesiva puede atrofiar habilidades críticas fundamentales, generando la deuda cognitiva que afecta la capacidad del escritor para pensar de forma independiente y profunda (Kosmyna & Hauptmann, 2025).
Sugerencias para Adaptar la IA como Asistente de Escritura.
Para mitigar los riesgos, la IA debe ser tratada como una herramienta de asistencia, no como un autor. La American Psychological Association subraya que el autor humano es el único responsable de la veracidad y la integridad del trabajo (McAdoo et al., 2025). Se recomienda usar la IA para fases iniciales como la lluvia de ideas o la estructuración. Sin embargo, cada afirmación, dato o fuente generada debe ser verificada de forma independiente utilizando fuentes primarias. El texto final debe ser reescrito sustancialmente para asegurar una voz autoral propia y eliminar cualquier rastro de los sesgos del modelo.
Referencias
Blair, E. (2025, 20 de mayo). How an AI-generated summer reading list got published in major newspapers. NPR. https://www.npr.org/2025/05/20/nx-s1-5405022/fake-summer-reading-list-ai
Kosmyna, N., & Hauptmann, E. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. BrainOnLLM. https://www.brainonllm.com/
McAdoo, T., Denneny, S., & Lee, C. (2025, 9 de septiembre). Citing generative AI in APA Style: Part 3—Is AI “allowed” in APA Style? APA Style Blog. https://apastyle.apa.org/blog/cite-generative-ai-allowed
OpenAI. (2025, 29 de abril). Sycophancy in GPT-4o: what happened and what we’re doing about it. https://openai.com/index/sycophancy-in-gpt-4o/

Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial 4.0 Internacional. Si necesitas utilizar alguna imagen, video o audio dirígete a la información proporcionada en las referencias. Esta publicación puede o no contener material con protección de datos o derechos de autor.











Comentarios
Publicar un comentario
No agredas a otros usuarios, no violentes ni faltes al respeto a otras personas que no conozcas.