IA vs. Humanos: El Dilema de la Confianza en el Contenido Digital
Este artículo analiza la percepción pública [2024-2025] de la IA, revelando contradicciones. En noticias, la IA pura reduce el sesgo percibido, mientras que el contenido mixto IA-humano no. El público aprueba la IA para tareas analíticas, pero la rechaza para juicios éticos o creativos. Aunque el 76% exige etiquetado, la mayoría desconfía de su habilidad de detección, la cual no se correlaciona con la cognición. La confianza es un cálculo contextual.
Introducción
La inteligencia artificial [IA] ha dejado de ser una promesa futura para convertirse en una realidad cotidiana que moldea cómo consumimos información, arte y noticias. Sin embargo, a medida que la IA generativa se vuelve más sofisticada, emerge una tensión central: ¿En qué confiamos? ¿En la eficiencia imparcial de una máquina, en la autenticidad falible de un humano, o en una colaboración supervisada entre ambos? Las investigaciones recientes revelan que nuestras preferencias no son absolutas; son profundamente contextuales y, a menudo, contradictorias.
Confianza en Contenido Mixto IA-Humano: ¿Pierde Credibilidad la Supervisión Humana?
Durante años, el consenso en la industria tecnológica ha sido que el modelo ‘mixto’ o human-in-the-loop (humano en el bucle) es la solución óptima. Este enfoque promete combinar la velocidad de la IA con la supervisión, el juicio ético y la credibilidad de un editor humano. No obstante, investigaciones recientes en el ámbito de la comunicación sugieren que esta suposición podría ser errónea, especialmente en contextos de alta polarización como las noticias.
Un estudio experimental de 2025 (Huh et al.) investigó cómo las audiencias perciben las noticias sobre temas divisivos [específicamente, la regulación de armas] cuando se atribuyen a tres tipos de autores: un periodista humano, una IA pura, o un modelo mixto ‘asistido por IA’. Los resultados desafiaron las expectativas convencionales.
El contenido atribuido a la IA pura redujo significativamente la Percepción de Medios Hostiles [HMP]; es decir, los lectores partisanos sintieron que el artículo era menos sesgado contra su postura. Esto se alinea con la ‘heurística de la máquina’ (Sundar, 2008, citado en Huh et al., 2025), la tendencia a percibir a las máquinas como inherentemente objetivas y libres de los sesgos ideológicos que se atribuyen a los periodistas humanos.
Sorprendentemente, el modelo mixto [IA-humano] no tuvo el mismo éxito. El estudio encontró que esta colaboración ‘asistida por IA’ tuvo efectos ‘muy limitados’ y no mostró un efecto principal significativo en la reducción del sesgo percibido en comparación con el autor humano. Los autores sugieren que el efecto amortiguador de la IA ‘desaparece’ tan pronto como un periodista humano se involucra activamente.
Contradictoriamente, en lugar de añadir credibilidad, la supervisión humana parece reintroducir la sospecha de sesgo que la IA pura lograba mitigar. Esto complica la narrativa de que la simple supervisión humana es una panacea para la credibilidad, un hallazgo que contrasta con informes que sugieren una preferencia general por el contenido de IA (Dooley, 2023) o la insistencia del CEO de OpenAI, Sam Altman, en que el público ‘realmente solo quiere contenido original’ (citado en Freire, 2025).
Los Límites de la IA: Dónde Preferimos la Velocidad y Dónde Exigimos Autenticidad Humana
La aceptación del contenido de IA no es uniforme; depende críticamente del dominio de aplicación. El público parece trazar una línea clara: aceptamos la IA para tareas analíticas que requieren velocidad y procesamiento de datos, pero la rechazamos para tareas que involucran juicio humano, ética, emoción y creatividad.
Un estudio exhaustivo de 2025 realizado por el Pew Research Center (Kennedy et al.) mapeó estas preferencias en la población estadounidense. Los resultados muestran una fuerte aceptación de la IA en roles que implican análisis de datos a gran escala.
Las mayorías del público estadounidense dicen que la IA debería jugar al menos un ‘pequeño papel’ en áreas como:
● Previsión meteorológica [74% de apoyo].
● Búsqueda de delitos financieros [70% de apoyo].
● Desarrollo de nuevos medicamentos [66% de apoyo].
En estos campos, la ‘velocidad’ y la eficiencia de la IA se perciben como un beneficio claro.
Sin embargo, esta aceptación se invierte drásticamente cuando la tarea se desplaza del análisis objetivo al juicio subjetivo o la conexión personal. El mismo estudio (Kennedy et al., 2025) encontró un rechazo abrumador a la participación de la IA en dominios intrínsecamente humanos:
● Aconsejar a las personas sobre su fe en Dios [73% dice ‘ningún papel’].
● Juzgar si dos personas podrían enamorarse [66% dice ‘ningún papel’].
● Tomar decisiones sobre cómo gobernar el país [60% dice ‘ningún papel’].
● Seleccionar quién debe servir en un jurado [47% dice ‘ningún papel’].
El arte y la creatividad caen firmemente en este último campo. El público teme que la IA erosione las habilidades humanas fundamentales; el 53% de los adultos cree que la IA empeorará la capacidad de las personas para pensar creativamente. Esto subraya la idea de que, si bien la IA puede producir contenido, el público sigue valorando la ‘autenticidad’ y la ‘originalidad’ que, como sugiere Sam Altman (citado en Freire, 2025), sigue asociada a la experiencia humana.
¿Realmente Queremos Saber si es IA? El Dilema del Etiquetado y la Confianza Ciega
El público es consciente del desenfoque entre el contenido humano y el de máquina, y esto genera ansiedad. La respuesta instintiva es exigir transparencia a través del etiquetado. Según el Pew Research Center (Kennedy et al., 2025), una abrumadora mayoría [76%] de los adultos estadounidenses considera ‘extremadamente’ o ‘muy importante’ poder diferenciar si el contenido [imágenes, videos o texto] fue creado por IA o por humanos.
Este deseo de etiquetado claro se enfrenta a dos realidades incómodas.
Primero, la gente sabe que no es buena en esta tarea. El mismo estudio de Pew encontró que una mayoría [53%] no está ‘nada’ o ‘no muy’ segura de su propia capacidad para detectar contenido de IA.
Segundo, es posible que la capacidad de detección ni siquiera esté correlacionada con la inteligencia. Un estudio de 2024 (Lund & Lindh) que investigó la capacidad humana para identificar imágenes de IA altamente realistas [deep fakes] no encontró ‘casi ninguna correlación’ entre la capacidad cognitiva de un individuo [medida por una prueba de vocabulario] y su éxito en identificar correctamente las falsificaciones.
Esto configura el dilema del etiquetado: la gente exige etiquetas no porque quiera elegir activamente la IA, sino porque teme ser engañada. Sienten que son incapaces de detectar la diferencia por sí mismos, y la investigación sugiere que tienen razón.
Conclusión
La confianza en la era de la IA no es una elección entre humano o máquina, sino un complejo cálculo de riesgo y propósito. Aceptamos la eficiencia de la IA para tareas analíticas, pero nos aferramos fuertemente a la autenticidad humana para la creatividad y el juicio ético.Contradictoriamente, mientras tememos a la desinformación del humano, la supervisión humana parece contaminar la objetividad que buscamos en la IA, revelando nuestra profunda ansiedad ante la incapacidad de distinguir la realidad de la réplica.
Referencias
Dooley, R. (2023, diciembre 04). Humans Prefer AI-Generated Content, New Research Suggests. Forbes. https://www.forbes.com/sites/rogerdooley/2023/12/04/humans-prefer-ai-generated-content/
Freire, D. (2025, octubre 19). Sam Altman, CEO de OpenAI, sentencia el final de los creadores de contenido: "Realmente solo quieres contenido original". La Razón. https://www.larazon.es/tecnologia-consumo/sam-altman-ceo-openai-sentencia-final-creadores-contenido-realmente-solo-quieres-contenido-original_2025101968ee17299c028a4cad358edb.HTML
Huh, E., Kubin, E. & Sikorski, C. (2025, marzo 12). Can AI-generated news reduce hostile media perceptions? Findings from two experiments. Frontiers. https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1484186/full
Kennedy, B., Yam, E., Kikuchi, E., Pula, I. & Fuentes, J. (2025, septiembre 17). How Americans View AI and Its Impact on People and Society. Pew Research Center. https://pewrsr.ch/46un1CF
Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial 4.0 Internacional. Si necesitas utilizar alguna imagen, video o audio dirígete a la información proporcionada en las referencias. Esta publicación puede o no contener material con protección de datos o derechos de autor.
Comentarios
Publicar un comentario
No agredas a otros usuarios, no violentes ni faltes al respeto a otras personas que no conozcas.