Una reciente investigación científica ha puesto de manifiesto un fenómeno preocupante en el ecosistema digital: la sola presencia de etiquetas que indican el uso de inteligencia artificial (IA) en titulares de noticias disminuye drásticamente la percepción de veracidad entre los lectores. Según los hallazgos difundidos por la revista PNAS Nexus, este escepticismo surge incluso cuando el contenido es totalmente auténtico y ha contado con la debida supervisión humana. La marca de automatización no solo afecta la credibilidad, sino que también limita la voluntad de los usuarios para compartir la información a través de redes sociales u otros canales.
El auge de herramientas tecnológicas capaces de producir textos y gráficas de manera automatizada ha llevado a que gigantes como Meta, YouTube, Google y TikTok implementen mecanismos de transparencia. En este contexto, la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) ha impulsado un protocolo técnico que ya ha sido integrado por líderes de la industria como OpenAI, Microsoft, Intel y Adobe. El objetivo principal de estas marcas es alertar sobre la naturaleza del material, siguiendo una tendencia internacional hacia la claridad informativa y la transparencia ante el usuario final.
Marcos legales y lucha contra la desinformación
El estudio subraya que en regiones como Europa, y específicamente en España tras la ratificación de su ley de gobernanza de IA, el etiquetado del contenido sintético se ha vuelto una pauta obligatoria. La intención detrás de esta normativa es blindar a los ciudadanos contra la desinformación, permitiéndoles identificar materiales que podrían haber sido manipulados o creados artificialmente. No obstante, la sofisticación de estos sistemas para crear noticias falsas con apariencias extremadamente realistas ha generado una atmósfera de alerta constante que afecta a todo el contenido digital.
Para llegar a estas conclusiones, se ejecutaron dos experimentos controlados en Estados Unidos y el Reino Unido, diseñados para medir el impacto de estas etiquetas en la psique del consumidor de noticias. El primer análisis se centró en evaluar cómo el etiquetado altera la precisión que los participantes atribuyen a los titulares y su disposición para difundirlos. Por su parte, la segunda fase de la investigación profundizó en los procesos psicológicos que disparan el aumento del escepticismo y cómo opera este prejuicio en la mente de los encuestados.
Los datos recopilados indican que, si bien las personas logran diferenciar entre una noticia falsa y una simplemente marcada como creada por IA, la existencia del sello tecnológico resta valor a la publicación. Los investigadores sostienen que esta reacción se debe a la percepción de que los textos generados por sistemas automatizados carecen de un filtro o revisión humana que garantice su exactitud. Curiosamente, esta duda se presentó en todos los escenarios evaluados, sin distinguir si la información era genuina, errónea o si su autoría era realmente humana o digital; bastó la indicación de automatización para sembrar la duda.
Un dato relevante que arroja el análisis es que, aunque la etiqueta de «generado por IA» daña la confianza percibida, su impacto es «tres veces menor» comparado con el sello que califica directamente un contenido como falso. Por esta razón, la recomendación de los expertos es que, si se identifica una noticia falsa creada por sistemas artificiales, se utilice específicamente la etiqueta de «falso», ya que resulta ser una herramienta mucho más potente y clara para identificar y frenar la propagación de información errónea.
La necesidad de un etiquetado prudente
Los académicos responsables del informe instan a las plataformas a manejar estas etiquetas con suma cautela para no perjudicar el periodismo legítimo o materiales que son beneficiosos para el público. Se subraya la importancia de explicar con precisión el significado de cada marca para evitar confusiones innecesarias. La investigación advierte que un etiquetado generalizado podría tener efectos indeseados sobre piezas de información fiables solo por el hecho de haber sido asistidas por tecnología. De acuerdo con el estudio:
«estar expuesto a etiquetas de IA puede actuar como una especie de advertencia de que el entorno en línea está saturado de contenido generado por IA y no es un espacio confiable para adquirir información confiable»
Finalmente, se hace un llamado urgente a las empresas tecnológicas y reguladores para evaluar las dimensiones sociales y psicológicas de estas medidas. Se requiere una comunicación transparente sobre los alcances y límites de la tecnología aplicada a la creación de contenidos, de modo que no se termine erosionando la confianza del público en la información digital auténtica y verificada.
Fuente: Fuente