Un estimado colega nos comparte el presente artículo escrito por Anthony Borrelli, publicado el julio 17 de 2025 en el boletín BingUNews de Binghamton University (BU) y traducido por nosotros para este espacio. Veamos de que se trata….
Un nuevo estudio realizado por investigadores de la Binghamton University (BU) y la State University of New York (SUNY) ofrece una solución prometedora: desarrollar un sistema de Inteligencia Artificial (IA) para mapear las interacciones entre el contenido y los algoritmos en las plataformas digitales y reducir la propagación de contenido potencialmente dañino o engañoso.
Caer en clickbaits (cyberanzuelos) es fácil hoy en día, especialmente para quienes se informan principalmente a través de las redes sociales. ¿Alguna vez has notado que tu feed (fuente Web) está plagado de artículos que se parecen?
Gracias a las tecnologías de IA, la difusión masiva de artículos contextualmente relevantes y publicaciones en redes sociales repletas de comentarios se ha vuelto tan común que puede parecer que provienen de diferentes fuentes de información. El efecto de "cámara de resonancia" resultante podría reforzar las perspectivas existentes de una persona, independientemente de si la información es precisa o no.
Un nuevo estudio en el que participaron investigadores de la BU y la SUNY ofrece una solución prometedora: el desarrollo de un sistema de IA para mapear las interacciones entre el contenido y los algoritmos en las plataformas digitales y reducir la propagación de contenido potencialmente dañino o engañoso. El estudio señala que dicho contenido puede amplificarse mediante algoritmos centrados en la interacción, lo que facilita la propagación de teorías conspirativas, especialmente si el contenido tiene una carga emocional o polariza.
Los investigadores creen que el marco de IA propuesto contrarrestaría esto al permitir a los usuarios y a los operadores de plataformas de redes sociales (Meta o X, por ejemplo) identificar fuentes de posible desinformación y eliminarlas si es necesario. Más importante aún, facilitaría que sus plataformas promovieran diversas fuentes de información a sus audiencias.
El entorno en línea y de redes sociales ofrece las condiciones ideales para que se active ese efecto de cámara de eco debido a la rapidez con la que compartimos información", afirmó Thi Tran, coautor del estudio y profesor adjunto de sistemas de información de gestión en la Facultad de Administración de la BU. "Las personas crean la IA, y así como las personas pueden ser buenas o malas, lo mismo aplica a la IA". "Por eso, si ves algo en línea, ya sea algo generado por humanos o por IA, debes cuestionarte si es correcto o creíble".
Los investigadores observaron que las plataformas digitales facilitan la dinámica de la cámara de resonancia al optimizar la entrega de contenido según las métricas de interacción y los patrones de comportamiento. Las interacciones cercanas con personas afines en redes sociales pueden amplificar la tendencia sesgada de una persona a seleccionar cuidadosamente los mensajes de información a los que reaccionar, lo que lleva a filtrar perspectivas diversas.
El estudio probó esta teoría mediante una encuesta aleatoria a 50 estudiantes universitarios, cada uno de los cuales reaccionó a cinco afirmaciones erróneas sobre la vacuna contra la COVID-19:
Las vacunas se utilizan para implantar códigos de barras en la población.
Las variantes de la COVID-19 son cada vez menos letales.
Las vacunas contra la COVID-19 representan mayores riesgos para los niños que el propio virus.
Los remedios naturales y las medicinas alternativas pueden reemplazar las vacunas contra la COVID-19.
La vacuna contra la COVID-19 se desarrolló como una herramienta para el control de la población mundial.
Así respondieron los participantes de la encuesta:
El 90 % afirmó que seguiría vacunándose contra la COVID-19 después de escuchar las afirmaciones erróneas. El 70 % indicó que compartiría la información en redes sociales, más con amigos o familiares que con desconocidos.
El 60 % identificó las afirmaciones como falsas.
El 70 % expresó la necesidad de realizar más investigaciones para verificar la falsedad.
Según el estudio, estas respuestas pusieron de relieve un aspecto crucial de la dinámica de la desinformación: muchas personas podían reconocer las afirmaciones falsas, pero también se sentían obligadas a buscar más pruebas antes de descartarlas por completo.
"Todos queremos transparencia informativa, pero cuanto más expuesto estés a cierta información, más creerás que es cierta, incluso si es inexacta", afirmó Tran. "Con esta investigación, en lugar de pedirle a un verificador de datos que verifique cada contenido, podemos utilizar la misma IA generativa que utilizan los 'malos' para difundir desinformación a mayor escala y reforzar el tipo de contenido en el que la gente puede confiar".
El artículo de investigación, "Ecos Amplificados: Un Estudio de Contenido Generado por IA y Cámaras de Eco Digitales", se presentó en una conferencia organizada por la Sociedad de Ingenieros de Instrumentación Fotoóptica (SPIE). También fue escrito por Seden Akcinaroglu, profesor de ciencias políticas de Binghamton; Nihal Poredi, estudiante de doctorado en la Facultad de Ingeniería y Ciencias Aplicadas Thomas J. Watson; y Ashley Kearney, de la Universidad Estatal de Virginia.
Fuente: