miércoles, julio 16, 2025

La desinformación potenciada con Inteligencia Artificial (IA)

Por Guillermo Mejía

Las herramientas de la Inteligencia Artificial (IA) –cada vez más sofisticadas- son un invaluable recurso a nuestra disposición, con los retos que suponen; sin embargo, también han potenciado y refinado los mecanismos de desinformación existentes, ante los cuales la sociedad carece de defensas.

 

Las conclusiones se derivan del estudio de la Fundación Luca de Tena, de España, titulado “Los nuevos contornos de la desinformación – 2025”, cuya base es una investigación en el marco de la campaña electoral de las elecciones europeas del 9 de junio de 2024, para entender las técnicas de manipulación digital a través de redes sociales.

 

“La identificación de formatos se hizo a partir de la escucha social realizada desde ocho perfiles de redes sociales creados en Instagram, Facebook, X y TikTok a los que se dotó de una personalidad propia, con perfiles ideológicos o neutros y distintos campos de interés y experiencias de usuarios”, reza el informe.

 

El trabajo permitió constatar “la generalización de las recomendaciones polarizadoras por parte de las redes sociales, así como la emergencia y evolución de nuevos formatos de desinformación, a menudo alimentados con Inteligencia Artificial (IA) cada vez más sofisticados y extendidos”, añade.

 

La desinformación reinante en la sociedad actual ha sido preocupación constante a partir de su presencia en el sistema de medios de comunicación colectiva y, en el presente, desbordada con la experiencia de las redes sociales, pero el fenómeno se ha complejizado aún más con el desarrollo paulatino de las herramientas de la Inteligencia Artificial (IA).

 

Las principales conclusiones resumidas del estudio son las siguientes:

 

1.- Los falsos medios y las granjas de contenidos, una seria amenaza a la supervivencia de los medios de información

La inteligencia artificial ha llevado a la desinformación a otro nivel. Esta tecnología permite generar ilustraciones o pretendidas fotografías cuyo contenido apela directamente a las emociones de los usuarios al resultar conmovedoras, tiernas o simplemente chocantes. Se han detectado contenidos “señuelo”, que incluye un primer comentario que invita al usuario a ampliar la información en un enlace externo. Se trata de la puerta de acceso a un falso medio o granja de contenidos. En esta fase la inteligencia artificial alimenta todo el proceso, desde el diseño y la creación de una web como la de los contenidos, en su mayoría falsos artículos de prensa sobre personajes conocidos y celebridades. Estas publicaciones suelen abordar temas controvertidos o emocionalmente impactantes, lo que asegura así un alto nivel de visibilidad. Aprovechando esta exposición, los actores malintencionados insertan comentarios que contienen enlaces o referencias a sitios web que, aunque parecen ser fuentes legítimas, son en realidad portales diseñados para engañar al usuario.

 

Una característica destacada y especialmente preocupante de estos sitios es que frecuentemente contienen espacios publicitarios que generan ingresos económicos. Muchas veces las empresas reales pagan por estos anuncios a través de sistemas de publicidad programática sin conocer el contexto en el que aparecerán sus marcas. Esto no solo proporciona financiamiento a los falsos medios, sino que también les otorga una legitimidad aparente ante los ojos de los usuarios. Además, estas páginas pueden recopilar información personal de los visitantes, aumentando los riesgos para la privacidad y seguridad de los datos.

 

El auge de los falsos medios o granjas de contenidos no solo desinforma al público, sino que también socava el modelo económico de los medios de comunicación legítimos. Al capturar una porción significativa del tráfico digital y los ingresos publicitarios, estas granjas de contenido privan a los medios auténticos de recursos esenciales para mantener la calidad y el alcance de su labor informativa.

 

2.- La desinformación como fenómeno continuo y adaptativo

La desinformación ya no es un fenómeno puntual vinculado exclusivamente a momentos de alta actividad política, como las campañas electorales. Se ha transformado en un flujo continuo, con actores que operan fuera del radar institucional y que, gracias a la persistencia de las plataformas digitales, pueden mantener sus narrativas durante largos periodos. Esto supone un desafío mayor para las instituciones democráticas, que tradicionalmente han estructurado sus esfuerzos de control y verificación en torno a calendarios electorales.

 

La capacidad de estos actores para adaptar sus mensajes y técnicas a diferentes perfiles, utilizando IA para generar contenido personalizado y dirigido, incrementa la eficacia de sus campañas. Esto se observa claramente en la interacción de los perfiles que creamos, donde aquellos con intereses específicos o vulnerabilidades claras, como la preocupación por la inmigración o el medio ambiente, fueron objeto de mensajes desinformativos especialmente diseñados para resonar con esas preocupaciones.

 

3.- La inteligencia artificial y la sofisticación de los bulos

La inteligencia artificial tiene un papel cada vez más relevante en la generación de contenidos desinformativos. Este estudio ha documentado la proliferación de imágenes, vídeos y textos manipulados mediante IA, lo que no solo amplifica el alcance de la desinformación, sino que dificulta enormemente su detección y refutación. Los deepfakes y las suplantaciones de identidad digital se han convertido en herramientas habituales para los desinformadores, quienes ahora cuentan con tecnologías que les permiten recrear con gran realismo figuras públicas o fabricar hechos complemente falsos. La IA facilita la creación de lo que podríamos llamar “bulos-comodín”, narrativas falsas que se replican con ligeras variaciones en distintos contextos geográficos y temporales, aprovechado el desconocimiento o la confusión de los usuarios sobre temas complejos o polémicos.

 

4.- La polarización como estrategia y resultado

La polarización emerge en este estudio como una estrategia central en las campañas de desinformación, pero también como un resultado preocupante de estas prácticas. Los perfiles que analizamos recibieron de manera sistemática contenidos que exacerbaban divisiones sociales y políticas, presentando realidades simplificadas y antagonistas que buscan movilizar a los usuarios hacia posiciones extremas.

 

Una de las conclusiones más importantes de nuestro estudio es la aparente imposibilidad de mantener una postura moderada o apolítica en las redes sociales. A pesar de que los perfiles creados para esta investigación no expresaban en su mayoría preferencias ideológicas claras, el algoritmo de las plataformas insistió en exponerlos a contenidos polarizadores. Esta tendencia parece reflejar un sesgo estructural dentro de los sistemas de recomendación, diseñados para maximizar la interacción del usuario, lo que a menudo significa priorizar contenidos que generen fuertes reacciones emocionales, como la indignación o el miedo.

 

Lo que el estudio confirma es que esta dinámica de radicalización no discrimina; afecta por igual a usuarios ideológicamente indefinidos, arrastrándolos hacia narrativas extremistas a través de la personalización algorítmica. Esta inercia hacia los extremos plantea serias preguntas sobre el impacto de las redes sociales en la moderación del discurso público y la salud de las democracias contemporáneas.

 

5.- La segmentación y personalización de la desinformación

La segmentación de la desinformación es otro aspecto crítico que el estudio pone de relieve. Los perfiles fueron objeto de una personalización extrema en los contenidos desinformativos recibidos, que se ajustaban no solo a sus intereses manifiestos, sino también a sus vulnerabilidades latentes. Esto se hizo evidente en casos como el de David, el joven con interés en la inmigración, que recibió una avalancha de contenidos radicales y xenófobos, o el de Aitana, cuya preocupación por el medio ambiente la convirtió en blanco de bulos sobre políticas climáticas.

 

Esta personalización no solo incrementa la eficacia de las campañas de desinformación, sino que también plantea preguntas sobre la responsabilidad de las plataformas en la protección de sus usuarios. Las redes sociales, al priorizar la retención de usuarios sobre la calidad de la información, permiten que estos contenidos encuentren su camino hacia las personas más susceptibles de ser influenciadas.

 

6.- Desinformación transnacional y narrativas recurrentes

Este estudio subraya la dimensión transnacional de la desinformación, con narrativas que se replican en diferentes países y contextos, adaptándose ligeramente para encajar en los discursos locales. La cuestión migratoria es un claro ejemplo de esto, con bulos que cruzan fronteras y se adaptan a los miedos y prejuicios de cada sociedad. Estos “bulos-comodín” no solo se reproducen, sino que se refuerzan mutuamente, creando una sensación de verdad debido a su omnipresencia.

 

La recurrencia de estas narrativas plantea un desafío adicional para la verificación y educación mediática, ya que los usuarios se enfrentan a una repetición constante de las mismas mentiras, que terminan por normalizarse o aceptarse como posibles.

 

Un aspecto crucial dentro de la desinformación transnacional es el papel destacado que ha jugado Rusia en las estrategias globales de manipulación informativa contra Occidente. La maquinaria de desinformación rusa ha sido prolífica en la creación y difusión de narrativas que explotan las divisiones sociales y políticas en Occidente. A través de redes sociales como X (anteriormente Twitter) y Facebook, y con el respaldo de medios estatales como RT y Sputnik, se han amplificado temas sensibles como la inmigración, el nacionalismo, y la soberanía, con el objetivo de polarizar a las sociedades occidentales. Estas narrativas, cuidadosamente diseñadas, a menudo recurren a la fabricación de bulos o la manipulación de hechos, presentando a Rusia como un contrapeso moral y político a un Occidente corrupto y decadente.

 

7.- El auge de las estafas financieras en redes sociales: un problema generalizado

Uno de los aspectos más alarmantes que ha evidenciado el estudio es la proliferación de estafas financieras, particularmente aquellas relacionadas con criptomonedas, que ha inundado las redes sociales en los últimos años. Estas estafas no solo afectan a usuarios individuales, sino que también socavan la confianza en las plataformas digitales, las cuales parecen incapaces de controlar el flujo de contenido fraudulento que circula a través de sus sistemas.

 

Durante el análisis, observamos que varios de los perfiles de estudio, sin importar su demografía o intereses específicos, fueron repetidamente expuestos a este tipo de contenido. Las estafas con criptomonedas, en particular, han encontrado terreno fértil en redes como Facebook e Instagram, donde los estafadores se aprovechan de la falta de conocimientos técnicos de los usuarios y de la creciente popularidad de estas monedas digitales para engañarlos. A menudo, estas estafas se presentan bajo la apariencia de ofertas irresistibles, respaldadas por supuestas celebridades o figuras públicas, cuyas identidades han sido suplantadas mediante sofisticadas técnicas de manipulación digital.

 

El modus operandi de estas estafas es cada vez más sofisticado. Los estafadores emplean técnicas de ingeniería social para ganar la confianza de sus víctimas, prometiendo rendimientos exorbitantes y rápidos a cambio de pequeñas inversiones iniciales. Estos fraudes son facilitados por el diseño de las plataformas sociales, que permiten una fácil segmentación y personalización del contenido publicitario.

 

Resulta, pues, preocupante la escala desinformativa, que parece no tener fin, ahora potenciada con las herramientas de la Inteligencia Artificial (IA) sobre todo en la sociedad contemporánea que, en general, carece de alfabetismo mediático y digital, además que sobrevive bajo gobiernos que le apuestan a la desinformación en el ejercicio del poder.    

No hay comentarios.: