Por Guillermo Mejía
Las herramientas de la Inteligencia Artificial
(IA) –cada vez más sofisticadas- son un invaluable recurso a nuestra
disposición, con los retos que suponen; sin embargo, también han potenciado y
refinado los mecanismos de desinformación existentes, ante los cuales la
sociedad carece de defensas.
Las conclusiones se derivan del estudio de la
Fundación Luca de Tena, de España, titulado “Los
nuevos contornos de la desinformación – 2025”, cuya base es una
investigación en el marco de la campaña electoral de las elecciones europeas
del 9 de junio de 2024, para entender las técnicas de manipulación digital a
través de redes sociales.
“La identificación de formatos se hizo a partir
de la escucha social realizada desde ocho perfiles de redes sociales creados en
Instagram, Facebook, X y TikTok a los que se dotó de una personalidad propia,
con perfiles ideológicos o neutros y distintos campos de interés y experiencias
de usuarios”, reza el informe.
El trabajo permitió constatar “la
generalización de las recomendaciones polarizadoras por parte de las redes
sociales, así como la emergencia y evolución de nuevos formatos de
desinformación, a menudo alimentados con Inteligencia Artificial (IA) cada vez
más sofisticados y extendidos”, añade.
La desinformación reinante en la sociedad
actual ha sido preocupación constante a partir de su presencia en el sistema de
medios de comunicación colectiva y, en el presente, desbordada con la
experiencia de las redes sociales, pero el fenómeno se ha complejizado aún más
con el desarrollo paulatino de las herramientas de la Inteligencia Artificial
(IA).
Las principales conclusiones resumidas del
estudio son las siguientes:
1.- Los
falsos medios y las granjas de contenidos, una seria amenaza a la supervivencia
de los medios de información
La inteligencia artificial ha llevado a la
desinformación a otro nivel. Esta tecnología permite generar ilustraciones o
pretendidas fotografías cuyo contenido apela directamente a las emociones de
los usuarios al resultar conmovedoras, tiernas o simplemente chocantes. Se han
detectado contenidos “señuelo”, que incluye un primer comentario que invita al
usuario a ampliar la información en un enlace externo. Se trata de la puerta de
acceso a un falso medio o granja de contenidos. En esta fase la inteligencia
artificial alimenta todo el proceso, desde el diseño y la creación de una web
como la de los contenidos, en su mayoría falsos artículos de prensa sobre
personajes conocidos y celebridades. Estas publicaciones suelen abordar temas
controvertidos o emocionalmente impactantes, lo que asegura así un alto nivel
de visibilidad. Aprovechando esta exposición, los actores malintencionados
insertan comentarios que contienen enlaces o referencias a sitios web que,
aunque parecen ser fuentes legítimas, son en realidad portales diseñados para engañar
al usuario.
Una característica destacada y especialmente
preocupante de estos sitios es que frecuentemente contienen espacios
publicitarios que generan ingresos económicos. Muchas veces las empresas reales
pagan por estos anuncios a través de sistemas de publicidad programática sin
conocer el contexto en el que aparecerán sus marcas. Esto no solo proporciona
financiamiento a los falsos medios, sino que también les otorga una legitimidad
aparente ante los ojos de los usuarios. Además, estas páginas pueden recopilar
información personal de los visitantes, aumentando los riesgos para la
privacidad y seguridad de los datos.
El auge de los falsos medios o granjas de
contenidos no solo desinforma al público, sino que también socava el modelo
económico de los medios de comunicación legítimos. Al capturar una porción
significativa del tráfico digital y los ingresos publicitarios, estas granjas
de contenido privan a los medios auténticos de recursos esenciales para
mantener la calidad y el alcance de su labor informativa.
2.- La
desinformación como fenómeno continuo y adaptativo
La desinformación ya no es un fenómeno puntual
vinculado exclusivamente a momentos de alta actividad política, como las
campañas electorales. Se ha transformado en un flujo continuo, con actores que
operan fuera del radar institucional y que, gracias a la persistencia de las
plataformas digitales, pueden mantener sus narrativas durante largos periodos. Esto
supone un desafío mayor para las instituciones democráticas, que
tradicionalmente han estructurado sus esfuerzos de control y verificación en
torno a calendarios electorales.
La capacidad de estos actores para adaptar sus
mensajes y técnicas a diferentes perfiles, utilizando IA para generar contenido
personalizado y dirigido, incrementa la eficacia de sus campañas. Esto se observa
claramente en la interacción de los perfiles que creamos, donde aquellos con
intereses específicos o vulnerabilidades claras, como la preocupación por la
inmigración o el medio ambiente, fueron objeto de mensajes desinformativos
especialmente diseñados para resonar con esas preocupaciones.
3.- La
inteligencia artificial y la sofisticación de los bulos
La inteligencia artificial tiene un papel cada
vez más relevante en la generación de contenidos desinformativos. Este estudio
ha documentado la proliferación de imágenes, vídeos y textos manipulados
mediante IA, lo que no solo amplifica el alcance de la desinformación, sino que
dificulta enormemente su detección y refutación. Los deepfakes y las suplantaciones de identidad digital se han
convertido en herramientas habituales para los desinformadores, quienes ahora
cuentan con tecnologías que les permiten recrear con gran realismo figuras
públicas o fabricar hechos complemente falsos. La IA facilita la creación de lo
que podríamos llamar “bulos-comodín”, narrativas falsas que se replican con
ligeras variaciones en distintos contextos geográficos y temporales,
aprovechado el desconocimiento o la confusión de los usuarios sobre temas
complejos o polémicos.
4.- La
polarización como estrategia y resultado
La polarización emerge en este estudio como una
estrategia central en las campañas de desinformación, pero también como un
resultado preocupante de estas prácticas. Los perfiles que analizamos
recibieron de manera sistemática contenidos que exacerbaban divisiones sociales
y políticas, presentando realidades simplificadas y antagonistas que buscan
movilizar a los usuarios hacia posiciones extremas.
Una de las conclusiones más importantes de
nuestro estudio es la aparente imposibilidad de mantener una postura moderada o
apolítica en las redes sociales. A pesar de que los perfiles creados para esta
investigación no expresaban en su mayoría preferencias ideológicas claras, el
algoritmo de las plataformas insistió en exponerlos a contenidos polarizadores.
Esta tendencia parece reflejar un sesgo estructural dentro de los sistemas de
recomendación, diseñados para maximizar la interacción del usuario, lo que a
menudo significa priorizar contenidos que generen fuertes reacciones
emocionales, como la indignación o el miedo.
Lo que el estudio confirma es que esta dinámica
de radicalización no discrimina; afecta por igual a usuarios ideológicamente
indefinidos, arrastrándolos hacia narrativas extremistas a través de la
personalización algorítmica. Esta inercia hacia los extremos plantea serias preguntas
sobre el impacto de las redes sociales en la moderación del discurso público y
la salud de las democracias contemporáneas.
5.- La segmentación
y personalización de la desinformación
La segmentación de la desinformación es otro
aspecto crítico que el estudio pone de relieve. Los perfiles fueron objeto de
una personalización extrema en los contenidos desinformativos recibidos, que se
ajustaban no solo a sus intereses manifiestos, sino también a sus
vulnerabilidades latentes. Esto se hizo evidente en casos como el de David, el
joven con interés en la inmigración, que recibió una avalancha de contenidos
radicales y xenófobos, o el de Aitana, cuya preocupación por el medio ambiente
la convirtió en blanco de bulos sobre políticas climáticas.
Esta personalización no solo incrementa la
eficacia de las campañas de desinformación, sino que también plantea preguntas
sobre la responsabilidad de las plataformas en la protección de sus usuarios.
Las redes sociales, al priorizar la retención de usuarios sobre la calidad de
la información, permiten que estos contenidos encuentren su camino hacia las
personas más susceptibles de ser influenciadas.
6.-
Desinformación transnacional y narrativas recurrentes
Este estudio subraya la dimensión transnacional
de la desinformación, con narrativas que se replican en diferentes países y
contextos, adaptándose ligeramente para encajar en los discursos locales. La
cuestión migratoria es un claro ejemplo de esto, con bulos que cruzan fronteras
y se adaptan a los miedos y prejuicios de cada sociedad. Estos “bulos-comodín”
no solo se reproducen, sino que se refuerzan mutuamente, creando una sensación
de verdad debido a su omnipresencia.
La recurrencia de estas narrativas plantea un
desafío adicional para la verificación y educación mediática, ya que los
usuarios se enfrentan a una repetición constante de las mismas mentiras, que
terminan por normalizarse o aceptarse como posibles.
Un aspecto crucial dentro de la desinformación
transnacional es el papel destacado que ha jugado Rusia en las estrategias
globales de manipulación informativa contra Occidente. La maquinaria de
desinformación rusa ha sido prolífica en la creación y difusión de narrativas
que explotan las divisiones sociales y políticas en Occidente. A través de
redes sociales como X (anteriormente Twitter) y Facebook, y con el respaldo de
medios estatales como RT y Sputnik, se han amplificado temas sensibles como la
inmigración, el nacionalismo, y la soberanía, con el objetivo de polarizar a
las sociedades occidentales. Estas narrativas, cuidadosamente diseñadas, a
menudo recurren a la fabricación de bulos o la manipulación de hechos,
presentando a Rusia como un contrapeso moral y político a un Occidente corrupto
y decadente.
7.- El
auge de las estafas financieras en redes sociales: un problema generalizado
Uno de los aspectos más alarmantes que ha
evidenciado el estudio es la proliferación de estafas financieras,
particularmente aquellas relacionadas con criptomonedas, que ha inundado las
redes sociales en los últimos años. Estas estafas no solo afectan a usuarios
individuales, sino que también socavan la confianza en las plataformas
digitales, las cuales parecen incapaces de controlar el flujo de contenido
fraudulento que circula a través de sus sistemas.
Durante el análisis, observamos que varios de
los perfiles de estudio, sin importar su demografía o intereses específicos,
fueron repetidamente expuestos a este tipo de contenido. Las estafas con
criptomonedas, en particular, han encontrado terreno fértil en redes como
Facebook e Instagram, donde los estafadores se aprovechan de la falta de
conocimientos técnicos de los usuarios y de la creciente popularidad de estas
monedas digitales para engañarlos. A menudo, estas estafas se presentan bajo la
apariencia de ofertas irresistibles, respaldadas por supuestas celebridades o
figuras públicas, cuyas identidades han sido suplantadas mediante sofisticadas
técnicas de manipulación digital.
El modus operandi de estas estafas es cada vez
más sofisticado. Los estafadores emplean técnicas de ingeniería social para
ganar la confianza de sus víctimas, prometiendo rendimientos exorbitantes y
rápidos a cambio de pequeñas inversiones iniciales. Estos fraudes son
facilitados por el diseño de las plataformas sociales, que permiten una fácil
segmentación y personalización del contenido publicitario.
Resulta, pues, preocupante la escala
desinformativa, que parece no tener fin, ahora potenciada con las herramientas
de la Inteligencia Artificial (IA) sobre todo en la sociedad contemporánea que,
en general, carece de alfabetismo mediático y digital, además que sobrevive
bajo gobiernos que le apuestan a la desinformación en el ejercicio del poder.