ENTREVISTAS

Adnan Masood: “El aspecto más peligroso de la propaganda con IA es su invisibilidad”



Dirección copiada

Para Adnan Masood, Arquitecto Jefe de IA en UST, la era digital ha transformado la propaganda, pasando de simples mensajes masivos a una manipulación cognitiva de alta precisión

Publicado el 6 may 2025

Rufino Contreras

Redactor Jefe



adnan_masood_007

Adnan Masood es un destacado experto en inteligencia artificial (IA) y aprendizaje automático (ML), con más de dos décadas de experiencia internacional en el desarrollo de sistemas de gran escala en sectores como tecnología financiera, salud, retail y manufactura. Actualmente, ocupa el cargo de Chief AI Architect en UST, donde lidera la estrategia global de la empresa en IA, aprendizaje automático, IA generativa y colaboraciones académicas con instituciones como el MIT y el Stanford AI Lab.

¿Qué entendemos hoy por “guerra propagandística” en el contexto de la inteligencia artificial? ¿Qué ha cambiado con respecto al pasado?

La era digital ha transformado la propaganda, pasando de simples mensajes masivos a una manipulación cognitiva de alta precisión. La propaganda de hoy, potenciada por IA, representa un punto de inflexión estratégico en la guerra de la información. Estos sistemas no se limitan a distribuir contenido: analizan perfiles psicológicos, personalizan tácticas de persuasión y operan a una escala sin precedentes. Cuando un adversario extranjero despliega deepfakes y modelos de lenguaje avanzados en las redes sociales, no está simplemente compartiendo perspectivas, sino ejecutando una captura cognitiva a escala industrial.

¿Es posible que poblaciones enteras consuman narrativas moldeadas por IA sin saberlo?

El aspecto más peligroso de la propaganda con IA no es su alcance, sino su invisibilidad. Las poblaciones modernas consumen a diario narrativas moldeadas por IA sin percibirlo. Esto es posible no solo por la sofisticación tecnológica, sino también por la ambigüedad estratégica. Los sistemas de IA pueden inyectar de forma imperceptible un consenso fabricado en nuestro ecosistema informativo, aprovechando los algoritmos de recomendación para crear cámaras de eco personalizadas. Esta microsegmentación psicológica provoca lo que denomino “fragmentación de la percepción”: la propia realidad compartida se convierte en un campo de batalla competitivo.

¿Cuáles son los principales tipos de sesgos que pueden incorporarse en una IA?

En el ecosistema de la propaganda con IA, el sesgo funciona tanto como vector como carga útil. Los sistemas de IA de alto impacto incorporan varios sesgos críticos que requieren la atención de la alta dirección:

  • Sesgo de selección: crea puntos ciegos al entrenar con datos no representativos.
  • Sesgo de confirmación: instrumentaliza patrones históricos para reforzar prejuicios preexistentes.
  • Sesgo de medición: distorsiona variables clave, generando una desalineación sistémica.

Los propagandistas más sofisticados no ven estos sesgos como defectos, sino como características aprovechables: cada uno de ellos representa un vector operativo para insertar narrativas.

El caso de Cambridge Analytica supuso un punto de inflexión. ¿Cómo se llevó a cabo el gran engaño?

La saga de Cambridge Analytica representa un punto de inflexión estratégico en la propaganda basada en datos. Esta empresa no se limitó a recopilar información: obtuvo perfiles psicológicos de 87 millones de usuarios de Facebook sin consentimiento, con el objetivo de llevar a cabo manipulación cognitiva microsegmentada durante procesos electorales. Lo más revelador de este caso es su ejecución meticulosa: la compañía empleó un sofisticado perfilado psicográfico para identificar votantes susceptibles de ser persuadidos, ofreciendo contenido con precisión quirúrgica para explotar sus vulnerabilidades psicológicas.

adnan_masood_007

Cambridge Analytica no solo convencía: creaba ‘campos de distorsión de la realidad’ personalizados

ADNAN MASSOD, UST

Las implicaciones organizativas son profundas. Cambridge Analytica no solo convencía: creaba “campos de distorsión de la realidad” personalizados. Cuando sus directivos afirmaron tener “5.000 datos sobre cada votante estadounidense”, no estaban describiendo una ventaja de marketing, sino una capacidad de guerra de información asimétrica. Su enfoque representó una barrera cognitiva en las campañas políticas que cambió de manera radical la percepción de la gobernanza de datos: ya no se trata de un simple asunto de cumplimiento normativo, sino de una prioridad de seguridad nacional.

La IRA también supuso un nuevo giro de tuerca en la estrategia del engaño

La Internet Research Agency (IRA) ofrece otro marco esclarecedor para entender la manipulación narrativa a escala industrial. A diferencia de la focalización quirúrgica de Cambridge Analytica, la IRA puso en marcha lo que denominó “saturación cognitiva distribuida”: inundar los canales de información con contenido fabricado para fragmentar el consenso público. Con cientos de empleados trabajando en turnos de 12 horas para generar miles de perfiles en redes sociales, la operación alcanzó una asombrosa velocidad de decisión en el despliegue de narrativas.

Lo que distinguió a esta estrategia no fue el volumen, sino la coherencia estratégica. La operación creó meticulosamente identidades falsas, generó contenido divisivo y orquestó movimientos sociales falsos, todo ello manteniendo la negación plausible. No era solo desinformación, sino un esfuerzo coordinado para desestabilizar la realidad compartida, demostrando cómo inversiones relativamente modestas en operaciones de propaganda pueden conseguir retornos desproporcionados al fragmentar audiencias y erosionar la confianza.

En el caso de modelos como DeepSeek, ¿cómo se manifiestan esos sesgos en la práctica? ¿Qué implicaciones tiene que una IA evite ciertos temas o adopte narrativas oficiales de un Estado?

Del mismo modo, algunos modelos fundamentales de desarrollo extranjero, como DeepSeek, demuestran una excelente capacidad operativa para aplicar sesgos. Cuando se les pregunta sobre acontecimientos históricos sensibles, muestran una innovación orientada al control narrativo: eluden hablar de sucesos incómodos para el régimen y, en cambio, refuerzan interpretaciones aprobadas por el Estado. Esto no es mera censura, sino una gestión estratégica de la narrativa que impulsa el liderazgo ideológico en un ecosistema de información controlada.

Retro collage style poster. A woman shows sign NO with a palm. STOP gesture, domestic violence, rights for abortion, discrimination.

El riesgo va más allá de las interacciones individuales. Cuando este tipo de modelos impulsa plataformas educativas, motores de búsqueda o sistemas de recomendación de contenidos, reescribe la memoria colectiva a través de su legitimidad institucional. Estos sistemas no solo evitan verdades incómodas, sino que fabrican marcos históricos alineados con los imperativos estratégicos de sus estructuras de gobierno.

¿Qué países están liderando este tipo de estrategias?

El motor de liderazgo en la propaganda con IA pertenece actualmente a dos actores principales. Una potencia oriental emplea deepfakes y modelos de lenguaje avanzados para debilitar instituciones democráticas mediante la erosión de la confianza, generando flexibilidad estratégica gracias a la división social. Otra gran potencia asiática se centra en la fabricación de consenso, desplegando innovación en gobernanza para garantizar que sus sistemas de IA refuercen las posiciones aprobadas, estableciendo así una ventaja competitiva en el control de la narrativa.

Otras potencias regionales han desarrollado sus propios marcos operativos, aunque con menos sofisticación en la ejecución. La dura realidad es que los modelos de gobernanza autoritarios disfrutan actualmente de una diferenciación competitiva significativa en el ámbito de la propaganda debido a su velocidad de decisión y sus capacidades de integración vertical.

¿Podríamos decir que estas IA están, de facto, reescribiendo la historia para millones de personas?

Estos estudios de caso evidencian una clara evolución en la guerra narrativa. Hemos pasado de las operaciones psicológicas enfocadas de Cambridge Analytica a la saturación cognitiva distribuida de Rusia, y hoy presenciamos la aparición de la propaganda basada en modelos fundamentales, cada vez más escalable, con mayor negación plausible y mayor impacto estratégico.

La progresión histórica muestra una trayectoria inquietante. En sus inicios, la propaganda digital requería mucho capital humano y dejaba huellas operativas detectables. Los sistemas de IA de hoy permiten capacidades asimétricas: equipos reducidos pueden generar manipulación narrativa a escala industrial con un riesgo mínimo de atribución. Los sistemas futuros probablemente automatizarán todo el ciclo de vida de la propaganda, desde la identificación de la audiencia hasta la generación de contenido personalizado y la medición de la eficacia.

¿Existe una respuesta internacional o mecanismos regulatorios para evitar este tipo de manipulación a gran escala? ¿Qué debería hacerse?

La respuesta internacional sigue siendo, en el mejor de los casos, fragmentada. Aunque algunos marcos regulatorios europeos responsabilizan a las grandes tecnológicas del contenido dañino, esto supone soluciones parciales más que una apuesta estratégica integral. No necesitamos una adaptación incremental, sino un objetivo audaz: dotar a las organizaciones de resiliencia frente a la guerra de propaganda con IA.

Los ejecutivos financieros deben reconocer que la seguridad cognitiva representa tanto una estrategia de mitigación de riesgos como un imperativo estratégico. Los directores de IA han de incorporar la evaluación adversarial y la detección de sesgos como competencias esenciales en la optimización de la cadena de valor. Los miembros de la junta directiva tienen que elevar la defensa contra la propaganda de un problema meramente técnico a una cuestión de legitimidad institucional.

El camino a seguir requiere la implicación de todos los grupos de interés y pondrá a prueba la determinación del liderazgo, que deberá desarrollar capacidades dinámicas que combinen contramedidas técnicas con elasticidad estratégica. En la era de la propaganda impulsada por IA, la realidad compartida se ha convertido en un territorio disputado. La pregunta no es si tu organización se enfrentará a narrativas de IA convertidas en arma, sino si contará con la cohesión estratégica para resistirlas. Quienes comprendan este campo de batalla invisible desarrollarán la mentalidad de liderazgo necesaria para prosperar en medio de la incertidumbre fabricada.

Artículos relacionados

Artículo 1 de 5

OSZAR »