Enjambres de agentes de IA autónomos, capaces de mantener identidades falsas persistentes, adaptar mensajes en tiempo real y coordinarse sin supervisión humana, pueden fabricar consensos sintéticos en las redes sociales que degradan el mecanismo con el que las sociedades procesan la información colectiva.
Durante años, las campañas de manipulación en redes han tenido un límite poco visible, pero decisivo: dependían de personas para abrir cuentas, sostener personajes, responder a otros usuarios, ajustar el mensaje al clima del día, insistir sin quemarse. Incluso cuando se usaban “granjas” de perfiles o botnets (redes de ordenadores, servidores o dispositivos IoT infectados con virus y controlados remotamente por un atacante), el trabajo que convierte un eslogan en conversación seguía siendo caro, lento y difícil de escalar.
Ahora ese cuello de botella empieza a ceder, advierte un artículo publicado en la revista Science. Los avances en inteligencia artificial permiten generar mensajes persuasivos y personalizados a gran velocidad, y hacerlo con un barniz de naturalidad que complica la detección.
Lo que debes saber: enjambres de IA maliciosos
- Identidades persistentes: Mantienen perfiles falsos con memoria y trayectoria.
- Coordinación sin jefe: Se sincronizan localmente sin mando central evidente, formando «sociedades» emergentes.
- Mimetismo perfecto: Avatares realistas, jerga contextual, ritmos de publicación heterogéneos que esquivan detectores.
- Auto-aprendizaje: Ejecutan millones de micro-pruebas por hora, propagando «la variante ganadora» a velocidad de máquina.
- Persistencia 24/7: Operan sin descanso, incrustándose en comunidades durante meses.
- Envenenamiento epistémico: Inundan la web con contenido fabricado para contaminar datos de entrenamiento de futuras IAs.
- Erosión de independencia: Fabrican consensos sintéticos que degradan el mecanismo con el que pensamos colectivamente.
- Sin solución única: Requieren detección continua, auditorías públicas, fortalecimiento de procedencia y coordinación global.
Referencia
How malicious AI swarms can threaten democracy. Daniel Thilo Schroeder et al. Science 22 Jan 2026, Vol 391, Issue 6783, pp. 354-357. DOI: 10.1126/science.adz1697
Nuevo escenario
En ese nuevo escenario, la manipulación deja de ser un esfuerzo artesanal y puede convertirse en un servicio continuo, con presencia permanente, capaz de aprender a medida que interactúa con nosotros.
Los investigadores llaman a esta desarrollo tecnológico “enjambres” de agentes maliciosos de IA. Explican que son un conjunto de agentes controlados por IA que mantiene identidades persistentes y memoria, se coordina hacia objetivos comunes sin sonar uniforme, se adapta en tiempo real a la reacción humana y a las señales de cada plataforma, funciona con mínima supervisión y puede desplegarse en varios espacios a la vez.
La diferencia con la coordinación clásica —cuentas que repiten consignas, inflan tendencias y sincronizan actividad— es que la fuerza del enjambre surge de combinar escala, heterogeneidad y adaptación continua, hasta producir contenido “orgánico”, contextual y coherente a lo largo del tiempo.
Deterioro sistémico
El artículo recuerda que emergen estos enjambres en un momento en el que la esfera pública se ha vuelto inestable: si la imprenta amplió la circulación de ideas y si el periodo de radiodifusión concentró el poder comunicativo en pocos emisores; la era digital fragmentó la conversación en múltiples comunidades, redujo barreras de entrada y, de paso, facilitó operaciones de influencia en un entorno polarizado.
En paralelo, se ha erosionado la confianza en instituciones centrales —medios, ciencia, gobierno—, justo la base que hace posible discutir sobre hechos compartidos. En ese terreno, los enjambres serían un acelerante: no inventan las grietas, pero pueden ensancharlas con una eficacia inédita.
Saltos técnicos
Los autores describen varios saltos técnicos que explican por qué este tipo de operaciones podría superar lo que vimos con la toxicidad de las redes actuales.
Uno es la coordinación flexible: en lugar de un mando central evidente, un operador podría gestionar miles de “personas” que actúan localmente, ajustan el tono a cada comunidad y se sincronizan de manera intermitente, difuminando la huella del control. Incluso se contempla que, con el tiempo, esos conjuntos adopten dinámicas de “sociedades” internas, con división de tareas y formación de normas, lo que desplaza el problema: ya no basta con rastrear órdenes, hay que entender una cognición colectiva emergente.
Otro salto es la capacidad de cartografiar redes e infiltrar comunidades vulnerables con mensajes hechos a medida, identificando grupos, creencias y temas en tendencia. A esto se suma el mimetismo: avatares realistas, jerga adecuada y ritmos de publicación heterogéneos pueden esquivar detectores pensados para mensajes repetitivos, porque la detección tradicional se apoya en similitudes sospechosas entre cuentas. Nada que ver con los enjambres.
Y aparece un elemento especialmente disruptivo: la auto-optimización. Un enjambre puede cosechar métricas de interacciones, pistas programadas o respuestas explícitas de usuarios, ejecutar millones de micropruebas y propagar “la variante ganadora” a velocidad de una máquina. Finalmente, la persistencia lo cambia todo: en lugar de campañas efímeras, puede haber una infraestructura de influencia que se incrusta durante meses, moldeando poco a poco el lenguaje, los símbolos y la identidad de una comunidad.
Impactos demoledores
Las consecuencias que se plantean para la democracia dependen de efectos acumulativos sobre la opinión pública, especialmente allí donde el diseño de plataformas y mercados premia la atención por encima de la autenticidad.
Una vía de daño es la fabricación de consenso sintético: sembrar una narrativa en nichos distintos, reforzarla con “me gusta” y acuerdos cruzados, y levantar un coro de voces aparentemente independientes que empuja a la gente a ajustar su posición por norma social más que por evidencia. Ese mecanismo ataca un pilar silencioso de la inteligencia colectiva: la independencia entre juicios. Si la independencia se pierde, la “sabiduría de las multitudes” deja de funcionar y la conversación pública se vuelve más moldeable.
Otra vía es la construcción de realidades segmentadas. Los agentes pueden adaptar la desinformación a marcadores lingüísticos, culturales y emocionales de cada subcomunidad, generando mundos paralelos que dificultan el consenso entre grupos. A eso se añade un riesgo de segunda capa: inundar la web con chats fabricados para contaminar datos de entrenamiento y reentrenamiento, en una estrategia de “LLM grooming” que, según el texto, ya tendría habrían aparecido en redes diseñadas más para ser consumidas por rastreadores que por lectores humanos, con duplicación masiva en múltiples dominios y poco tráfico real.
Si esa práctica se consolida, no solo se manipula a votantes; se manipula la materia prima con la que aprenderán futuras herramientas de IA que luego mediarán debates y búsquedas.
Posibles remedios
Para hacer frente a estas amenazas, el artículo propone una estrategia por capas cuyo objetivo es elevar los costes a los atacantes y aumentar la probabilidad de descubrimiento de esta sofisticada falacia virtual.
Plantea monitorización continua con auditorías públicas centrada en patrones de coordinación y procedencia que serían como “escudos” opcionales para que los usuarios puedan degradar o filtrar contenido con alta probabilidad de enjambre, y simulaciones con agentes en redes sintéticas para poner a prueba detectores frente a tácticas futuras.
Insiste también en fortalecer la procedencia mediante mecanismos como claves de acceso y atestaciones criptográficas, admitiendo límites serios (privacidad, exclusión, riesgo para disidentes) y la necesidad de salvaguardas.
Y, por último, propone un marco de coordinación internacional, un “AI Influence Observatory”, para estandarizar evidencia, mejorar la conciencia situacional y publicar informes verificados que sirvan de base a respuestas regulatorias y sanciones cuando proceda.
Cuestión de voluntad
El impacto de estas medidas dependerá de cómo se rediseñen incentivos y arquitecturas en un ecosistema informativo que hoy recompensa lo que excita, polariza o simplifica.
Los enjambres no serían el fin de la esfera pública, pero obligan a decidir si el espacio donde discutimos en común seguirá gobernado por métricas de interacciones o si se introducen reglas, auditoría y transparencia a la altura de una manipulación permanente y sostenida, concluyen los autores de esta investigación.










