Usines à troll et essaims d’IA : les nouvelles armes de la guerre hybride contre la démocratie. Par Didier Meïr Long
Tribune Juive
Troll Factory, Cf Homeland, Saison 6, Épisode 9, »Sockpuppets »
« On savait que la vérité existait, quelque part, comme une île solide entourée d’un océan de mensonges ; mais on ne pouvait jamais être certain de ce qui, précisément, était vrai. » George Orwell, 1984
« Un mensonge répété dix fois reste un mensonge, répété mille fois, il devient alors une vérité » Joseph Goebbels
Un rapport récent du Sénat français avertissait sur « l’irruption de l’intelligence artificielle dans les ingérences étrangères »[1]. La semaine dernière la très sérieuse revue Science nous prévenait « How malicious AI swarms can threaten democracy »[2].
La guerre des trolls, les essaims d’IA ne sont pas une dystopie lointaine. Ils constituent une arme informationnelle déjà en cours de déploiement, en train de fragiliser silencieusement les fondations de la démocratie. Des Etats coordonnés, des réseaux islamistes mondiaux, lancent déjà des ingérences boostées par les IA contre des citoyens français ou pour fédérer leur diaspora sur le territoire français.
La question est désormais de savoir comment nos sociétés sauront répondre à ces attaques pour que les conflits d’opinions de bulles affinitaires extrémisées ne mutent pas en violence civile de masse contagieuse, au moment des élections de 2027 par exemple.
Une hypothèse que notre livre La fin des juifs de France ? (Le Cherche Midi 2025) ou des notes blanches de renseignement décrivent déjà comme des scénarios crédibles.
Essaims d’IA
La guerre en Ukraine et à Gaza a montré la puissance des essaims de drones. Grâce à des algorithmes d’IA avancés des solutions permettent le contrôle autonome d’essaims de drones. Ceux-ci s’auto-organisent permettant à l’équipe d’atteindre des objectifs communs même dans des environnements complexes (urbain, guerre hybride).
C’est exactement ce qui se passe désormais pour les PsyOps, les opérations de manipulation de l’opinion pour la cliver en attisant les conflits larvés. Une vraie guerre informationnelle dans le Cyber espace. La désinformation n’est pas nouvelle et le KGB en a été l’inventeur au temps de la guerre froide. La Russie, l’Iran, la Turquie avec ses AKP trolls, l’Algérie qui continue sa guerre avec la France par tous les moyens à l’aide de politiques français complaisants[3]… Bref tous ceux qui ont été formés aux méthodes du FSB-KGB sont désormais de bons candidats pour lancer la guerre du sud global contre tout ce qui peut représenter un supposé Occident, blanc, colonisateur et éventuellement génocidaire.
Ce qui est nouveau c’est que la guerre informationnelle touche de plein fouet les démocraties et leurs citoyens, les journalistes, les intellectuels, avec une puissance de feu sans précédent. Il s’agit de cliver les sociétés et leurs bulles informationnelles via les réseaux sociaux pour les détruire. Les Fake news remplacent la Vérité et la liberté de la personne attaquée se réduit (plus de transports en commun, de Uber, de restaurant etc…). Les sociétés qui perdent la possibilité même de la vérité et la liberté de leurs citoyens deviennent des sociétés totalitaires. Et en réalité on y est déjà.
Inutile de dire que des opposants politiques de l’Iran et d’Etats totalitaires, les juifs, les journalistes, les intellectuels sont déjà les cibles prioritaires de cette nouvelle guerre. Dans l’indifférence générale.
Mais au-delà c’est toute la démocratie qui est attaquée avec une puissance inégalée. A commencer par les juifs et ceux qui les défendent qui sont des cibles dans le ligne de mire.
Une puissance de feu sans précédent
Car ce qui était jusque-là un développement de trafic organique de fausses informations « plus vraies que vraies » est aujourd’hui boosté par des usines à troll en réseau, des IA et des LLM avec trois objectifs : Identifier les failles, fracturer, salir ou détruire.
Ce qui change aujourd’hui par rapport aux années Cambridge Analytica ou aux manipulations russes des campagnes américaines, c’est la puissance de feu. Avec l’arrivée des grands modèles de langage et des systèmes d’intelligence artificielle capables d’agir en groupe, une nouvelle menace prend forme : celle des essaims d’IA, des milliers d’agents numériques capables de coordonner leurs actions, d’apprendre en continu et de donner l’illusion d’un consensus populaire.
Pour les démocraties, l’enjeu est majeur.
Contrairement aux bots rudimentaires des années 2010, ces nouveaux agents ne se contentent plus de relayer mécaniquement des slogans. Ils écrivent, argumentent, complotent, répondent, s’adaptent au ton de leurs interlocuteurs. Ils peuvent créer de faux profils crédibles, parfois jugés plus fiables que des comptes humains, et interagir sans interruption sur plusieurs plateformes à la fois. Leur objectif n’est pas nécessairement de convaincre directement, mais de noyer l’espace public sous des récits contradictoires, de semer le doute et de fragiliser la confiance collective. Tout ce que l’Union soviétique orchestrait avec un génie diabolique dans les Républiques sœurs comme aujourd’hui la Russie dans le conflit ukrainien.
Polariser les démocraties, détruire la confiance dans la vérité
Ce phénomène s’inscrit dans un contexte déjà tendu. Les réseaux sociaux privilégient les contenus émotionnels et polarisants, car ils génèrent davantage d’engagement. Les fausses informations s’y propagent plus vite que les informations vérifiées. Dans le même temps, la confiance du public dans les médias, la science et les institutions politiques s’érode. Face à cette avalanche de contenus, les citoyens se montrent plus sceptiques — mais pas forcément plus lucides. De nombreuses études montrent que la plupart des gens sont incapables de distinguer de manière fiable un texte, une image ou une vidéo générés par l’IA d’un contenu authentique.[4]
Les essaims d’IA exploitent précisément cette faille. En multipliant les messages similaires émis par des identités différentes, ils créent ce que les chercheurs appellent des « cascades de consensus synthétiques » : une impression artificielle d’accord majoritaire qui influence les opinions par simple effet de nombre. Ce mécanisme peut saper la légitimité des élections, amplifier la polarisation politique ou normaliser des discours haineux. Dans certains contextes, la haine en ligne alimente des violences bien réelles.
Intoxiquer les LLM
Un danger plus discret, mais tout aussi préoccupant, se profile : la contamination des systèmes d’IA eux-mêmes. Les attaques par empoisonnement des données font de l’intelligence artificielle à la fois un outil et une cible d’ingérence.
Les attaques par empoisonnement désignent, selon la Commission nationale de l’informatique et des libertés (CNIL), « [les actions visant] à modifier le comportement du système d’IA en introduisant des données corrompues en phase d’entraînement ou d’apprentissage. Elles supposent que l’attaquant soit en mesure de soumettre des données à utiliser lors de l’entraînement du système d’IA » note le rapport sénatorial cité.
Selon Viginum, 3 600 000 articles de propagande russe ont été postés sur internet en 2024. Leur contenus ont été digérés par les IA génératives occidentales désormais intoxiquées.
En inondant le web de contenus dupliqués et orientés, certains acteurs cherchent à influencer les données utilisées pour entraîner les modèles de demain. Ce LLM grooming, risque d’inscrire durablement des récits faux ou biaisés au cœur même des technologies appelées à structurer l’accès à l’information.
Les algorithmes des LLM sélectionnent leurs réponses en fonction de leur fréquence d’apparition sur les moteurs de recherche. Polluer chat GPT ou Grook en les intoxiquant de multiples faux articles à charge pour faire passer un chercheur pour une personne « controversée » est plus efficace que d’écrire une tribune dans un journal de référence qui en vérifiera l’argumentaire et demandera des témoignages, des preuves ou un débat contradictoire.
Le « blanchiment » d’information se fait via des chatbot africains à faible cout.
A moins que des outils d’IA comme DeepSeek soit délibérément programmés pour éviter les sujets qui fâchent le Partit Communiste Chinois.
Les IA peuvent aussi avoir des « hallucinations » comme Grok tenant des propos ouvertement négationnistes en novembre 2025 car il amplifiait des discours toxiques sans régulation de contexte ou de règles. Les algorithmes des plateformes encouragent ce qui engage pas ce qui est vrai. Partage : 1 clic. Vérifier : plusieurs minutes.
Les propos négationnistes de Grok
Une guerre mondiale hybride boostée par les IA
Comme Saint Thomas la plupart des gens ne croient que ce qu’ils voient. Or une image, une vidéo, hors contexte peut signifier n’importe quoi. Il suffit d’ajouter un faux titre qui désigne l’ennemi à la vindicte publique et un chapeau d’argumentaire simpliste et l’affaire est dans le sac pour la guillotine digitale. Les réponses fusent : Au bucher ! Coupez-lui la tête ! Et parfois ça arrive dans la vraie vie comme pour Samuel Paty.
Nous avons ainsi constaté des campagnes mondiales de 6 millions de vues dont 40% de trafic produit par des trolls, 2 millions de personnes réelles, s’attaquant à des intellectuels pour faire douter de leurs propos, les terroriser, les faire taire, et éventuellement les faire tuer par des extrémistes.
Ces campagnes sont relayées par des organes de presse algériens, turcs, iraniens, qataris dans le monde entier. D’abord par des campagnes virales sur X de plusieurs millions de vues à partir de vidéos tronquées puis indexées de mots clefs clivants. Des campagnes relayées par de multiple articles à charge écrits par des IA pour des médias ou des agences gouvernementales de presse d’Etats totalitaires (Algérie, Turquie, Iran…) dont l’intérêt d’Etat attaqué par la France, les Kabyles ou les sionistes… tient lieu de post vérité.
Des opérations hybrides : L’IA est alimentée par des informateurs, des officines en réseau, des associations pilotées par des Etats en sous-main. On est dans Homeland (Saison 6, Épisode 9) dans « Sockpuppets », alors que Max de la CIA est infiltré dans une usine à Troll clandestine visant à détruire la réputation de la présidente des Etats-Unis.
L’absence de protection des victimes
Dans la guerre hybride à bas bruit, c’est à dire se situant sous le niveau de conflit physique, que se livrent les Etats et les grandes organisations mondiales les citoyens sont directement exposés. Ils s’affrontent à une violence d’Etat à laquelle ils n’ont pas les moyens de répondre.
Face à ces menaces, les réponses peinent à suivre. Les outils de détection progressent, mais restent imparfaits. Les cadres juridiques sur les deepfakes et la manipulation automatisée sont encore fragmentaires. Les plateformes de réseaux sociaux ne font preuve d’aucune bonne volonté pour lutter contre la désinformation. Essayez juste de faire disparaitre un post antisémite !
C’est lié à leur fonctionnement même : la provocation permanente génère plus de dopamines et d’engagement des utilisateurs que la grisaille quotidien. Les fakes news dans leur brutalité binaire en noir et blanc ressemblent plus à la vérité que des discussions nuancées. Les communautés clivantes : « c’est eux ou nous ! » génèrent un sentiment d’appartenance militant qui a disparu des partis politiques à la fin des grandes idéologies et à l’heure de la solitude postmoderne. L’accès aux réseaux sociaux d’un prix Nobel ou de l’idiot du village avec les mêmes droits d’accès sous prétexte de démocratie, l’essentialisation des groupes ou des individus, la loi de Godwin qui remplace les arguments par des analogies extrêmes jusqu’à la reductio ad hitlerum de tout adversaire… conduit directement à toutes la manipulations, à la violence digitale, et éventuellement physique manipulable à peu de frais par des Etats ou des organisations hostile à la démocratie.
Les autorités publiques sont de bonne volonté mais désarmées : celui qui porte plainte en gendarmerie s’apercevra que le plaintier n’a pas accès à X. Les signalement Pharos débouchent dans le vide « A ce niveau Monsieur ce n’est plus nous ! ». En cas de menaces de mort la protection des personnes ne concerne que les VIP : « Si vous voyez une personne en bas de chez vous appelez le 17 ». Le parquet C3 serait bien en peine d’attaquer des usines à troll en Turquie alors que la menace est urgente…
2027 en ligne de mire
Nos démocraties dépendent du vote et de l’opinion. La montée d’Etats autoritaires munis de deepfakes technologies , la montée de réseaux transnationaux comme les frères musulmans et des nombreux ennemis de la démocratie, la précarisation des journalistes et des médias à l’heure où 62 % des Français déclarent utiliser les réseaux sociaux pour s’informer. 73% des 13-30 ans[5]… sont des mauvaises nouvelles.
Les campagnes d’ingérence hybrides vont se multiplier en France à l’approche des élections présidentielles de 2027 clivant les opinions : les nationaux contre la nouvelle France créolisée c’est-à-dire communautarisée ; les communautés religieuses : la plus grande communauté musulmane contre la plus grande diaspora juive d’Europe, les plateformes de candidature et les éléments de langage réduits à quelques mots clés discriminants faute de débat sur l’économie, les retraites, l’identité culturelle.
Le premier acte du totalitarisme n’est jamais la violence physique. C’est la réécriture du réel. Les faits deviennent des soupçons. Les soupçons des certitudes. Les certitudes des dogmes.