Profils IA, vagues de commentaires et guerre cognitive : l’ingérence numérique ne ressemble plus à ce que vous croyez

Profils IA, vagues de commentaires et guerre cognitive

L’ingérence numérique ne ressemble plus à ce que vous croyez

Par Christophe Sola / Mat et le Web

Ce n’est pas un troll isolé. Ce n’est pas un commentaire de comptoir. C’est une rafale. Un tir groupé. Un bombardement silencieux, algorithmique, presque invisible si l’on ne regarde pas de près. Et souvent, on ne regarde pas.

À première vue, tout semble normal. Un article sur Facebook. Une actualité sensible. Et en dessous, plusieurs centaines de commentaires. Des gens qui réagissent, qui s’indignent, qui valident. Et puis, à y regarder mieux… quelque chose cloche. Les noms sonnent faux. Les visages semblent artificiels. Les formulations se répètent. Les arguments tournent en boucle. Et le doute s’installe : est-ce vraiment l’opinion publique qui s’exprime ? Ou une mise en scène algorithmique de ce que certains voudraient qu’on croit être l’opinion publique ?

Bienvenue dans le nouveau visage de l’ingérence numérique.


La guerre de l’attention a changé de terrain

L’ingérence, on la soupçonnait dans les urnes, dans les campagnes de pub ciblées, dans les faux sites de presse clonés. Désormais, elle se joue dans les interstices : les sections commentaires, ces arènes marginales devenues centrales, où l’on ne s’informe plus vraiment, mais où l’on sent “’air du temps”.

Ce n’est pas un détail : l’opinion publique se fabrique autant dans les fils que dans les faits. Et si ces fils sont inondés de messages produits à grande échelle, assistés par IA, relayés par des comptes artificiels, alors ce que nous croyons être le “climat général” devient un récit imposé.

Et cela, des États l’ont compris. Des agences privées aussi. Des mouvements politiques, parfois. Des prestataires sans drapeau, souvent.

Meta et l’expérience des « profils IA » : laboratoire mondial de la confusion

Tout commence, comme souvent, par une idée étrange qui semble anodine. En 2023, Meta (la maison mère de Facebook et Instagram) lance ses “AI characters” : des profils sociaux animés par intelligence artificielle, avec leur visage, leur nom, leur bio, et même leur petite personnalité. On peut discuter avec eux. Ils publient. Ils réagissent. Ils existent — un peu.

Kendall Jenner, MrBeast, Jane Austen version XXIe siècle, une mère queer noire prénommée Liv : tous ces “êtres synthétiques” sont testés dans le flux des utilisateurs, comme s’ils étaient “parmi nous”. L’expérience s’emballe. La polémique éclate. On parle de “blackface numérique”, d’usurpation culturelle, de dissimulation. Certains utilisateurs découvrent qu’ils ne peuvent même pas bloquer ces profils. L’angoisse numérique prend forme : à quoi ressemblera un réseau social où même les avatars ne sont plus sincères ?

Meta recule. Les profils IA sont supprimés. Officiellement. Car dans le même temps, la firme déploie discrètement AI Studio : un outil permettant à chaque créateur, chaque marque, chaque influenceur… de créer son propre agent conversationnel. Personnalisable. Scriptable. Et potentiellement public.

L’intelligence artificielle n’a pas disparu. Elle s’est simplement dissoute dans l’environnement.

Le vrai danger n’est pas l’IA. C’est ce qu’on en fait.

La technologie est neutre, dit-on. C’est une illusion confortable. Car aujourd’hui, les outils d’IA générative — pour écrire, commenter, réagir, “engager” — sont accessibles à tous. Et certains en font un usage industriel, cynique, stratégique.

L’ingérence numérique de 2025 n’est plus une question de hackers ou de propagande brute. C’est une guerre cognitive à bas bruit, menée par :

  • des États (Russie, Chine, Iran, mais aussi Israël — dont des campagnes de commentaire coordonné ont été récemment documentées par Politico et Forbes) ;
  • des agences privées capables de gérer des milliers de faux comptes, comme l’ex-groupe Archimedes ou l’ombreuse “Team Jorge” ;
  • des groupes militants ou partisans, qui savent que 50 messages bien placés peuvent faire plus qu’un meeting.

Leur arme ? La crédibilité du nombre. Leur cible ? Le doute.

“Tout le monde dit pareil, donc ça doit être vrai.” — Non.

Prenons un exemple concret : un article publié par un média local, La Provence. Thème : l’Ukraine, ou la Palestine, ou les violences policières. Trois cents commentaires en une heure. Beaucoup semblent aller dans le même sens. Même tournures. Même fautes. Même indignation recyclée.

On enquête. On découvre que plusieurs comptes ont été créés récemment. Qu’ils postent sur d’autres pages, avec les mêmes textes. Qu’ils sont parfois localisés en dehors de France. Et qu’ils ont, au fond, bien peu de “vie numérique” réelle.

Ce n’est pas un débat. C’est un décor. Une illusion de consensus. Une forme douce de mise en scène idéologique.

Et plus personne ne la contrôle vraiment.

Que fait l’État ? Que font les plateformes ?

En France, une agence publique a été créée pour cela : VIGINUM. Elle traque les tentatives d’“ingérence numérique étrangère”, notamment via les réseaux sociaux. Mais ses moyens sont encore faibles. Et les plateformes, elles, avancent à reculons.

Meta, par exemple, a instauré un système de labels IA pour signaler les images générées ou modifiées. C’est un début. Mais cela ne couvre ni les commentaires, ni les récits copiés-collés, ni les campagnes coordonnées entre dizaines de comptes.

Le Digital Services Act européen (DSA) impose désormais des audits de risque aux grandes plateformes. Mais qui audite les commentaires d’un média régional ? Qui identifie les patterns dans 200 messages postés à 3h du matin sur une actualité obscure ? Peu de monde.

Alors, que faire ? Pas paniquer. Observer. Documenter. Signaler.

L’idée n’est pas de devenir parano. Mais de redevenir lucide.

🔎 Une vague de commentaires peut être analysée :

  • Combien de messages en combien de minutes ?
  • Combien de comptes créés récemment ?
  • Combien de formulations identiques ?
  • Combien de liens vers des sites douteux ?

Des outils existent. Des protocoles simples peuvent être mis en place. Des rédactions locales pourraient s’en saisir. Des citoyens aussi.

La vérité n’est plus dans le débat — elle est dans l’architecture du débat. Dans sa structure. Dans sa sincérité.

Conclusion : Ce que nous voyons n’est pas toujours ce que nous croyons lire.

À l’ère de l’IA générative, de la saturation informationnelle et de la “preuve sociale” automatisée, notre vigilance ne doit pas porter seulement sur ce qui est dit… mais sur qui le dit, quand, comment, et pourquoi maintenant.

Il ne s’agit pas d’interdire, ni même de censurer. Il s’agit d’éclairer.

Car dans une époque où même les commentaires peuvent mentir, la lucidité devient un acte de résistance.