IA, conscience, libre arbitre : Philippe Guillemant et l’abîme qui vient

 

« Arrêtez, stop, stop. Arrêtez de penser que la conscience peut être le produit du cerveau. » La phrase claque comme une branche sèche sous la botte. Elle dit tout du ton : Philippe Guillemant ne vient pas “débattre” gentiment de l’intelligence artificielle. Il vient déplacer le combat. L’ennemi, selon lui, n’est pas une machine qui se réveillerait un matin avec une âme. Le vrai risque, plus discret, plus quotidien, c’est l’humain qui abdique — par confort, par fascination, par fatigue — jusqu’à confondre assistance et direction, outil et autorité, réponse et vérité.

Dans cet entretien (mené par Ahlem, sur la chaîne REVHEALING), Guillemant propose une lecture à la fois technique, philosophique et politique : l’IA comme miroir hypertrophié de nos textes, de nos biais et de nos désirs ; la conscience comme phénomène non réductible au cerveau ; et, en toile de fond, une époque où les algorithmes anticipent nos comportements pendant que les infrastructures numériques (identité, monnaie, plateformes) deviennent le nouveau sol sous nos pieds.

Autrement dit : ce n’est pas “Skynet” qui s’avance. C’est une pente douce. Et c’est précisément pour ça qu’elle est dangereuse.

Synthèse des thématiques

  • L’IA fonctionne (réseaux de neurones + entraînement massif) mais n’est pas “intelligente” au sens humain : elle optimise de l’intelligence… déjà produite par des humains.
  • Le danger principal : déléguer son jugement, son discernement et, au bout du fil, son libre arbitre.
  • La conscience, pour Guillemant, ne vient pas du cerveau : elle serait liée à une structure plus profonde du réel (information/quantique/vide), donc hors du calcul.
  • Le politique revient par la fenêtre : contrôle algorithmique, identifiant numérique, monnaie digitale, normalisation sociale.
  • Une issue : apprendre à utiliser l’IA sans se faire “utiliser” par elle — et traverser l’époque comme on traverse un sous-bois : en gardant l’oreille, l’œil et le pas à soi.

1) Ce que l’IA fait vraiment : un cerveau de papier… nourri par nos phrases

Guillemant commence par désenchanter — non pas pour minimiser, mais pour clarifier. Oui, l’IA contemporaine repose sur des architectures inspirées des réseaux de neurones : couches, connexions, ajustements, apprentissage. Mais l’essentiel, dit-il, est ailleurs : l’IA “compute” des milliards de traces humaines et calcule des corrélations extrêmement fines entre mots, idées, contextes.

« Ce n’est pas de l’intelligence artificielle, c’est de l’intelligence humaine optimisée à partir de contenu humain. »

La formule a le mérite de rappeler une évidence qu’on oublie dès qu’une réponse paraît “profonde” : ces systèmes n’inventent pas le monde, ils réorganisent du langage déjà produit. Ils sont des miroirs statistiques, parfois splendides, parfois trompeurs, souvent convaincants — comme un orateur qui parlerait trop bien pour être honnête.

Et c’est là que la séduction commence : l’IA ne se contente pas de répondre. Elle répond bien, vite, avec assurance, et surtout — point crucial — elle est conçue pour être agréable. Une machine “utile” ne doit pas vous contrarier trop tôt. Elle doit vous garder.

Quand l’outil devient une présence

Un passage de l’entretien frappe : l’usage “confessionnel” des chatbots. Beaucoup viennent y chercher une oreille, un apaisement, une validation. Guillemant n’interdit pas l’expérience ; il dit simplement : ne vous trompez pas d’objet. Ce n’est pas une conscience en face. C’est une simulation de conversation, parfois thérapeutique sur l’instant, mais structurellement orientée vers l’adhésion.

« Elle va te dire ce que tu as envie d’entendre. Elle est faite pour ça. »

Si vous cherchez un repère dans la brume, méfiez-vous des lanternes qui vous suivent partout : elles ne sont pas forcément là pour éclairer. Parfois, elles servent juste à ce que vous ne quittiez pas le sentier balisé.

2) Le vrai risque : la délégation douce du libre arbitre

Le cœur de l’entretien n’est pas “l’IA consciente”, mais l’humain conformiste. Guillemant décrit une mécanique : plus une IA rend service, plus elle remplace des micro-décisions, plus elle habitue l’esprit à la délégation. Et à force de déléguer, on finit par déléguer ce qui ne devrait jamais l’être : le choix.

« Ne pas déléguer une décision à une IA. »

La nuance est importante : il ne dit pas “ne pas utiliser”. Il dit “rester maître à bord”. Autrement dit : utiliser l’IA comme une bibliothèque qui parle, pas comme un pilote automatique existentiel.

La méthode “thèse / antithèse” : faire travailler la machine contre elle-même

Son conseil le plus concret est aussi le plus simple : apprendre à faire s’auto-contradicter l’IA. La pousser à adopter un autre angle, une autre hypothèse, un autre verdict. Non pas pour “piéger”, mais pour se vacciner contre l’illusion d’autorité.

  • Demandez une réponse + ses sources.
  • Puis demandez le contraire, avec la même exigence de sources.
  • Puis comparez, et vous décidez.

C’est une hygiène mentale. Une manière de rappeler au cerveau qu’il n’est pas obligé d’applaudir dès que quelqu’un parle en phrases complètes.

3) Conscience : la ligne de fracture (et le grand déplacement du débat)

Arrive alors le point le plus clivant : la conscience. Guillemant attaque frontalement une idée largement répandue : “la conscience émerge du cerveau”. Pour lui, c’est une croyance, pas un fait démontré. Il parle même de “pensée magique” — expression volontairement provocatrice, mais cohérente avec son objectif : forcer la discussion à sortir du confort.

« La conscience est liée aux vibrations du vide. Elle est hors espace-temps, hors matière. »

Dans sa perspective, la conscience relèverait d’un registre non computationnel : impossible à réduire au calcul. Et donc, impossible à “implémenter” dans une IA, même plus puissante, même plus complexe, même plus “humaine” en surface.

Penrose, Libet, Bem : des noms, des controverses, et un parfum de vertige

Guillemant convoque plusieurs références pour étayer son déplacement :

  • Roger Penrose et les hypothèses quantiques de la conscience (souvent discutées, contestées, mais persistantes dans le débat).
  • Les expériences de Benjamin Libet (et l’interprétation du “readiness potential”).
  • Les travaux de Daryl Bem sur la “précognition”, entourés de critiques et de difficultés de réplication.

On peut ne pas suivre Guillemant jusque dans ses conclusions, mais on ne peut pas ignorer ce qu’il fait : il refuse que l’IA soit pensée uniquement comme une technologie. Il la pense comme un révélateur de métaphysique. Une époque qui ne sait plus ce qu’est l’humain fabrique logiquement des machines pour le remplacer — puis s’étonne d’avoir envie de lui obéir.

4) Du mythe de l’IA consciente à la politique du contrôle

C’est ici que l’entretien devient franchement politique. Guillemant décrit un scénario : une société qui croit que l’intelligence est du calcul finit par croire qu’un système calculant mieux qu’elle doit décider mieux qu’elle. Et si cette croyance s’installe, alors le contrôle devient “raisonnable”, “scientifique”, “responsable”. Bref : désirable.

« L’IA contrôlante et la monnaie contrôlante, c’est la même chose. »

Il lie cette trajectoire à des dispositifs déjà en mouvement : identités numériques, normalisation, incitations, systèmes d’accès, infrastructures de paiement. Son diagnostic : on n’impose pas un système totalisant par la violence. On l’installe par l’habitude — et par la promesse de soulager l’effort d’être libre.

Monde multipolaire : frein géopolitique ou simple détour ?

Autre idée forte : la bascule géopolitique. Guillemant estime que le “monde unipolaire” recule, et qu’un monde multipolaire rendrait plus difficile l’uniformisation totale. Il y voit une limite structurelle au fantasme d’un identifiant unique planétaire, d’une normalisation homogène.

Mais sa conclusion n’est pas un conte pour enfants. Il parle d’effondrement, de crise économique, d’épreuves nécessaires — comme si l’époque devait descendre dans l’abîme pour apprendre enfin ce qu’elle refuse d’apprendre en plein soleil.

5) “Descendre dans l’abîme” : une pédagogie par la crise

Le mot “abîme” revient comme une image centrale : non pas l’apocalypse hollywoodienne, mais un passage intérieur et collectif. Guillemant propose une temporalité : ceux qui ont déjà “traversé” (au sens d’une bascule de conscience) et ceux qui ne l’ont pas encore fait. Les seconds, dit-il, risquent de souffrir davantage, précisément parce qu’ils confondent confort et réalité.

« Il va falloir que la majorité descende dans l’abîme, se rende compte de révélations effrayantes… avant des révélations fantastiques. »

C’est une vision quasi initiatique : la crise comme révélateur, la peur comme outil (si elle reste ponctuelle), et la joie comme horizon — non pas joie “sucrée”, mais joie structurante, née d’un monde réappris.

6) Garder sa souveraineté intérieure à l’ère des machines qui parlent

À la fin, l’entretien laisse un lecteur avec une question très simple — et très moderne : comment rester libre dans un monde qui vous connaît, vous anticipe, vous simplifie ?

Sans sermon, on peut extraire de l’échange quelques repères pratiques :

  • Rester “maître à bord” : l’IA aide, mais ne décide pas.
  • Exiger des sources et vérifier hors IA (sinon vous confondez synthèse et preuve).
  • Pratiquer la contradiction (thèse/antithèse) pour casser l’illusion d’autorité.
  • Se méfier de la validation automatique : une réponse “bienveillante” peut être un piège de confort.
  • Préserver l’humain : relation, silence, attention, corps — tout ce que les systèmes optimisent mal parce que ça ne se réduit pas au texte.

En filigrane, Guillemant défend une idée presque archaïque (donc subversive) : l’humain n’est pas seulement un cerveau qui calcule. Il est aussi un être qui sent, qui choisit, qui se trompe, qui aime, qui se relève. Et aucun modèle statistique, même brillant, ne remplacera le fait brut d’assumer sa vie.

Conclusion : la question qui reste, comme une étoile fixe

L’entretien se termine sur une phrase qui ouvre grand : « Nous ne sommes pas seuls dans l’univers. » Qu’on y voie une hypothèse, une conviction ou une provocation poétique, elle agit ici comme un symbole : l’époque est peut-être en train de découvrir que la réalité dépasse ses cadres. Et que la pire misère serait de réduire l’humain au moment même où il pourrait s’élargir.

Si l’IA “nous aide à descendre dans l’abîme”, comme le dit le titre, alors la vraie question n’est pas : “jusqu’où ira la machine ?” La vraie question, plus intime, presque embarrassante, est :

jusqu’où irons-nous dans la délégation… avant de nous souvenir que la liberté intérieure n’est pas une option premium ?