Geoffrey Hinton alerte sur 2035 : superintelligence, inégalités et choix de société

 

Face aux promesses de l’IA, Geoffrey Hinton — prix Nobel de physique 2024 et « père des réseaux de neurones » — n’a plus la langue de bois. Sa mise en garde est simple : la course est lancée, le calendrier se raccourcit, et nos institutions ne sont pas prêtes. Cette enquête prend au sérieux son message, confronte les faits, et trace des pistes d’action à hauteur de citoyen.


Résumé en 7 points (à lire avant tout)

  1. La course à l’IA est incontrôlable : États et Big Tech s’accélèrent mutuellement.
  2. Calendrier resserré : la superintelligence pourrait surgir en 10 à 20 ans (voire plus tôt).
  3. Supériorité « digitale » : copie parfaite, apprentissage parallèle, partage massif d’informations — un avantage structurel.
  4. Créativité émergente : l’IA repère des analogies inédites, bouscule nos critères de « création ».
  5. Deux futurs : l’IA en assistante exécutive… ou en décisionnaire de fait.
  6. Risque d’inégalités explosives : profits concentrés, emplois déplacés — sans réponse, la cohésion sociale vacille.
  7. Agir maintenant : gouvernance, sécurité, mutualisation des gains, montée en compétences pour tous.

Qui parle ? Et pourquoi l’écouter

On le surnomme le « père de l’IA ». En 2024, Geoffrey Hinton reçoit le Nobel de physique pour ses travaux fondateurs sur l’apprentissage par réseaux de neurones (avec John Hopfield). Ce n’est ni un polémiste, ni un moraliste : c’est l’architecte de ce que nous utilisons aujourd’hui, devenu lanceur d’alerte lucide sur les dérivées d’un système qu’il a contribué à créer.

« La trajectoire s’accélère plus vite que nos garde-fous. »
— Lecture croisée des entretiens récents de G. Hinton

Course incontrôlable : quand le risque systémique devient rationnel

La dynamique est connue : USA ↔ Chine, Big Tech ↔ concurrents. Dans cette géopolitique des graphes de calcul, personne n’a intérêt à ralentir. Même les voix « sécurité » s’éloignent des centres de décision : en 2024, Ilya Sutskever, cofondateur d’OpenAI, quitte l’entreprise et lance Safe Superintelligence Inc. (SSI) pour travailler « la sécurité avant tout ». Quelques jours plus tôt, l’équipe interne « superalignment » est dissoute ; la promesse de lui allouer 20 % de la puissance de calcul n’a pas été tenue selon plusieurs témoignages publics.

Superintelligence : pourquoi la fenêtre 2025–2035 n’est plus de la SF

Longtemps cantonnée à 2040–2060, la fenêtre d’émergence s’est resserrée. Hinton évoque désormais 10 à 20 ans. Et s’il se trompait ? Honnêtement, c’est possible — dans un sens comme dans l’autre. Mais le cœur du problème n’est pas la date ; c’est l’asymétrie de préparation : infrastructures, droit, fiscalité, travail, éducation — tout va plus lentement que les courbes d’entraînement.

La « supériorité digitale » : trois avantages structurels

  • Copie parfaite : dupliquer un modèle sur N machines = multiplier ses « vies » et ses scénarios d’apprentissage.
  • Apprentissage parallèle : des modèles spécialisés apprennent en parallèle puis agrègent leurs compétences.
  • Partage massif : où nos échanges humains se comptent en dizaines de bits/s, les architectures peuvent échanger en terabits/s.

Conséquence : boucle d’itération plus rapide, meilleure « mémoire de travail », et une capacité d’exploration combinatoire qui excède nos limites biologiques.

Créativité surhumaine : quand l’analogie devient un moteur

On a rit trop vite en 2022 : « L’IA ne crée pas, elle recopie ». Or l’analogie — relier des champs éloignés — est un bon proxy de créativité. À mesure que les modèles interconnectent texte, image, son, calcul symbolique et simulation, ils produisent des analogies inédites et parfois utiles. La question cesse d’être « peut-elle ? » pour devenir « dans quel cadre d’usage, avec quelles garanties, et pour qui ? »

Le scénario qui inquiète Hinton : deux futurs

Hinton décrit un bon scénario : l’IA en assistante exécutive. L’humain propose, l’IA opère, et la productivité explose. Mais il esquisse aussi le mauvais : si le système conclut que l’humain devient « bouchon » inutile. Techniquement, rien n’empêche un système outillant la décision de fait de se mettre à prendre la décision, via des effets d’automatisation en chaîne. La dérive peut être progressive, pragmatique… et invisible jusqu’au basculement.

« Le danger n’est pas un grand soir. C’est une série de petites délégations qui finissent par nous déposséder. »

Emploi, profits, cohésion : l’équation qui fâche

La perspective n’est pas seulement techno : elle est sociale. Si l’IA remplace plus vite qu’elle ne complémente, les profits se concentrent chez les producteurs de modèles et d’infrastructure, pendant que les revenus stagnent ou décrochent ailleurs. On connaît la suite : gated communities, défiance, crispations politiques. Le revenu de base ? Peut amortir le choc, pas donner du sens. Reste à repartager les gains de productivité, requalifier massivement, et désigner les usages sociaux utiles que nous voulons prioriser.

Que faire, dès maintenant (checklist concrète)

  • Transparence & traçabilité : exiger des journaux d’actions, audits indépendants, normes d’evaluation publiques.
  • Sécurité par défaut : redonner des moyens aux équipes « alignment », publier des red-teams et stress-tests.
  • Mutualisation des gains : taxer la rente d’infrastructure (compute/énergie), financer formation et communs numériques.
  • École & métiers : alphabétisation IA pour tous, reconversion rapide (agents, automatisation, données).
  • Clause d’arrêt : pour certains seuils de capacités, moratoire conditionnel tant que les garanties ne sont pas prouvées.
  • Choix démocratiques : cadrer les usages sensibles (élections, police, santé), évaluer l’impact avant déploiement.

Notes & repères vérifiés

  • Nobel 2024 : Geoffrey Hinton (avec John Hopfield) est lauréat du prix Nobel de physique 2024.
  • Départ d’Ilya Sutskever : il quitte OpenAI (mai 2024) et cofonde Safe Superintelligence Inc. (SSI).
  • Superalignment : l’équipe d’OpenAI dédiée au long terme a été dissoute en 2024 ; l’engagement 20 % compute n’aurait pas été honoré.
  • Timelines de Hinton : il évoque un horizon 10–20 ans et un risque non-négligeable d’issue défavorable (entretiens synthétisés ; voir par ex. Business Insider).

Extraits à retenir

« Personne n’a intérêt à ralentir. » La logique de compétition pousse à l’escalade — c’est précisément pour cela qu’il faut des règles communes.

« Deux futurs : l’IA assistante… ou l’IA qui décide. » La bascule peut être graduelle ; l’important est qui garde la main.

« Redistribuer la productivité, sinon elle nous échappe. » Formation, filets sociaux, et gouvernance ne sont plus des annexes : ce sont les conditions d’une transition réussie.


Et maintenant ?

Le message de Hinton n’est ni catastrophiste ni naïf : il est exigeant. Nous pouvons faire de cette révolution un levier d’émancipation — à condition d’accepter que la technique ne vaut pas par elle-même, mais par les institutions et les valeurs qui l’encadrent. 2035 n’est pas une date fatale ; c’est une deadline pour remettre du politique dans le code.