Vers l’AGI, à pas lents et lucides

Boris GuarismaBoris Guarisma
3 min read

Cher journal,

Aujourd’hui nous sommes le 13 mai 2025, et une question me trotte dans la tête :
“Et si l’AGI n’arrivait jamais comme on l’imagine ?”

Je sais, c’est une question un peu provocante, presque sacrilège dans un monde où chaque semaine apporte son lot de promesses, de modèles “révolutionnaires” et d’annonces tambour battant. Mais plus je creuse, plus un malaise s’installe.

Cela fait quelques mois que je veille intensément le sujet de l’AGI — cette fameuse Intelligence Artificielle Générale qui serait censée rivaliser avec l’intelligence humaine dans sa polyvalence et son adaptabilité. Mon point de départ ? Une série de vidéos de Sabine Hossenfelder, physicienne lucide à l’humour tranchant, et surtout dénuée d’illusions marketing.

Première claque : le modèle o3

Début janvier, OpenAI lance o3. Buzz immédiat. Les chiffres sont impressionnants :

  • 87 % au test ARC-AGI, conçu pour évaluer des capacités abstraites proches de l’humain.

  • Performances hallucinantes en génération de code.

  • Raisonnement en chaîne de pensée (“Chain of Thought”).

Sur le papier, tout y est. Pourtant, à y regarder de plus près… tout y est justement trop. Trop beau, trop calibré, trop cher (jusqu’à 3 000 $ pour une tâche). Et surtout : trop semblable aux versions précédentes.

GPT-4.5, Claude 3.7, o3 : tous progressent, mais à la marge. Le consensus émerge doucement : on atteint les limites du passage à l’échelle. Les LLMs ne “scalent” plus de manière significative. Ce n’est plus une ligne droite vers l’AGI, c’est un plateau.

Deuxième claque : la définition d’AGI elle-même

Sam Altman le reconnaît : “AGI” est devenu un mot-valise. Chacun y met ce qu’il veut. Un assistant très compétent ? Un surhomme numérique ? Une IA qui fait de la physique quantique en écoutant Bach ? La confusion règne, et elle arrange bien les discours marketing.

Sabine pointe un élément crucial : réussir un test (même impressionnant comme ARC-AGI) ne signifie pas comprendre. o3 peut battre des records en reconnaissance de motifs… sans rien saisir du sens profond. C’est l’illusion d’intelligence. Une simulation de réflexion — pas la réflexion elle-même.

Troisième claque : les limites des LLMs

Les LLMs ne comprennent pas. Ils imitent. Et leur imitation a des angles morts criants :

  • Ils n’apprennent pas après leur entraînement.

  • Ils échouent sur des tâches logiques élémentaires (essayez de leur faire compter les “r” dans “strawberry”…).

  • Ils n’ont aucune idée de ce qu’est le monde réel.

Yann LeCun le dit sans détour : “Ils ne savent pas débarrasser une table comme un enfant de 10 ans.” On y est.

Alors, on fait quoi ?

C’est là que les choses deviennent fascinantes. Loin des projecteurs, une révolution silencieuse s’opère. Deux pistes émergent avec sérieux :

  1. Le raisonnement symbolique : injecter de la logique, des structures formelles, une mémoire organisée. C’est le retour du “noyau pensant”. DeepMind expérimente déjà avec AlphaProof et le “neurosymbolic AI”.

  2. Les world models : des modèles qui ne prédisent pas juste le prochain mot, mais simulent la dynamique du monde réel. Genie 2 chez DeepMind, Cosmos chez NVIDIA : on parle ici d’intelligence incarnée, d’apprentissage dans des mondes simulés, de cognition située.

Et là, enfin, il y a de la substance. Il ne s’agit plus d’agrandir une boîte noire, mais de la repenser.

Mon point de vue ? Un tournant épistémologique

Ce que je sens, c’est qu’on quitte une phase quantitative pour entrer dans une phase qualitative.
Fini les records creux, place aux explorations profondes. Les années 2010 ont été celles du passage à l’échelle. Les années 2025–2030 pourraient bien être celles de la redécouverte des fondements de l’intelligence.

L’AGI n’arrivera pas par surprise, dans une update mineure d’un LLM. Elle émergera peut-être, un jour, d’un agencement fin entre perception, action, mémoire, logique… et modestie algorithmique.

Je termine ce billet avec cette intuition :
L’AGI ne sera pas une explosion. Ce sera une cristallisation.
Silencieuse, patiente, méthodique. Comme la recherche, en somme.
Et c’est peut-être pour le mieux.

0
Subscribe to my newsletter

Read articles from Boris Guarisma directly inside your inbox. Subscribe to the newsletter, and don't miss out.

Written by

Boris Guarisma
Boris Guarisma

Former Telecommunications Engineer and Technical Instructor, passionate about mathematics & statistics (and rock music and sci-fi), converted into Data Science since 2013. Current role as an AI Practice Lead with little time to code. With this blog I will keep up practising Data Science with R and sharing tutorials.