L'expertise française en IA : un économiste nous vend son livre

Reading time: 12 minutes

Olivier Babeau a parlé de l’intelligence artificielle sur France Inter le 23/10/2025.
Il a coécrit un livre avec Laurent Alexandre qui nous enjoint à abandonner les études.

https://www.radiofrance.fr/franceinter/podcasts/le-debat-de-la-grande-matinale/le-debat-du-7-10-du-jeudi-23-octobre-2025-3967367

J’ai décidé de décortiquer cette interview.
Je ne m’attends à aucun sursaut de lucidité mais à une redite d’arguments d’autorités répétés en boucle.

(0:44) Babeau : “Le titre est un peu marketing mais on va essayer de préciser un peu quand même.”

Préciser ou ajouter de la confusion d’ailleurs.
Petite parenthèse, quand ils ont commencé leur roadshow en juillet 2025, le message du bandeau rouge était encore plus provocateur.

“Pourquoi l’éducation de nos enfants est devenue totalement obsolète à l’heure de l’IA”

On appelle ça du “putaclic” dans le jargon mais essayons nous donc un peu à la précision.

Chassez le naturel ...

108 secondes plus tard, la première bêtise sort le bout de son nez.

(1:48) Babeau : “Parce que l’intelligence devient gratuit d’une certaine façon, alors attention, ne faites plus d’études c’est pas n’apprenez plus, c’est apprenez beaucoup plus, c’est-à-dire que l’exigence…”

Non, et même pas d’une certaine façon.
Rien dans la chaîne de production de l’IA software ou hardware n’est “gratuit”.

A part peut-être les pauvres humains d’origine kényane utilisés pour rendre les réponses de GPT acceptable. Mais, ce n’est pas le cœur des préoccupations de l’économiste Babeau en matière d’IA.

https://time.com/6247678/openai-chatgpt-kenya-workers/

Il est difficile d’aborder le sujet de l’IA sans aborder les aspects économiques et financiers.
La valorisation des sociétés techniques, l’éventualité d’une bulle, les coûts en ressources, les investissements en infrastructures.

Olivier Babeau est économiste et accomplit le tour de force de ne pas en parler.
De filtrer le sujet et le réduire au seul argument qui sert ses intérêts : le concept mensonger, hors sol, étriqué de gratuité.

La deuxième intervenante, Anne Alombert, tente un retour au réel

(2:58) Anne Alombert : "Donc là, je crois qu'il y a un gros problème, c'est-à-dire qu'il ne faut pas confondre ces informations probabilistes générées automatiquement par ces machines avec des savoirs, c'est là que j'aurai une réserve."

Elle souligne une réserve et marque une différence entre le savoir et les moteurs probabilistes.
C’est bien que cette notion soit audible même si la suite du débat ne gravitera pas autour.

Pourtant elle devrait, la hype ayant plus que gonflé les capacités des modèles.
Les benchmarks utilisés et souvent livrés par les éditeurs eux mêmes étant constellés d’angles morts.

https://gizmodo.com/ai-capabilities-may-be-overhyped-on-bogus-benchmarks-study-finds-2000682577

On replonge dans la théorie de la tech qui "sait mieux"

(03:45) Babeau : “Alors dans le livre, on dit bien que la solution c’est justement de ne pas se spécialiser, parce que tout ça sont les savoirs obsolètes qui vont être rendus obsolètes par les technologies, en revanche de beaucoup investir dans la lecture, la culture générale, la connaissance historique, l’histoire des idées, l’histoire scientifique, l’histoire des faits, c’est absolument nécessaire.”

On mélange le présent et le futur sur le statut de l’obsolescence du “savoir”.
On distribue les points d’inutilités : les spécialistes.
On a écrit “la” solution dans son livre car à l’évidence n’y en a qu’une.
Et au passage, une petite incantation à “l’histoire des faits” qui sont un investissement nécessaire : retenez bien cela pour la suite.

Le plot twist classique de la "critique" des conséquences sans questionnement des causes, ni des besoins

(07:24) Babeau : “On est les premiers à écrire, et j’ai même écrit plusieurs livres sur le sujet, qu’effectivement il y a une forme d’abdication cognitive qui est extrêmement dangereuse, où vous allez faire de la machine votre maître au lieu d’en être le serviteur, et c’est extrêmement dangereux,”

La position passive qui consiste à prendre pour argent comptant ce que dit la silicon valley, de déplorer la situation et accepter d’abdiquer est UNE attitude parmi d’autres.

Si c’est si dangereux que cela, attaquons-nous à la source.
Eric Sadin a fait de même. La fausse alarme, la sidération sans alternative comme non solution.
Et le toujours bienvenu “on vous avait prévenu les premiers” pour se conforter dans sa rhétorique de pionnier.

L’histoire des faits : le retour

(07:49) Babeau: “Alors, c’est d’ailleurs, par exemple, si vous connaissez, si vous commencez médecine aujourd’hui, d’ores et déjà, le robot va être meilleur que vous, c’est-à-dire qu’il va falloir vous préparer au fait que le métier pour lequel vous vous préparez, quand vous sortirez, il va être profondément différent”

On a de nouveau droit droit à la fable du médecin dépassé resservie à longueur d’interview.
Que son ami Laurent Alexandre soit moins bon qu’un robot, on est tous d’accord.
Pour les autres, laissez les bosser. Rien ne corrobore ces propos.

ll est bienvenu que les internes en médecine continuent à vous accueillir aux urgences et qu’on ne vous laisse pas seul avec une tablette à converser avec un chatbot.
D’ores et déjà aucun robot ne peut prendre en charge une victime arrivant inconsciente.

Il convient donc de définir l’adjectif “meilleur” et de préciser les limites de la comparaison ou plus pragmatiquement se taire.
Vraiment.

L'éducation et la machine remplaçant le "professeur" : un pilier de leur livre.

(08:43) Il parle du mode “apprentissage” de son outil favori GPT.
Babeau: “cette étude, et il y a un mode étudier et apprendre sur ChatGPT par exemple, qui fait qu’il ne va pas vous donner la réponse, il va vous guider vers la réponse.”

Voici un préprint parmi d’autres d’une étude sur le “study mode” dans GPT-5

https://www.researchgate.net/publication/394458514_What_is_Study_Mode_in_GPT-5_Ways_to_Use_AI-based_Chatbot_ChatGPT_as_Learning_Tutors_in_Education

“Overall, the findings suggested that GPT-5’s Study Mode had the potential to function as an effective, adaptable supplement to formal instruction”.

“Adaptable supplement” ne veut pas dire remplacement.

Il n’a surement pas lu l’étude qu’il cite en détails car il se permet cette prophétie juste après:

(08:51) “A terme, on ne va plus avoir de professeurs humains, les professeurs humains vont devenir des coachs, des accompagnateurs qui vont vous accompagner peut-être même toute votre vie,[…]”

A terme de quoi ? Comment le mesure-t-on ? Qui définit les critères ?

La précision de ce propos est saisissante de vacuité.

L’essentiel est de vendre que nous allons pouvoir “coachiser” les gens ou les remplacer.

On en est où de “l’histoire des faits”, celle dans laquelle il faut investir ?
Par inadvertance et pris dans une bouffée de toutologie, il a dû lâcher la rampe de la factualité.

Ça a mis du temps mais on y est : on parle enfin de transparence, de produits, de profits. Les vrais trucs.

(10:18) Anne Alombert : “Il faut aussi se rappeler que ces services numériques sont bien souvent produits par des entreprises privées, de manière bien souvent très opaque, et qu’en tant que citoyens, nous avons un devoir… Des entreprises privées américaines.”

“Le plus souvent, exactement, et nous avons un devoir en tant que citoyens d’être critiques envers ces technologies et nous devons pouvoir en délibérer collectivement en fait.”

Il reste trois minutes et on aurait dû commencer par là.

On sombre dans les abysses d'une argumentation techno-solutionniste embrouillée

(10:57)
Babeau : “Absolument, c’est la question de la souveraineté, d’une forme d’indépendance, on dit, à la fin du livre, on donne le nouveau commandement, les nouveaux droits de l’étudiant et les nouveaux commandements.”

Il fallait bien l’aborder à un moment donné alors ils l’ont “dit” à la fin du livre.
Notez le terme de “commandement” : par qui ? pourquoi ?

Toute la suite est un méli mélo de bonnes intentions (non assignées de contraintes, c’est un économiste libéral) lancées à notre visage à la vitesse de l’éclair.
Un porridge indigeste.
Une grande démonstration de fuite en avant avec comme outil un brandolinisme primaire.

https://fr.wikipedia.org/wiki/Loi_de_Brandolini

Comme l'enfer, le libéralisme est pavé de bonnes intentions

Avec au passage un petit name dropping sur “l’obligation de pluralisme”.
Dont lui et Laurent Alexandre ont démontré leur incapacité à en faire état.

Ils se contentent de recracher les éléments de langage de la Silicon Valley.

Sur la réponse à la question du pluralisme, il propose la technique du changement d’opérateur.
Comme si la résolution du problème pouvait se résumer à un partenaire technique et à l’achat d’un service.

Tous les systèmes d’intelligence artificielle actuels, ont les mêmes soucis de slop et de nivellement vers le bas.
La diversité intrinsèque qu’ils porteraient est inexistante car ils ne sont pas le miroir de notre réalité qu’ils ne comprennent pas.
Et leurs comportements de fallback sont curieusement les mêmes entre modèles concurrents.

J’ai écrit un article à ce sujet.

https://www.kindrobot.org/article/factuality-generative-artificial-intelligence-is-there-an-elephant-in-the-room/

Lui et Laurent Alexandre ont écrit un livre basé sur la sortie d’un chatbot édité par la société OpenAI.
C’est l’élément déclencheur : littéralement les premiers mots du livre.

OpenAI a pour but de terrasser ses concurrents et de créer un monopole.
Olivier Babeau feint de ne pas comprendre que la course à l’IA est une course au monopole.
Il nous sert un argumentaire sur le besoin de pluralisme au summum du cynisme.

Un pluralisme auquel il n’adhère pas ni dans les faits, ni dans ses propres écrits.
Dès qu’il s’agit de causer intelligence artificielle dans le Figaro, il est impossible pour eux de ne pas citer GPT comme pierre angulaire, comme passage obligé.

Chaque article, publié au cours de ces 3 dernières années, ancre dans la tête des lecteurs que l’IA, c’est OpenAI.
Ils rendent la concurrence, si chère à sa conception libérale, quasi invisible.

Il co-signe un papier où il accepte de dresser une corrélation directe entre ChatGPT et une IA qui aurait de l’intuition.
L’anthropomorphisation ultime. L’argument en or massif servi sur un plateau.
OpenAI et GPT y sont enfin arrivés.

C’est ici: https://archive.is/GsWpS

Une ode à un produit et à une société : un pluralisme mais à forte odeur monopolistique.

Les dernières minutes

L’interview termine évidemment sur le frein au changement.
Un frein incompréhensible qui vient des passéistes anti-progrès.
Tout le vocable y passe dans la question : cécité, refus, aveuglement avec comme cible l’université.

Heureusement que Anne Alombert est parvenue in extremis à recentrer le débat, les questions et les enjeux.

(12:49) Anne Alombert : “L’université, je crois, ne peut pas s’adapter et se contenter de systèmes dominants qui sont massivement diffusés, qui appartiennent à des entreprises privées, qui sont plein de biais, en fait.”

En repartant de la question zéro : pourquoi accepter une solution qui ne conviendrait pas ?

Olivier Babeau se contente de ce que les géants de la tech lui proposent, il ferme volontiers les yeux sur les biais et autres problèmes identifiés dès aujourd’hui.

Comme Laurent Alexandre, il remplit son rôle de plaquette commerciale ambulante d’OpenAI.

Il utilise les mêmes truchements que son acolyte.
Le sens critique, il ne connaît pas.

S’il est aussi consistant, précis et clair dans sa spécialité qu’est l’économie, on comprend aisément qu’il pense qu’une machine puisse le concurrencer.
On a pas tous un syndrome de l’imposteur tellement grand à gérer qu’on doit le transformer en “défaillance générale de l’intelligence humaine”.

“On est les premiers à écrire” et “dans le livre, on a la solution” : cela s’appelle avoir le melon ou en langage plus soutenu, de l’hubris.

La coachisation de la société comme but

Je voudrais terminer sur une autre interview donnée au média en ligne “Le monde numérique”.

https://mondenumerique.info/episode/interview-lia-ringardise-les-etudes-olivier-babeau-institut-sapiens

Il parle des professeurs
(13:04) Babeau : “il va plutôt devenir une sorte de coach, une sorte de guide qui va guider l’étudiant dans son parcours d’apprentissage, mais ce n’est pas lui qui va faire l’essentiel du transfert des connaissances”

J’ai vécu exactement cela durant toutes mes études universitaires entre 1996 et 2001.
Il y a 25 ans.
Des professeurs qui nous guidaient, qui n’avaient pas la science infuse car personne n’attendait cela d’eux.
Avec internet et sa diversité accessible comme source de données mais pas uniquement.

Inutile de les renommer “coach” en 2025 et de les assaisonner à l’IA pour légitimer l’existence d’une révolution à mener.

Je ne dis pas que mon expérience vaut pour toutes les expériences mais dans ce cas précis :
Olivier Babeau décrit une solution qui existe déjà dans le passé.

Ringardiser les autres, donc.

En résumé : plus que des idées nouvelles, il a surtout un énième livre à vendre.

Les robots plombiers seront aussi médecins

Un petit bonus que je viens de découvrir sur un site Suisse où nos deux experts donnaient une interview.

https://www.pme.ch/strategie/2025/10/13/leurope-est-aveugle-face-a-la-revolution-robotique-870440

Ils y parlent encore de la supposée supériorité des machines.
Et c’est au tour des plombiers et des électriciens de se faire disrupter.

“Ces machines sont en quelque sorte «totipotentes»: elles peuvent exceller aussi bien en médecine qu’en ingénierie ou en architecture, là où l’intelligence humaine reste limitée par la spécialisation.”

Notons le présent temporel et l’absence totale de précaution : elles peuvent exceller en tout.
L’intelligence générale supérieure qu’ils décrivent n’existe que dans leur imagination.

“Miser sur les carrières manuelles à long terme risque de conduire à une impasse, car les robots combleront très vite leur retard technologique.”

Comme d’habitude, aucune définition précise de ce “très vite”.
Ils ne savent pas mais cela ne les empêche pas de répondre avec aplomb.

Cette bataille à la surenchère de “l’ordre des professions qui seront remplacées” ne sert qu’à une chose, s’alimenter elle-même.

Ce volontarisme futuriste omet de prendre en compte une dimension importante et essentielle : son coût.

Puisque l’économiste Babeau ne souhaite pas détailler le volet économique de cette révolution qu’il prophétise si bien, nous allons le faire à sa place.

Vous vous rappelez de la théore centrale de "l'intelligence gratuite" ? C'est pas vrai.

Cette étude du CSAIL MIT révèle les limites économiques de cette automatisation.
Car oui, il y en a.
Produire de la technologie fiable et la mettre en place coûte beaucoup d’argent, cela ne pousse pas naturellement au kilo sur les pommiers.

Est-il raisonnable de penser que tous les jobs sont économiquement éligibles au remplacement ?
Cette viabilité est-elle une règle généralisable ?

À la surprise générale, il semblerait que non.

https://www.csail.mit.edu/news/rethinking-ais-impact-mit-csail-study-reveals-economic-limits-job-automation

“only about 23 percent of wages paid for tasks involving vision are economically viable for AI automation”

“It finds that even an AI system that is ‘only’ as good as a human would often be prohibitively expensive to adopt, compared to current labor costs in the U.S.”

La réalité nous parle de coûts prohibitifs à “efficacité” égale.

Quel crédit accorder à une étude sérieuse face aux croyances et gesticulations des futurologues professionnels ?

Merci de m’avoir lu

Published: 2025-11-13 07:00:00 +0000 UTC