L'expertise française en IA : vraie confusion et fausse nouveauté fulgurante
Aujourd’hui nous allons parler de deux éléments rhétoriques utilisés par les oracles médiatiques pour communiquer sur l’intelligence artificielle : la nouveauté et la fulgurance absolues et non égalées.
A force de ces entendre, les éléments de langage s’installent et sont aussi repris dans la société assez naturellement.
C’est un problème car ils sont inexacts surtout quand on ne définit pas suffisamment de quoi on parle.
Quand c’est flou, il y a un loup.
OpenAI et ChatGPT : l'invention du feu comme référence
Si nous en croyons le livre paru, nos experts (Laurent Alexandre et Olivier Babeau) sont sidérés depuis novembre 2022 et la sortie de chatgpt qu’ils qualifient de “nouveauté technologique”.
Plus loin, ils amalgament le produit qu’est ChatGPT et les technologies sous-jacentes.
Ils emploient un vocabulaire et des raccourcis visant à tout confondre à escient et donc résumer ce cocktail derrière les termes “intelligence artificielle” ou IA.
Enfin quelques pages plus tard, on peut lire que tout ce qui touche à l’IA avance à une vitesse incroyable et qu’OpenAI par lien de paternité avec ChatGPT a donc inventé une technologie comparable au feu : notez la sobriété de ce propos.
On a à peine tourné trois pages que l’exagération techno-solutionniste atteint des sommets.
Avec des envolées lyriques d’une autre dimension pour faire passer le tout :
“Reste à savoir si, comme pour le feu, nous saurons l’apprivoiser."
Il convient donc revenir sur Terre et définir correctement les concepts ce qui manifestement n’est pas fait.
Remonter le temps pour tenter de remettre de l’ordre et de la logique dans cette bouillie.
Quand on parle d’intelligence artificielle, on parle généralement de systèmes logiciels complexes.
L’idée de départ est de les construire différemment de telle manière que les résultats puissent être calculés en employant des technique et méthodes autres que celles de l’algorithmie classique.
Et pour faire cela, les chercheurs ont dû inventer ces techniques de calcul, d’organisation des instructions via les réseaux de neurones.
En lisant nos deux experts, nous avons l’impression que la révolution qu’ils décrivent est issue d’une poignée de sociétés, voire d’une seule et qu’avant 2022, il n’y avait rien.
Ils ont tout créé de toute pièce. Quelque chose d’unique et à une vitesse inégalée.
Par exemple dans le figaro du 30 Novembre 2023, il est difficile de faire pire comme raccourci tracé à la pelleteuse dans les détails de l’histoire scientifique du domaine.
Anniversaire de ChatGPT : «Le XXIe siècle est né le 30 novembre 2022»
Ils mentent par omission car ils n’ont aucun intérêt de vous expliquer comment tout cela s’est vraiment produit.
Ils occultent systématiquement les éléments qui pourraient aller en contradiction de la fable du “miracle soudain” qui est leur fond de commerce.
Et surtout, ils ne souhaitent pas avoir à s’expliquer sur un domaine, qu’en vérité, qu’ils maitrisent mal, si toutefois un journaliste venait à devenir trop curieux.
Or, la surprise est totale : le développement des réseaux de neurones et autres recherches sur ces techniques innovantes ont débuté bien avant 2022.
Les réseaux de neurones : un peu d'histoire
Si on remonte le temps via des recherches Google en utilisant le mot clé “ANN” (Artificial Neural Networks), on arrive à trouver des papiers scientifiques datant de l’année 2000.
Dans lequel on peut lire cela :
“Artificial neural networks (ANNs) are relatively new computational tools that have found extensive utilization in solving many complex real-world problems.”
C’est donc une technique qui est décrite à cette époque comme “relativement nouvelle”.
Intéressant comme choix de mots.
Et, ces outils, auraient déjà trouvé une utilisation pour résoudre des problèmes complexes du monde réel. De l’an 2000 donc.
Intéressant de lire que la “révolution de l’IA” qu’on nous promet “pour bientôt” aurait déjà eu lieu en partie ou au moins débuté il y a 25 ans.
Et on apprend aussi, dans ce même article, que des implémentations de ces ANNs existaient depuis les années 1990 : “Patrick K Simpson (1990) listed 26 different types of ANNs.”
Nous parlons donc désormais d’une échelle de temps de 35 ans de développement.
Autre point intéressant, dans les années 2000, l’IA était également testée dans des outils de médecine
“Artificial neural networks (ANNs) are very popular as classification or regression mechanisms in medical decision support systems despite the fact that they are unstable predictors."
https://www.sciencedirect.com/science/article/abs/pii/S0933365700000658
La fameuse prochaine étape des cas d’usage “qui vont sauver des vies” que les experts nous promettent “juste après” aurait en fait déjà commencé depuis 25 ans ?!?
Ces vrais cas d’usage qui semblent toujours se faire griller la priorité pas des indispensables du type “starter packs” à publier sur LinkedIn.
Toujours est-il qu’en 2000, aucun techbro ne semble avoir eu à se déranger de sa sieste pour justifier que d’abord, l’IA devrait être capable de faire manger des pâtes à Will Smith et qu’ensuite on élargirait le scope car : “bien sûr, ca va venir”.
Le tout, sans jamais se poser la question de ce qui figure vraiment sur les feuilles de route de la Silicon Valley.
Note: on peut déjà lire ici que la technologie est qualifiée par les termes “prédictions instables”.
Les ANNs ayant des limites, d’autres technologies sont développées (en parallèle ou juste après) pour explorer d’autres voies, toujours à partir de réseaux de neurones.
Par exemple, LSTM (Long Short-Term memory) est une des bases des Large Language Models modernes.
Ici dans cet article de 1997, avec des chercheurs en Allemagne et en Suisse
https://deeplearning.cs.cmu.edu/S23/document/readings/LSTM.pdf
On y parle déjá d’améliorations potentielles d’autres techniques datant de 1987.
“real-timerecurrentlearning(RTRL;Robinson & Fallside, 1987)"
La nouveauté fulgurante de 2022 prend encore du plomb dans l’aile.
Les experts semblent avoir sauté des chapitres entiers des développements en IA.
En 2011, dans un autre papier scientifique, on peut lire cette phrase.
“Artificial neural networks may probably be the single most successful technology in the last two decades which has been widely used in a large variety of applications in various areas."
Les réseaux de neurones et donc l’IA de l’époque semblaient déjà être un succès et apparemment utilisés dans beaucoup d’applications.
On parle ici des systèmes expert entre autres.
Encore un détail historique qui ne passe pas dans la rhétorique qui consiste à vendre que l’intelligence artificielle a commencé sa carrière “il y a à peine 4 ans”.
Il y a dix ans déjà : Google, Meta et Andrej Karpathy
Petit bond en avant vers l’année 2015.
Google décide de sortir du bois pour accélerer les développements en machine learning avec TensorFlow.
https://en.wikipedia.org/wiki/TensorFlow
Une version open source de sa technologie de “backpropagation” dans les réseaux de neurones, développée par Hinton dans un autre projet DisBelief depuis 2009.
Il rend cet outil open source afin de permettre d’accélérer dans le domaine de l’IA.
C’est à peu près en même temps que son concurrent PyTorch (Facebook Meta) voit le jour qui succède à Torch qui lui date de 2002.
“Torch is an open-source machine learning library, a scientific computing framework”
Cette même année 2015, on croise le blog d’un certain Andrej Karpathy.
Il semble expérimenter un autre type de réseaux de neurones: les Recurrent Neural Networks (RNNs) ainsi que la technologie LSTM décrite presque 20 ans plus tôt.
Lecture intéressante.
“Fast forward about a year: I’m training RNNs all the time and I’ve witnessed their power and robustness many times”
https://karpathy.github.io/2015/05/21/rnn-effectiveness/
Donc 10 avant GPT, un des fondateurs d’OpenAI travaillait déjà avec des technologies et sujets de recherches ayant plus de 20 ans d’âge.
La chaîne de développement des technologies d’intelligence artificielle actuelle n’existe pas sans les travaux passés : cela n’a pas de sens de ne jamais en parler et d’ignorer des décennies d’essais/erreurs et de collaboration.
Comment pourraient-ils avoir inventé l’équivalent du feu dans ces conditions ?
Une chaine de développement pour parvenir aux LLMs actuels
Cette chaîne s’articule approximativement comme suit :
ANN / LSTM, RNN, Transformers, Attention, Parallelization (GPU power)
Deux frises de temps dans les deux articles suivants.
LSTM/RNN -> Tranformers dans cet article :
https://mbrenndoerfer.com/writing/history-lstm-long-short-term-memory
Self-attention dans celui-ci:
https://en.wikipedia.org/wiki/Attention_Is_All_You_Need
Où est donc cette nouveauté technologique apportée par OpenAI/ChatGPT?
Il faut rendre à César ce qui lui appartient.
La majorité des avancées technologiques contemporaines (dès 2010 et jusqu’à aujourd’hui) en la matière sont à attribuer à Google.
Via des structures de recherche comme Google Brain, DeepMind (racheté en 2014 mais fondé en 2010).
Via des projets comme DeepDream ou AlphaZero/AlphaGo.
Via des outils comme Tensorflow (plus haut dans l’article) ou encore seq2seq.
2014 : Seq2Seq
“this framework has become foundational in many modern AI systems. Applications include language translation, image captioning, conversational models, speech recognition, and text summarization."
https://en.wikipedia.org/wiki/Seq2seq
Qu’a donc fait et apporté OpenAI pour mériter les éloges de nos experts et aider ce bond technologique ?
Pas grand-chose selon Yann LeCun, ils ont boosté les ressources et appliqué des recettes existantes qu’ils n’ont pas créées.
“In terms of underlying techniques, ChatGPT is not particularly innovative”
GPT veut dire “Generative Pre-trained Transformer” et là encore, on trouve Google derrière.
Qui y travaillait depuis 2010, apparemment car ils souhaitaient utiliser de la donnée non labellisée depuis la source inépuisable qu’est internet.
2013 : Word2Vec
https://en.wikipedia.org/wiki/Word2vec
2018 : Bert dans le domaine de la gestion du langage
“State-of-the-Art Pre-training for Natural Language Processing”
Et enfin plus récemment Gemini qui a une filiation directe documentée avec Word2Vec. “Gemini is based on Google’s cutting-edge research in LLMs, which began with the Word2Vec paper in 2013 that proposed novel model architectures that mapped words as mathematical concepts”
https://gemini.google/overview/
Tout cela pour dire qu’une bonne partie des chercheurs de la planète ne se sont pas mis à bosser, à partir de rien et subitement pour OpenAI.
Que “l’IA” telle que décrite, raccourcie et rendue confuse par les experts n’est pas née un beau matin de novembre 2022.
C’est une posture marketing plus qu’une réalité technologique.
3 décennies de recherche et une société qui veut rafler la mise
Cela fait 3 décennies en réalité que des chercheurs travaillent sur le sujet et que cette technologie est déjà embarquée dans des produits logiciels.
OpenAI a lancé un produit grand public, sous forme de chatbot faillible et ils souhaitent désormais asseoir leur monopole en acquérant des parts de marchés par tous les moyens et financer ce qui est un goufre.
Pour ce faire, ils ont besoin de relais marketing puissants pour vendre efficacement la fable de la supériorité, de la vitesse de développement et de la paternité de la technologie.
Leur outil est une étape dans le développement de l’intelligence artificielle. Pas une ligne d’arrivée et encore moins un point de départ absolu.
Une étape qui utilise des décennies de recherches et de science provenant du monde entier.
Mais dit comme cela, on écorne franchement le mythe du “pionnier” qui passe un peu pour un profiteur.
L’effet “wow” marcherait beaucoup moins bien sur les plateaux télés quand on est VRP de ChatGPT.
L’exploitation de la crédulité est moins coûteuse que l’apprentissage du domaine si on veut sortir un livre, parader à moindre frais et vendre un produit toute honte bue.
Bonus : Et ce n’est pas ChatGPT qui a été le premier chatbot à être mis en ligne mais Galactica de Meta.
Qui est resté accessible deux petits jours seulement et a été mis hors ligne contraint et forcé car il générait du non sens à foison.
Les utilisateurs trouvaient cela inacceptable.
Merci de m’avoir lu.
Published: 2026-01-04 07:00:00 +0000 UTC