L'expertise française en IA : l'intelligence gratuite qui n'existait pas
Je vous propose une fiche de lecture spécifique sur la fable véhiculée par Laurent Alexandre et Olivier Babeau dans leur dernier livre et dans leurs roadshows dans les médias.
Ils commencent à la page 7 par un chapitre intitulé : “Le tsunami de l’intelligence gratuite”.
Cet extrait est disponible à la lecture sur les sites de vente du livre.
“Cette abondance et cette gratuité nouvelle de l’intelligence provoquent une rupture."
Nous allons détailler pourquoi cette clé de voûte mise en avant dès les premières pages est un subterfuge rhétorique malhonnête.
Il se servent de cette cascade comme un concept acquis.
Un marche pied pour vendre la supériorité des machines, leur efficacité relative par rapport aux faillibles humains et surtout se servent du terme de “gratuité” pour qualifier l’intelligence comme une commodité.
Une entité parfaite : infaillible, accessible, efficace.
C’est un élément de langage que les deux auteurs répètent à la chaîne sur les plateaux télés et dans les podcasts sans jamais être contredits.
Les journalistes qui mènent les interviews sourient complaisamment à ces propos.
C'est évidemment faux : l'intelligence artificielle n'est pas gratuite. Ce concept n'existe pas.
Note : Je ne vais pas détailler dans cet article les capacités “intelligentes” des modèles larges de langage mais me concentrer spécifiquement sur la partie économique pure.
Nous allons donc parler coûts, gains, pertes, risques puisque c’est bien de cela dont il s’agit.
Dans plusieurs dimensions :
- la dimension patrimoniale : art, propriété intellectuelle individuelle et collective, mise à disposition de la donnée par consentement commercial
- la dimension humaine : main d'oeuvre exploitée à bas prix, pression et dommages psychologiques
- la dimension pécuniaire : coûts de création des modèles, coûts des services facturés, rentabilité
- la dimension ressources : construction des centres de données, consommation énergétique, composants électroniques.
- la possibilité d'une bulle et de son éclatement
De la donnée "gratuite" et en abondance : mode d'emploi
Les modèles d’intelligence artificielle ont besoin de toujours plus de données pour “apprendre”.
Les sources de ces données et les recettes pour les obtenir ont toujours été farouchement gardées.
On sait aujourd’hui que Meta, par exemple, a piraté des livres et des papiers de recherche pour nourrir son modèle.
Idem chez OpenAI à propos des représentations de chez Studio Ghibli
https://www.timesofai.com/news/japanese-artists-stand-against-openai/
Lorsqu’ils sont sommés de s’expliquer sur ces comportements illégaux, les géants de la tech se cachent derrière l’impossibilité d’entraîner un modèle et obtenir des résultats de qualité sans “utiliser” des œuvres protégées.
Dans cet article, ils demandent en 2025 au parlement britannique de leur accorder un droit légitime de vol, ni plus ni moins.
Acquérir par le vol semble être une des recettes pour atteindre une dimension de l’intelligence gratuite.
Quand on est un gros producteur comme Disney, on peut se permettre de vouloir inonder internet avec du slop de Mickey, Donald et compagnie et passer un deal avec le “voleur”.
https://openai.com/index/disney-sora-agreement/
Cet article de 2023, mentionne en revanche, les cas de centaines d’artistes dépouillés et pourquoi le système “d’opt out”, qui leur permet théoriquement d’échapper à l’aspiration automatique de leurs créations, ne peut pas bien marcher.
Car, comme souvent avec les géants de la Silicon Valley, on parle “d’opt out” et pas “d’opt in”.
Quand on est un petit artiste, on est juste volés sans recours possible.
https://www.theatlantic.com/technology/archive/2023/10/openai-dall-e-3-artists-work/675519/
Ces pratiques sont généralisées et ce n’est plus un mystère.
Je ne sais pas comment on peut décemment interpréter une notion de la gratuité là dedans.
Cachez moi ces humains dont la machine n'a pas besoin pour produire
Une autre dimension de la gestion de ces données en masse, c’est la présence de travailleurs de la data.
On a découvert assez tôt que les mécanismes et les processus de création d’outils d’intelligence artificielle avaient besoin de travailleurs et si possible mal payés.
Cela a commencé en 2023, avec de la vérification et des labellisations de téraoctets de données pour que ChatGPT réponde de manière moins toxique, donc qu’il soit utilisable en fait.
https://time.com/6247678/openai-chatgpt-kenya-workers/
Puis ça continue en 2024, toujours au Kenya avec une exploitation humaine grandissante.
“someone sorting, labeling and sifting through reams of data to train and improve AI for companies like Meta, OpenAI, Microsoft and Google”
“Wambalo and other digital workers spent eight hours a day in front of a screen studying photos and videos, drawing boxes around objects and labeling them, teaching AI algorithms to recognize them."
https://www.cbsnews.com/news/ai-work-kenya-exploitation-60-minutes/
Ce n’est pas de la gratuité, mais de l’exploitation et ce n’est pas la même chose.
Curieusement sur ce sujet là, c’est silence radio dans les road shows médiatiques des experts français en intelligence artificielle.
Mais comme personne ne leur pose jamais vraiment de questions de fond, ce petit monde peut continuer à raconter des inepties en boucle en toute liberté.
Nous pouvons aussi mentionner le coût incalculable sur la santé des gens qui voient des abominations pour que les solutions de chatbots et de génération d’images puissent afficher une forme de normalité.
“The Mental Health Burden on Content Moderators”
“In AI-driven environments, Content Moderators are frequently exposed to harmful material, including violent, explicit, and abusive content."
“AI-driven moderation systems exacerbate this issue by increasing the pace and volume of flagged content that needs human review."
L’automatisation de la génération de contenu synthétique à l’échelle planétaire ne réduit pas ce besoin de contrôle humain.
Il n’y a pas “moins” à modérer mais “plus”.
https://www.zevohealth.com/blog/the-mental-health-impacts-of-ai-driven-content-moderation/
Mais entrainer un modèle, ça doit être gratuit donc ?!?
Pour la partie pécuniaire, on va commencer par les basiques.
Combien techniquement cela coûte-t-il d’entraîner un modèle de type GPT, Gemini ?
Surprise : Là non plus, rien n’est gratuit.
Ça coûte à peu près 100 millions de dollars juste pour l’entraînement.
https://www.visualcapitalist.com/the-surging-cost-of-training-ai-models/
Et on s’aperçoit dans ce même article qu’OpenAI ne peut pas être rentable même avec des abonnements payants à 200 dollars.
“Today, OpenAI charges $200 per month for a pro o1 subscription, which is reportedly running at a net loss given the scale of queries exceeding the compute costs budgeted to run them."
Non seulement cette partie n’est pas gratuite mais on parle de perte d’argent : carrément.
Voici un autre article qui détaille les coûts d’entraînement plus particulièrement de la partie donnée.
“Nonetheless, data is not free, and even efficient management of data adds substantial costs."
https://www.layerstack.com/blog/the-rising-costs-of-training-large-language-models-llms/
Il faut stocker, organiser, trier, sauvegarder des volumes immenses et ça coûte cher.
Un des deux auteurs de ce livre se présente comme économiste.
Nous avons couvert à peine deux dimensions et nous constatons que la théorie de la gratuité est mal engagée.
Il aurait dû le voir en qualité de double expert.
Enfin vous l’aurez compris, les sociétés tech ne sont pas philanthropes et tous les éditeurs de modèles commercialisent des solutions.
Ils vendent leurs produits et ne les proposent pas uniquement gratuitement.
La partie utilisation gratuite étant limitée et de plus en plus.
Ils ont des grilles tarifaires comme ici celle d’OpenAI : https://platform.openai.com/docs/pricing
Extrême fantaisie : ils ont donc décidé de mettre un prix sur l’intelligence gratuite.
C’est étonnant.
Continuons de chercher cette gratuité dans les infrastructures
Pour faire marcher tout cela, il faut de l’électricité, de l’eau, des câbles, des réseaux, des composants, des centres de données.
Donc beaucoup d’acteurs qui doivent accepter de travailler à l’œil pour espérer fournir la gratuité décrite dans le livre.
La bataille que se livrent les grands éditeurs que sont OpenAI, Google, Anthropic et leurs plans nécessitent toujours plus de ressources.
On parle en premier de l’électricité qui comme chacun le sait à un coût et qui se retrouve en tension dans certaines zones du monde.
Cet article démontre que les prix de l’électricité flambent à cause des centres de données et de la demande de l’intelligence artificielle.
“It’s an increasingly dramatic ripple effect of the AI boom as energy-hungry data centers send power costs to records in much of the US, pulling everyday households into paying for the digital economy."
Une gratuité ou tout le monde partage les coûts.
https://www.bloomberg.com/graphics/2025-ai-data-centers-electricity-prices/
Il faut aussi construire des centres de données et trouver de la place.
A Elk Grove dans l’Illinois, 55 familles ont dû abandonner leur maison et ont été forcées de les vendre pour qu’un centre de données puisse s’y installer.
“Imagine being given no choice but to leave your home due to the arrival of an artificial intelligence company."
https://www.visive.ai/news/ai-company-displaces-illinois-families-prompting-home-evacuations
C’est bien réel.
Beaucoup de gens essayent de se protéger de l’installation de centre de données avec des arguments entendables et valides.
“Residents of Saline Township, Michigan, fear the $7bn center would jack up energy bills, pollute groundwater and destroy the area’s rural character."
https://www.theguardian.com/us-news/2025/dec/18/michigan-data-center-fight
Sur les coûts électriques et les risques liés à ces développements effrénés, le grid américain est en tension extrême et les risques de rupture sont réels.
“the report specifically calls out data center expansion in Texas, saying that it is “contributing to continued risk of supply shortfalls.” That stat might be particularly worrisome to Texans, who nearly five years ago suffered through massive power outages during an intense cold snap."
Le fameux coût dérisoire, voire gratuit, d’avoir des milliers de foyers dans le noir, en hiver, pour que, bien calé dans son canapé l’expert IA de plateau télé puisse génerer un selfie avec Mickey et le publier sur X.
15 ans d'inaction sur la consommation d'eau
L’eau potable est aussi un élément important dans le refroidissement de ces centres de données et comme tout le monde le sait, elle est disponible en quantité abondante et gratuite sur notre planète : non.
Cette étude de 2025 dresse un tableau de la situation.
“Data center developers are increasingly tapping into freshwater resources to quench the thirst of data centers, which is putting nearby communities at risk."
On parle là encore des communautés à proximité qui se retrouvent de fait dans des zones en tension.
“A medium-sized data center can consume up to roughly 110 million gallons of water per year for cooling purposes, equivalent to the annual water usage of approximately 1,000 households."
https://www.eesi.org/articles/view/data-centers-and-water-consumption
Cet autre article essaye de calculer la consommation par requête ce qui est un exercice complexe mais il parvient à des résultats quantifiables.
https://news.ucr.edu/articles/2023/04/28/ai-programs-consume-large-volumes-scarce-water
On parle ici d’empreinte cachée de la consommation d’eau.
Cachée essentiellement du grand public car Google ou les autres doivent bien recevoir une facture pour toute l’eau consommée. Non ?
La transparence en la matière est peu évidente.
Cet article dans “The Conversation” pointe cette opacité
“Our analysis of public records, government documents and sustainability reports compiled by top data center companies has found that technology companies don’t always reveal how much water their data centers use”
Sur l’eau encore, car c’est un important angle mort de l’analyse de la consommation des ressources.
Cet article du Forum économique mondial : “Even a small-scale data centre can have a substantial water footprint."
https://www.weforum.org/stories/2024/11/circular-water-solutions-sustainable-data-centres/
Cela nous renvoie vers cet article sur la situation de la gestion de l’eau en Amérique latine, où on découvre que personne ne contrôle la consommation en eau de ces bâtiments.
“However, it is extremely difficult to estimate current data center water consumption because two-thirds of centers don’t even record their water usage”
Les deux-tiers des consommations industrielles ne sont pas enregistrées !
Et cette projection statistique intéressante
“By 2030, the average European internet user is expected to consume 3 liters (0.8 gallons) of water every 24 hours — more than that person drinks each day."
J’ai trouvé ici un document de Google qui tente d’expliquer comment ils essayent de mettre en place une gestion responsable de l’eau qui sert à refroidir leurs centres de données.
“Advancing responsible water use” et aussi “Replenishing water”
https://www.gstatic.com/gumdrop/sustainability/google-2025-environmental-report.pdf#page=40
Le cycle de l’eau et du refroidissement des centres de données semble être un sujet non neutre et très impactant au niveau local.
Les conséquences économiques dans la société et sur l’agriculture sont bien réels.
Toutes les études en la matière, y compris celle de Google utilisent le mot “scarcity” en anglais, ce qui veut dire rareté.
Un dernier article sur le sujet avec des statistiques intéressantes.
“But in 2023 Microsoft said that 42 per cent of its water came from “areas with water stress”, while Google said 15 per cent of its water consumption was in areas with “high water scarcity”.
Tout comme le bilan carbone, on parle ici de “bilan eau”.
“Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently."
https://www.source-material.org/amazon-microsoft-google-trump-data-centres-water-use/
Horizon 2030 donc.
Un article de 2015 du Wall Street Journal a commencé à lever le voile sur ce problème de l’eau et des centre de données Californiens.
https://www.wsj.com/articles/data-centers-1435168386
15 ans que le sujet n’est pas réellement traité.
L’innovation qui “va vite” a plus d’intêret à avancer sur l’amélioration de génération de vidéos de Will Smith mangeant des pâtes que d’optimiser sa consommation d’eau.
C’est un constat.
Cette problématique de gestion de l’eau, à elle seule, dans la chaîne de production des outils d’intelligence artificielle est un sujet d’étude économique complexe.
Google lui-même n’emploie pas le terme de gratuité et est forcé de communiquer officiellement sur sa gestion de cette ressource rare.
Le sort s’acharne contre la gratuité de l’intelligence.
Nos deux compères, experts du domaine, ont apparemment sauté à pieds joints cette section.
Ceci n’est guère étonnant car l’écologie et la gestion des ressources étant pour l’un deux un non sujet.
Bonus "pénurie composant" qui va tous nous affecter dans notre quotidien
Un autre effet de bord du développement de l’intelligence artificielle est le besoin de mémoire vive pour que s’exécutent correctement les machines dans les centres de données.
Les chaînes de production de mémoire vive ne suivent plus face à la demande et au quasi hold-up effectué par les fournisseurs d’intelligence artificielle.
Le couple NVidia-OpenAI a par contrat décidé de cela indirectement en préemptant le “computing power” et donc les corrolaires qui l’accompagnent.
Or, la mémoire vive est présente dans tous les ordinateurs et téléphones portables et certains industriels comme Micron ont décidé de ne plus fournir le marché des particuliers et satisfaire le besoin de l’IA.
On entre dans une crise des puces mémoires sans précédent avec des conséquences en cascade.
“This Reuters examination of the spiraling supply crisis is based on interviews with almost 40 people, including 17 executives at chipmakers and distributors."
“It shows industry efforts to meet voracious appetite for advanced chips — driven by Nvidia (NVDA.O), opens new tab and tech giants like Google, Microsoft and Alibaba (9988.HK), opens new tab — created a dual bind: Chipmakers still can’t produce enough high-end semiconductors for the AI race, yet their tilt away from traditional memory products is choking supply to smartphones, PCs and consumer electronics."
Un arbitrage impossible créé par une demande incontrôlée et un marché complètement fou.
https://www.reuters.com/world/china/ai-frenzy-is-driving-new-global-supply-chain-crisis-2025-12-03/
En attendant, le marché s’adapte et comme la non-gratuité frappe encore où on ne l’attend pas.
Et on se demande bien qui va payer la facture ?
“Everything that uses memory, the prices are going to go up,” Shih said. That’s essentially every electronic product from cellphones to smart fridges to modern cars."
“Plant said it’s not just RAM that’s increasing in price at what seems like a weekly pace: the cost of solid-state drives is also creeping up."
“And video cards may be the next obvious casualty to the market, given their RAM use, he added."
Il n’y a aucune raison que les prix des appareils éléctroniques que vous utilisez car vous n’avez pas le choix n’augmentent pas dans un proche avenir.
Et même si vous n’utilisez pas l’IA, vous allez passer à la caisse.
C’est “gratuit”, c’est cadeau.
“AI is skyrocketing the price of RAM. Computers, phones and tablets could be next”
https://www.cbc.ca/news/canada/calgary/ai-driving-up-ram-price-9.7011003
Ou encore ici, l’article fait un lien direct entre les prix qui vont flamber et le projet “Stargate” d’OpenAI.
“We are not ready for how much worse video game prices will spiral out of control thanks to AI”
“Companies like Nintendo are already losing billions as OpenAI’s Stargate project starts to solidify”
https://www.polygon.com/open-ai-chips-semiconductor-deal-shortage-ps6-switch-2-prices-ram/
Elle est décidément bien taquine cette gratuité.
On peut la lire très clairement dans le livre des experts, c’est même un argument introductif, un prérequis, mais elle est bien cachée dans la chaîne de production du monde réel.
Cerise sur le gâteau : la bulle
Je ne peux pas terminer cet article sans adresser le sujet de l’éléphant dans la pièce : le risque de bulle du marché de l’IA actuel.
Aux vues de la concentration, des montants engagés et des faibles retours sur investissement mesurés, Alexandria Ocasio-Cortez pose les bonnes questions sur le risque inconsidéré pris par les sociétés tech dans leurs promesses.
Cette mise en perspective politique et ces questions sont légitimes.
https://bsky.app/profile/ocasio-cortez.house.gov/post/3m5ymsls4lk25
Sur la question de la profitabilité de GPT, Sam Altman perd son sang froid dans une interview de Novembre 2025.
https://techcrunch.com/2025/11/02/sam-altman-says-enough-to-questions-about-openais-revenue/
Et dans une interview du 19/12/2025, il ne sait pas répondre clairement à la question.
https://techcrunch.com/2025/11/02/sam-altman-says-enough-to-questions-about-openais-revenue/
Et là encore, il parle de perdre des montants considérables pendant encore deux ans.
Sundar Pichai, CEO de Google (Alphabet) parle d’irrationalité dans les investissements.
https://www.bbc.com/news/articles/cwy7vrd8k4eo
Argent partout, gratuité nulle part
L’intelligence artificielle générative est un business et une course au monopole.
Avec des sociétés qui investissent des milliards de dollars dans une chaîne dont personne ne sait si elle va délivrer les promesses.
Et avec des “double down” et des fuites en avant permanentes d’un marketing solutionniste à tendance sectaire devenu incontrôlable.
Il est question d’argent, de coût, de pertes, de risques à tous les étages : littéralement.
Il est impossible d’éviter le sujet, de ne pas le voir, de ne pas l’adresser, de le contourner.
Parler dans ce contexte de l’intelligence comme “commodité gratuite”, c’est le summum de l’incompétence et de l’intoxication.
Pollution et santé des communautés pauvres américaines : est-ce neutre économiquement ?
Je croyais avoir fini de creuser dans ces histoires de coûts et que la barque était suffisamment chargée.
Mais, un post sur Bluesky à attiré mon attention sur une autre dimension de lecture : le racisme environnemental.
En plus de mettre en concurrence l’accès aux ressources comme l’eau et l’électricité, existe-t-il des formes de pratiques délétères qui feraient porter un poids excessif à des communautés pauvres ou des minorités de couleurs ?
Un cas au moins existe et il implique une des sociétés d’Elon Musk , xAI et l’entraînement de son modèle Grok.
Le problème à résoudre pour la course à l’IA est la production de l’électricité nécessaire au centre de données situé à Memphis.
Cette puissance électrique produite n’étant pas suffisante et le prestataire local ne pouvant pas livrer les mégawatts, xAI a décidé d’utiliser des turbines à gaz méthane en complément.
“Musk was ready to train his AI Grok in Memphis, but there was just one problem: MGLW couldn’t provide nearly enough power for Musk’s needs. In August 2024, MGLW said that xAI would have access to 50 megawatts of power. But xAI wanted to use triple that amount: enough energy to power 80,000 households.
So he brought in 35 methane gas turbines”
https://time.com/7308925/elon-musk-memphis-ai-data-center/
La zone où est installé ce nouveau centre de données est historiquement une zone pauvre et noire américaine.
“Boxtown, a predominantly Black community with a median income of $37,000”
Qui a déjà eu un passé industriel avec des conséquences sur la santé de la population :
“exacerbating the health issues of an area already crushed by decades of pollution”
“For residents of Southwest Memphis, it feels like a familiar pattern of environmental racism that has targeted the community for decades."
https://capitalbnews.org/we-deserve-to-breathe-clean-air-memphis-residents-take-on-elon-musks-xai/
Ces deux articles expliquent la bataille que mènent les populations locales face à cette pollution de l’air en face d’une installation qui est devenue la première source de pollution du comté.
Ces turbines rejettent des formaldéhydes dans l’atmosphère qui sont la source de problèmes respiratoires graves.
Et du dioxyde d’azote !
“The xAI turbines are leading to a public health crisis in Memphis by releasing nitrogen oxides—pollutants known to directly harm the lungs,"
Cet article du Guardian explique le contexte politique et les zones de flou juridique sur les permis de polluer accordés.
“xAI did not have a permit for the generators, but seemed to have found a loophole in the system that allowed it to use the turbines as long as they were not in the same location for more than 364 days”
https://www.theguardian.com/us-news/2025/jul/03/elon-musk-xai-pollution-memphis
Tout ceci pour permettre, entre autres, à Grok de servir des théories négationnistes.
Et satisfaire une frange politique pour qui, ces conséquences sur la santé des gens de ces quartiers de Memphis, ne doit pas être un problème prioritaire.
Merci de m’avoir lu.
Published: 2025-12-20 07:00:00 +0000 UTC