Intelligence artificielle partout, internet libre nulle part

Reading time: 13 minutes

Nous lisons souvent que les outils de type chatbots branchés sur des modèles large de langage ne seraient que la suite logique des moteurs de recherche dont ils ont les capacités de remplir les mêmes missions voire mieux.

ChatGPT, Gemini, Claude ou Mistral ne peuvent pas être considérés et utilisés comme des moteurs de recherche.

Pour expliquer cela il convient de redéfinir à ce que ces outils font et quelles couches fonctionnelles et techniques ils manipulent et modifient.

En abordant les concepts de :

  • source, document
  • message et messagers
  • émetteurs, récepteurs
  • transporteurs et réseaux
  • médiation, modération
  • filtrage, censure, neutralité

Toute une chaîne qui fait que vous recevez une réponse lorsque vous posez une question.
Quand vous recevez un message ou encore quand vous décidez de naviguer sur Internet.

Il est compliqué de comprendre la nature du message que nous recevons sans aller plus loin dans la réflexion.
Quel message recevez-vous ? Qui l’a créé ? A partir de quelles sources ?
A quel degré puis-je faire confiance à la chaîne de transmission ?

Nous allons remonter dans le temps et nous intéresser à la manière où, nous humains, pouvons obtenir, envoyer et accéder à de l’information et les choix qui se présentaient à nous.

Au moyen-âge : Informer c'est gouverner.

“L’information, dans le sens actuel, existe pourtant, de fait, avant cette date et pendant tout le Moyen Âge. Elle s’opère dans la plupart des cas par un contact entre les individus, soit de bouche à oreille, soit par la transmission d’un support écrit, lettre ou rouleau."

La mission des messagers qui assurent le transport n’est pas sans risque car ils sont identifiés et peuvent transporter des lettres de première importance.

“Leur action n’est pas sans risque, malgré le sauf-conduit qui, théoriquement, les protège. L’attaque en forêt ne peut pas être exclue, même si elle relève davantage du fantasme que de la réalité ; plus menaçant est l’accueil qui peut leur être réservé, car certains sont passés de vie à trépas quand la teneur des ordres déplaisait au destinataire."

Les messages envoyés sont destinés à légiférer.

Il existe aussi un circuit parallèle d’information, moins officiel.

“Sur de longues distances, les pèlerins, les ordres mendiants, les marchands, les jongleurs, voire les vagabonds véhiculent les nouvelles."

https://larevuedesmedias.ina.fr/au-moyen-age-aussi-informer-cest-gouverner

Ces moyens de communication sont imparfaits : les messages passent d’intermédiaire en intermédiaire, qui peuvent le ré-écrire, des messages peuvent se perdre et tout simplement arriver trop tard.

“On touche là une obsession de la société médiévale : ne pas pouvoir connaître la vérité, faute d’une information fiable."

Imprimeries et diffusion des livres

En 1450, Johannes Gutenberg invente l’imprimerie.

https://fr.wikipedia.org/wiki/Imprimerie

“Cette omniprésence de l’imprimé étend et renforce les effets de l’écriture sur la pensée et l’expression, modifiant la place relative de l’oralité dans l’ensemble de la culture”

Il permet donc à un auteur de mettre à disposition son livre à grande échelle.
Ceux qui savent lire peuvent donc avoir accès à une source primaire non altérée par un intermédiaire dès l’instant que l’imprimeur s’en tient à son devoir de neutralité.

L’imprimerie a permis une diffusion de copies de sources primaires diversifiées et distribuées afin de permettre au plus grand nombre de pouvoir y accéder.

https://ecampusontario.pressbooks.pub/competencesinformationapprenant/chapter/les-sources-primaires/

“Au milieu du XVe siècle, l’Europe entière découvre une technique de reproduction des livres qui va bouleverser leur diffusion et modifier l’accès au savoir : l’imprimerie."

https://www.bnf.fr/fr/agenda/imprimer-leurope-de-gutenberg

Nous passons donc de la transmission d’information dans un moyen-âge confus à la diffusion d’information réputée fiable par construction.

Des lieux dédiés aux livres : les bibliothèques

Le savoir étant imprimé en série, il faut le préserver et le mettre à disposition du plus grand nombre.
Un ou une bibliothécaire vous aide et assure ici le rôle de médiateur en vous guidant dans votre recherche de source.
Ce médiateur ne modifie pas le contenu du message ou du document, il vous aide à trouver l’ouvrage ou le thème que vous recherchez dans le catalogue présent dans le bâtiment.

https://fr.wikipedia.org/wiki/Biblioth%C3%A8ques_en_France

Le courrier

Une autre manière d’envoyer un message ou un document est le courrier et les lettres.
Le secret de la correspondance et l’inviolabilité des contenus garantit ici théoriquement que le message ou le document vous parvienne tel que l’envoyeur l’a décidé.

Les intermédiaires techniques de transport se devant de respecter cette règle.

“Secret de la correspondance”

https://fr.wikipedia.org/wiki/Secret_de_la_correspondance

“La correspondance dans le moment postal”

“Une loi de 1791 en avait garanti l’inviolabilité. Les postiers et facteurs prêtent le serment de la respecter. Les Français sont en demande de service postal."

https://shs.cairn.info/revue-sigila-2020-2-page-45?lang=fr

Le télégraphe

https://fr.wikipedia.org/wiki/T%C3%A9l%C3%A9graphe

Un moyen de transport technique où il fallait encoder le message et le décoder à l’autre bout d’une chaîne de transport soit physique soit électrique.

“Dans les décennies suivantes et jusqu’au milieu du XXe siècle, les réseaux télégraphiques électriques terrestres et sous-marins ont permis aux agences de presse, aux banques, aux commerces, puis au public de transmettre des messages et des nouvelles entre les continents et via les océans presque instantanément et avec des conséquences sociales et économiques importantes."

L’intermédiation étant ici aussi technique et en aucun cas ne devait changer la nature du message à transmettre.

Nous pourrions aussi parler du téléphone dont la fonction est de joindre et de router des appels et non pas d’en modifier ou filtrer le contenu au bon vouloir de la compagnie de télécommunications.

Internet et les réseaux de transmission modernes

Le réseau internet est la combinaison de plus où moins tout cela en même temps.

La possibilité de combiner écriture, publication et diffusion (imprimerie + messagerie + partage + bibliothèque), le tout accessible au plus grand nombre.
En 2026, la barrière à l’entrée pour produire et y publier une source primaire d’information est assez basse.
C’était le but du projet.

Les principes érigés par le W3C dès le milieu des années 1990 et les normes techniques et fonctionnelles sont toujours d’actualité.

“Making the web work”

https://www.w3.org/

N’importe qui avec des connaissances même rudimentaires en HTML peut publier une page sur Internet (quasi gratuitement) en ayant la garantie que l’accès et la transmission de la source de ce document ne soit pas altérés :

  • Par les intermédiaires techniques réseaux autour de la planète
  • Par son navigateur qui ne remplit que la fonction de rendu passif

Cela ne veut pas dire que cette page sera indexée par Google, mais cela veut dire que son accès, son existence même ne peuvent être remis en question.
Ce contenu ne peut pas être invisibilisé dès l’instant où les normes sont respectées.
A savoir, l’adresse est routable publiquement (IP ou nom de domaine), le HTML est correct.

L’intelligence artificielle générative change ce paradigme en insérant un intermédiaire “non neutre” entre votre navigateur et les sources primaires : des chatbots, des applications propriétaires embarquant des technologies fermées.

Ces intermédiaires rendent les sources primaires moins visibles car donnent l’illusion qu’ils font le travail en vous livrant l’information dont vous avez besoin.
Ils prennent des libertés et ne citent pas systématiquement leurs sources et mêmes quand ils le font, ils peuvent “halluciner”.
Ils “naviguent” sur internet pour vous et vous résument les 5-6 sites qui paraissent pertinents.

La notion de “pertinence” dans ce cas étant un choix éditorial.

Navigation libre, synthèse et choix éditoriaux

Ce processus nouveau de recherche d’information ne correspond pas pas ma manière de faire quand je souhaite comprendre ou m’approprier un sujet.
Je navigue de source en source, de blog en blog, de média en média en suivant des hyperliens.
Je change de site.
Je recoupe les informations, je compile.
Je fais des choix éditoriaux : les miens.

Et ce n’est pas simplement une question de performance ou de rapidité.

Lorsque nous utilisons un chatbot, la sélection affichée suit des critères de pertinence inconnus de nous.
Elle est effectuée par le chatbot (Gemini, ChatGPT, Claude, Mistral) et correspond au résultat de choix éditoriaux d’autres personnes.
Celui des humains qui sont derrière ces logiciels et qui ne partagent pas forcément votre but de recherche.

A la manière de ce que fait déjà Google Search quand il détermine la priorité des sources dans les pages de résultat.
Sauf qu’un chatbot est une conversation, et l’utilisateur ne change jamais vraiment de site.
Tout l’incite à rester dans la conversation et à la continuer : le véhicule technique n’aide pas à la quête de diversité.
C’est d’ailleurs pour cela que beaucoup de chatbots enchainent sur une question systématiquement même quand la discussion paraît terminée.

Le leurre de la fluidité

L’utilisateur se prend au jeu car le robot semble “suit” ses desiderata de manière fluide.
A l’inverse d’un navigateur, l’utilisateur interagit avec un outil qui n’est pas techniquement neutre.
A l’inverse d’une recherche dans Google, dans un chatbot, il n’existe pas de page 27 de résultat de recherche que je pourrais explorer si je le souhaitais.

L’intermédiation des sources primaires effectuée de cette manière, à travers l’usage d’une application est une forme de privatisation de la porte d’entrée à Internet.

C’est une forme de plateformisation plus vaste mais déjà entamée dans d’autres domaines plus ciblés.

Certaines applications comme Facebook, Instagram, X/Twitter, LinkedIn s’étaient déjà imposées comme des passages obligés et monopolistiques dans des secteurs d’activité précis.

Partage de photo, rester en contact avec un groupe d’amis, communiquer sur un réseau professionnel sont des formes d’intermédiation avec des buts précis.

Mais avec l’intelligence artificielle générative, nous touchons à une dimension plus profonde.

Une plate-formisation et une privatisation généralisée de l'Internet.

Les plateformes et leurs éditeurs veulent toujours plus et comptent bien se placer en intermédiaires ultimes de notre navigation et de notre consommation de services et de ressources sur Internet.

En créant des portes d’entrées vers un monde qu’ils administreraient totalement et une chaîne de communication contrôlée de bout en bout : du producteur au consommateur.
Ou plutôt d’une abstraction de la production du producteur primaire au consommateur.

Des choix politiques en réalité qui sont déjà appliqués et visibles lorsque nous utilisons ces passe-plats “intelligents”.

Quand les dirigeants de xAI décident de ne pas bloquer la génération d’images révoltantes, sexistes, offensantes et dégradantes dans les fonctionnalités de Grok : c’est un choix éditorial.

Quand OpenAI décide de bloquer la génération de vidéos de Martin Luther King à la demande expresse des ayant droits : c’est un choix éditorial de filtrage.

L’étape d’après étant d’imposer des adaptations techniques du contenu publié.
Pour permettre aux robots IA de paver la voie à la nouvelle statégie de publication de contenu qu’ils veulent imposer.
Afin de satisfaire les nouveaux critères de “visibilité” sur ce qui deviendrait le portail unique d’accès : le leur.

“One-third of indie publishers could shut down by next year as AI search hits traffic”

https://uk.themedialeader.com/one-third-of-indie-publishers-could-shut-down-by-next-year-as-ai-search-hits-traffic/

Google a déjà commencé à faire intégrer du meta-contenu supplémentaire dans les sources primaires pour guider l’intelligence artificielle et satisfaire cette nouvelle forme de mini-portail qu’est “l’overview”.

https://developers.google.com/search/docs/appearance/ai-features

L'accès aux sources primaires va-t-il disparaître ?

La dérive ultime serait que l’ensemble de la planète n’utilise plus du tout l’internet ouvert par accès direct mais uniquement via des intermédiaires utilisant des technologies propriétaires.

C’est un peu comme si vous vous baladiez en permanence dans le monde extérieur en portant des lunettes de réalité augmentée qui vous le “restituent” et qu’ensuite vous n’ayez plus la possibilité de les enlever du tout.

Et que par conséquent, au bout d’un certain temps, les standards ouverts de jadis n’aient plus cours et deviennent caduques.
Et que nous devions adapter le contenu crée pour satisfaire les robots (et surtout les éditeurs humains qui les administrent) et non plus les humains directement.

Renoncer à la possibilité d’une communication libre “peer-to-peer”, documentée et open source en installant un cerbère aux règles opaques et changeantes au milieu.

Que les sources primaires ne soient plus accessibles directement autrement qu’à travers un aggrégateur.
Cet agrégateur ayant la main sur la diffusion du contenu, de son filtrage, de sa disponibilité.
Un média qui appliquerait une ligne éditoriale de la même manière des journaux actuels.

Installer l'IA dans les navigateurs : le hold-up ultime

C’est pour cette raison que la bataille à l’intelligence artificielle dans les navigateurs est une étape cruciale pour les sociétés avides de monopole.

Pour verrouiller complètement la porte d’entrée, ils essayent d’ores et déjá d’injecter une stratégie visant à redéfinir la sémantique de l’action de navigation sur internet.
En glissant un peu d’intelligence artificielle dans les navigateurs dans un premier temps.

Mais, en faisant cela, le doute s’installe déjà sur la neutralité de l’outil.
Neutralité qui était respectée depuis le milieu des années 1990.

Si, désormais, à chaque fois que je tape une adresse, un moteur IA travaille en tâche de fond, comment être certain que ce qui m’est affiché à l’écran n’a pas été altéré ?

Et comme cela petit à petit, faire passer toutes les requêtes des sources primaires par son système propriétaire et afficher du contenu toujours plus “remixé” à l’utilisateur.

Invisibiliser le contenu des sites tels qu’on les connaît et même l’accès aux sites eux-mêmes.
Faire disparaître la navigation et la réduire à l’accès à un portail.
Qui a besoin de taper une adresse et de tracer la source si “l’outil propose du bon contenu” ?

Cette chaîne d’actions reviendrait à terme à redessiner l’architecture technique des messages et des normes de transmission et de prodution de l’information d’Internet et en dicter de nouvelles.

Ce que faisait déjà plus ou moins Google avec la recherche mais en imposant d’autres couches d’intermédiations plus impactantes encore pour la société et les flux d’information.

Censure ou neutralité ?

Existe-t-il un risque de censure pour le futur ?

Oui et aussi pour le présent.
OpenAI a déjà publié un “navigateur” nommé “ChatGPT Atlas”

“AI gives us a rare moment to rethink what it means to use the web." ChatGPT can come with you anywhere across the web

https://openai.com/index/introducing-chatgpt-atlas/

Vraiment partout ? Curieusement, ce nouveau navigateur semble déjà appliquer une forme de censure sur les sources qui sont acceptables ou non pour la société qui l’édite.

“OpenAI’s Browser Avoids Large Part of the Web Like the Plague”

https://futurism.com/artificial-intelligence/openai-browser-avoids-web-lawsuit

Certaines sources primaires sont d’ores et déjà invisibilisées car ne satisfaisant pas les règles de contenu maison.

L’intermédiation par artificielle intelligence générative et la mainmise des géants de la technologie sur le contenu et sa diffusion : c’est l’anti-internet.

La fin de l'internet tel qu'on le connaît

Est-ce la fin du W3C, des standard ouverts, accessibles, libres et des sites tels qu’on les connaît ?

“AI means the end of internet search as we’ve known it”

https://www.technologyreview.com/2025/01/06/1108679/ai-generative-search-internet-breakthroughs/

Même article via une archive sans paywall.

https://archive.is/dXiSZ

L’arrivée de l’intelligence artificielle signifie-t-elle un retour au moyen âge ou aux temps de la communication cadenassée et filtrée de l’ORTF en France par exemple ?

Un temps où la chaîne de communication mondiale de la conception du contenu, à sa sélection, à sa diffusion via un canal unique était contrôlée par un nombre limité de personnes ?

Le slop envahit déjà nos écrans. Les deep fakes, les rumeurs sont amplifiées à une cadence effrénée, celle de la génération automatique de contenu synthétique qui ne prend que quelques secondes à générer.

L’inviolabilité des courriers de 1791 et la neutralité du réseau sont elles en train de disparaître ?

“Neutralité du réseau”

https://fr.wikipedia.org/wiki/Neutralit%C3%A9_du_r%C3%A9seau

Allons-nous troquer tout cela contre les promesses du projet StarGate d’OpenAI ?

“Announcing The Stargate Project”

https://openai.com/index/announcing-the-stargate-project/

Evolution ou régression ?

Allons-nous mettre à la poubelle des centenaires d’évolution des techniques de communication et les règles sanitaires (imparfaites certes) qui nous permettent de partager librement l’information de gré à gré aujourd’hui et de pouvoir, la plupart du temps, en contrôler son authenticité ?

Allons-nous, à partir de maintenant, systématiquement déléguer notre capacité de synthèse individuelle à un algorithme opaque distribué sur la planète entière ?

Enfin, n’est-il pas un problème de parler d’intelligence quand, en réalité, il s’agit d’interagir avec la dernière version d’un logiciel d’intermédiation qu’un marketing monopolistique incite fortement le monde entier à utiliser ?

Merci de m’avoir lu.

Published: 2026-01-17 07:00:00 +0000 UTC