L’intelligence artificielle générative s’invite désormais au cœur de nos recherches en ligne. Avec elle, une révolution silencieuse s’opère : celle de la disparition progressive du lien hypertexte comme porte d’entrée vers le web. Une mutation profonde qui menace l’architecture même d’internet.

Il fut un temps, pas si lointain, où taper une adresse dans la barre de navigation relevait d’un geste presque ritualisé. Trois lettres, un point, un nom : www.lemonde.fr, amazon.com, wikipedia.org. Le domaine était une destination, une adresse postale numérique que l’on mémorisait, que l’on partageait, que l’on inscrivait sur des cartes de visite. L’URL — pour Uniform Resource Locator — incarnait la promesse fondatrice du web : que chaque page, chaque ressource, chaque information possède un endroit précis dans l’espace numérique, un lieu que l’on peut localiser, vérifier, revisiter.
Cette géographie familière est aujourd’hui menacée. Pas par un virus, pas par une panne de serveur, mais par l’avènement de ce que Google appelle la Search Generative Experience, ou SGE — en français, l’expérience de recherche générative. Un outil qui, en synthétisant des milliers de sources pour produire une réponse immédiate, directe et encapsulée, rend progressivement superflue la visite du site d’origine. Le lien n’est plus une invitation au voyage. Il devient une note de bas de page.
La machine et l’IA répond à la place des sites sans url
Le déclin de l’URL : pourquoi la SGE tue la navigation par domaine. Depuis le déploiement progressif de la SGE par Google, d’abord aux États-Unis en 2023, puis dans plusieurs pays anglophones avant d’atteindre les marchés européens, le comportement des internautes a commencé à se transformer de manière mesurable. Là où un utilisateur cliquait autrefois sur trois ou quatre résultats pour trouver ce qu’il cherchait, il obtient désormais, en haut de la page, un encadré généré par l’intelligence artificielle qui lui livre l’essentiel en quelques lignes.
La mécanique est simple : l’utilisateur pose une question — “quelle est la meilleure solution pour devenir opérateur mobile ?” ou “comment fonctionne un eSIM ?” — et le moteur de recherche agrège, reformule, synthétise les contenus de dizaines de sources sans jamais avoir à les mentionner de manière explicite. Le résultat est indéniablement pratique. Il est aussi, pour les éditeurs de contenus et les entreprises qui ont bâti leur présence sur le référencement naturel, une forme de spoliation silencieuse.
Les chiffres commencent à parler. Plusieurs études menées par des cabinets spécialisés en mesure d’audience ont révélé une baisse du taux de clics organiques — ce que les professionnels appellent le CTR, pour Click Through Rate — atteignant dans certains secteurs entre 25 % et 40 % depuis l’activation généralisée des réponses génératives. Pour des secteurs comme la santé, le droit, les finances ou les télécommunications, où les requêtes sont souvent factuelles et précises, l’impact est particulièrement brutal.
La fin du “je vais sur le site”
Il y a dans ce changement quelque chose qui dépasse la simple statistique d’audience. C’est un rapport au savoir qui se reconfigure. Pendant trois décennies, internet a fonctionné sur un principe de médiation active : l’internaute cherche, identifie une source qu’il juge crédible, la visite, y navigue, y revient. Cette relation entre l’utilisateur et le producteur de contenu créait une forme d’écosystème. On allait “sur” un site comme on allait “dans” une librairie.
La SGE rompt cette médiation. Elle aspire le contenu à la source et le restitue transformé, homogénéisé, désindexé de son origine. Le site web, la marque éditoriale, le journal, la PME qui a consacré des années à construire une expertise visible sur Google — tout cela est absorbé dans une réponse sans visage. L’URL, autrefois chemin, devient fantôme.
“Ce que nous observons, c’est une désintermédiation brutale du web tel que nous le connaissons”, explique un consultant en stratégie numérique basé à Paris, spécialisé dans les marchés africains et européens des télécommunications. “Les entreprises qui ont investi massivement dans le SEO — le référencement naturel — se retrouvent dans une situation paradoxale : leurs contenus sont utilisés pour nourrir l’IA, mais leurs sites ne sont plus visités. C’est comme si un restaurant préparait les plats et qu’un livreur les distribuait en effaçant l’adresse de l’établissement.”
Google Gemini contre Google : le paradoxe du moteur dévorant
L’ironie n’échappe à personne dans le secteur du numérique. Google, qui a bâti son empire en indexant le web et en rémunérant indirectement les producteurs de contenu via le trafic organique, est aujourd’hui en train de détruire les fondements de cet équilibre. En proposant des réponses directes plutôt que des redirections, le moteur de recherche se transforme en terminal d’information, en encyclopédie augmentée, en oracle numérique.
Cette évolution n’est pas accidentelle. Elle répond à une pression concurrentielle féroce : l’émergence de ChatGPT, de Perplexity, de Copilot de Microsoft et de Gemini a profondément modifié les attentes des utilisateurs. Si un chatbot peut répondre directement à une question complexe, pourquoi continuer à utiliser un moteur de recherche qui oblige à visiter dix sites différents ? Google a donc choisi d’intégrer l’IA générative à son cœur pour ne pas perdre ses utilisateurs. Mais ce faisant, il scie la branche sur laquelle repose tout l’écosystème du web ouvert.
Les éditeurs de presse ont été les premiers à hausser le ton. En Europe, plusieurs organisations représentatives de la presse écrite ont alerté les autorités de régulation sur ce qu’elles considèrent comme une forme d’utilisation non consentie de leurs productions journalistiques. En France, l’Autorité de la concurrence a déjà condamné Google à plusieurs reprises pour des pratiques similaires liées aux droits voisins. La SGE ouvre un nouveau front dans cette bataille juridique qui pourrait redéfinir les rapports entre les plateformes et les producteurs de contenu.
L’URL comme actif immatériel : une valeur qui s’évapore
Pour les entreprises, la menace est double. D’abord, la perte de trafic direct sur les sites, avec les conséquences économiques que cela implique : baisse des ventes en ligne, diminution des demandes de contact, effondrement des conversions. Ensuite, et c’est peut-être plus grave sur le long terme, l’érosion de la notoriété de marque qui passe par la reconnaissance du nom de domaine.
Une URL n’est pas qu’une adresse technique. C’est un signal de confiance. Quand un internaute tape “bisatel.com” ou voit apparaître ce nom dans une réponse Google, il effectue inconsciemment une validation : ce site existe, cette entreprise est réelle, cette source a été jugée pertinente par le moteur de recherche. La SGE court-circuite ce mécanisme de validation. Elle absorbe l’information sans nécessairement citer la source, ou en la citant de manière si discrète que l’utilisateur ne la remarque pas.
Dans le secteur des télécommunications, par exemple, où les MVNO — les opérateurs mobiles virtuels — et les fournisseurs de solutions eSIM construisent leur légitimité sur des contenus techniques et éducatifs, le problème est particulièrement aigu. Un opérateur qui a passé des mois à rédiger des guides complets sur la connectivité internationale, sur les avantages des cartes SIM virtuelles pour les marchés africains ou asiatiques, peut se voir déposséder de la visibilité de ce travail éditorial au bénéfice d’une synthèse algorithmique qui ne mentionnera jamais son nom.
Vers une nouvelle architecture de la présence en ligne pour votre SEO organique
Face à ce bouleversement, les stratèges du numérique cherchent des réponses. Certains prônent le repli vers des espaces que l’IA ne peut pas encore pleinement coloniser : les newsletters à abonnement, les communautés fermées, les podcasts, les vidéos longues sur YouTube ou les réseaux sociaux propriétaires. D’autres misent sur une adaptation des stratégies SEO vers ce qu’on appelle désormais le GEO — pour Generative Engine Optimization — qui vise non plus à placer un site en tête des résultats, mais à s’assurer que les réponses générées par l’IA citent bien vos contenus comme sources.
Cette nouvelle discipline émerge rapidement. Elle repose sur des principes différents du référencement traditionnel : il ne s’agit plus seulement de placer des mots-clés ou d’obtenir des backlinks. Il faut désormais produire des contenus qui répondent de manière structurée, précise et sourcée à des questions que l’IA est susceptible de poser à vos données. Il faut être cité, pas seulement indexé. Être la référence que le modèle choisit, pas seulement la page que le moteur affiche.
Pour certains opérateurs de télécommunications et fournisseurs de services B2B, cette mutation représente aussi une opportunité. Les entreprises capables de produire des contenus très techniques, très spécialisés, que les grands modèles de langage ne peuvent pas facilement synthétiser à partir de sources génériques, conservent un avantage compétitif. L’expertise rare, la donnée propriétaire, le cas d’usage précis restent des actifs que l’IA ne peut pas inventer.
Le web ouvert face à son propre successeur
La question qui se pose, en filigrane, est celle de l’avenir du web ouvert lui-même. Tim Berners-Lee, l’inventeur du World Wide Web, a toujours défendu un principe fondamental : l’information doit rester liée à sa source. L’hyperlien, cette invention apparemment anodine, était le garant de la traçabilité intellectuelle, de la citation, de la responsabilité éditoriale. Un article de journal renvoie vers ses sources. Un site gouvernemental pointe vers ses textes réglementaires. Une entreprise est identifiable à son domaine.
L’IA générative, dans sa forme actuelle, brise ce principe. Elle produit des synthèses décontextualisées, des réponses sans généalogie vérifiable. Et si la SGE prend soin, dans certains cas, d’afficher des petites icônes de sources en marge de ses réponses, la réalité des comportements utilisateurs montre que ces références sont rarement consultées. La réponse est lue. Les sources sont ignorées.
C’est une transformation philosophique autant que technique. Le web était une bibliothèque où chaque livre avait sa place, son auteur, son éditeur. La SGE le transforme en un oracle qui parle mais ne cite pas, qui sait mais n’explique pas d’où vient son savoir. Ce faisant, elle fragilise non seulement l’économie du contenu, mais aussi la culture de la vérification et du sourçage qui est au cœur du journalisme et de la production de savoir.
Réguler l’IA ou réinventer le lien ?
Les régulateurs européens, qui ont démontré avec le RGPD et le Digital Markets Act leur volonté de mettre des garde-fous aux pratiques des grandes plateformes numériques, observent avec attention cette évolution. Plusieurs parlementaires et commissaires ont évoqué la nécessité d’encadrer l’utilisation des contenus web par les systèmes d’IA générative, notamment en exigeant une transparence accrue sur les sources et une forme de rémunération des producteurs de contenu.
Des initiatives émergent également du côté des éditeurs. Plusieurs grands groupes de médias ont déjà signé des accords avec OpenAI ou Google pour monétiser l’utilisation de leurs archives dans les modèles d’entraînement. Mais ces accords ne règlent pas la question fondamentale : comment garantir que la visite d’un site, l’acte de navigation par domaine, reste un comportement naturel pour l’utilisateur ?
La réponse sera peut-être technique. Certains développeurs imaginent un protocole de citation obligatoire intégré aux modèles d’IA, une sorte de Creative Commons du numérique générative qui forcerait la traçabilité des sources. D’autres misent sur des navigateurs enrichis d’IA qui, au lieu de remplacer la visite de site, l’augmenteraient en la contextualisant. L’URL survivrait, mais transformée — non plus simple adresse, mais nœud d’un réseau d’informations que l’IA aiderait à traverser plutôt qu’à contourner.
La navigation par domaine, bientôt nostalgie ?
Il serait prématuré de prononcer l’acte de décès de l’URL. Des milliards de personnes continuent chaque jour à taper des adresses web, à sauvegarder des favoris, à partager des liens. La navigation par domaine reste, pour l’instant, le mode dominant d’accès à l’information en ligne. Mais la direction est tracée, et elle est univoque.
La SGE n’est que la première vague d’une transformation plus profonde. Demain, les interfaces vocales, les agents autonomes capables de naviguer seuls sur le web au nom de l’utilisateur, les assistants personnels intégrés aux systèmes d’exploitation vont continuer à éroder la nécessité du clic. L’utilisateur exprimera un besoin ; la machine le satisfera sans jamais lui montrer le chemin parcouru.
Dans ce monde, le domaine web ne disparaît pas — il se dématérialise. Il devient une infrastructure invisible, comme l’est aujourd’hui le protocole IP dont personne ne connaît le fonctionnement mais dont tout le monde dépend. Les entreprises devront réapprendre à exister autrement que par leur présence visible dans un moteur de recherche. Et les professionnels du contenu devront réinventer leur métier pour une époque où l’information circule sans étiquette, où la signature éditoriale s’efface dans la fluidité de la synthèse algorithmique.
La question n’est plus de savoir si cette révolution aura lieu. Elle est déjà en cours. La vraie question est de savoir qui en écrira les règles — et si ces règles préserveront, au moins en partie, l’idée que derrière chaque information se trouve un auteur, une source, un domaine, une responsabilité.
La SGE de Google est actuellement déployée en version expérimentale dans plusieurs pays, sous l’appellation “AI Overviews”. Son déploiement généralisé en Europe est encadré par les obligations du Digital Markets Act, qui impose à Google des règles de transparence algorithmique renforcées.








