Depuis un peu plus d’une vingtaine d’années, nous avons pris l’habitude de taper des mots clés dans un moteur de recherche. Plus un contenu est mentionné par d’autres sites, notamment des sites à forte notoriété, plus il a de chance de remonter dans les résultats de recherche.
L’enjeu est tellement stratégique dans notre monde connecté que savoir positionner un site Internet dans les premiers résultats de Google est devenu une science que les professionnels du marketing nomment SEO (pour Search Engine Optimisation).
Mais la manière dont nous cherchons et trouvons l’information pourrait radicalement évoluer. Les agents conversationnels boostés à l’IA pourraient sonner la fin de la recherche Internet telle que nous la connaissons. Fini les laborieuses combinaisons de mots clés pour trouver des éléments de réponses, il nous suffit maintenant d’écrire de la façon la plus naturelle possible notre question, comme si nous discutions avec un ami. Et qui nous répondrait de la même manière, avec une réponse claire et structurée. « Cher ChatGPT, je pars une semaine au Japon le mois prochain et je souhaite connaitre les festivales de musique qui auront lieu dans la région de Tokyo? » Vous obtenez alors une réponse complète, et non plus une série de liens web vous renvoyant vers Trip Advisor ou d’autres blogs de voyages ou de musique électro.
Ces réponses instantanées et personnalisées constituent une véritable révolution dans nos usages Internet. Et nous voyons se développer, sous nos yeux, le très probable futur de la recherche en ligne.
Mais cela n’est pas sans soulever quelques interrogations, voir des inquiétudes...
Et en premier lieu, les médias et éditeurs qui produisent de l’information et du contenu et dont la survie dépend largement du trafic que leur renvoie Google. Leur modèle économique basé sur la publicité a déjà été fragilisé par les grands acteurs du numérique. Google et Facebook en l’occurrence, qui captent à eux deux plus des deux tiers des revenus de la publicité en ligne. Si maintenant, les réponses des Internautes sont directement fournies par les IA conversationnelles, les éditeurs ne pourront plus monétiser leur contenu. Les utilisateurs n’auront plus besoin de cliquer sur des liens pour voir la source de l’information. Échec et mat pour les derniers gardiens de l’information.
Deuxième inquiétude, la véracité des réponses proposées par ces mêmes agents conversationnels. Certaines études montrent que ChatGPT d’Open AI, Gemini de Google, Claude d’Anthropic ou encore Perplexity proposent très souvent des réponses fausses. Dans plus d’un 1/3 des cas. On parle d’hallucination, propos d’anthropomorphique qui traduit l’une des plus grosses faiblesses actuelles des modèles d’IA : Lorsqu’il ne connait pas la réponse, l’outil vous en fournira une quand même, souvent convaincante. Les IA se nourrissent des contenus disponibles sur le web. Aussi bien du contenu vérifié comme les données encyclopédiques, des faits historiques difficilement questionnables, que diverses théories du complot très largement diffusés sur Internet. Ou bien des contenus volontairement dégradés visant à manipuler les opinions. Le web en est rempli. Bienvenue dans un monde de post-vérité.
Troisième inquiétude, la sécurité des données. En effet, les cybercriminels ne sont pas en reste. La semaine dernière, Google mettait en garde ses internautes. En effet, ses résultats de recherche étant actuellement envahis par des sites web malveillants faisant la promotion de VPN populaires mais infestés du malware Playfulghost (on parle alors d’empoisonnement SEO).
Quatrième et dernière inquiétude, mais non des moindres : les assistants IA vont-ils nous rendre stupides ? Déléguer de plus en plus de nos tâches cognitives à la technologie pourrait-il impacter notre cerveau ? De nombreuses recherches ont tenté d’y voir plus clair. Déjà en 2008, le journaliste Nicolas Carr s’intéressait dans son article « Is Google Making us Stipid ? » à l’impact d’Internet sur sa mémoire et son attention et invitait à réfléchir à l’influence des technologies dans notre quotidien. En 2011, trois chercheurs, Sparrow, Liu et Wegner avaient démontré que confrontés à des questions difficiles, nous privilégions avant tout l’ordinateur pour trouver les solutions et cela diminuait d’autant notre capacité de mémorisation. Enfin, en 2024, des recherches menées par Léon-Dominguez et son équipe ont mis en évidence un mécanisme de délestage cognitif. En déléguant à l’assistant virtuel les fonctions cérébrales les plus consommatrices de ressources, nous pourrions réduire sur le long terme notre capacité à effectuer des analyses rigoureuses.
EN 1994, Yahoo structurait le web en catégorisant les sites Internet à l’aide de répertoires.
En 1998, Google révolutionnait la recherche en organisant le contenu par pertinence et par réputation.
Puis les résultats de recherche se sont enrichis, de contenu multimédia, de cartes interactives, de tweets, de vidéos, d’actualité et de résultats sportifs en direct.
En 2025, avec les assistants IA, il est possible de poser des questions bien plus complexes et d’avoir des réponses en langage naturel plus faciles à interpréter.
On assiste ainsi à une transformation de l’écosystème de la recherche Internet. En passant d’un moteur de recherche à un moteur de réponse, Google marche sur des œufs. Il doit en effet suivre le rythme des innovations imposés par ses concurrents, ChaptGPT en tête, sans trop perturber son modèle économique basé la vente d’espaces publicitaires. Après la science du SEO, allons-nous voir émerger celle du REO (Response Engine Optimisation) ?
Pour nous, les utilisateurs de ces moteurs de réponses, ces nouveaux usages constituent également une révolution. Cependant, pour éviter les risques de délestage cognitif et de manipulation, il parait plus que jamais nécessaire d’utiliser ces outils avec précaution. Tirer avantage de la puissance de ces outils, oui, mais en conservant tout son potentiel cognitif et son libre arbitre. En 2025, conserver un esprit critique aiguisé et prendre du recul sur son usage de la technologie sera plus que jamais décisif.
Merci à tous, et à très vite pour un prochain épisode de la Tech à l’Envers.