Le 20 mars 2026, Google a ajouté un nouveau user agent à sa documentation officielle : Google-Agent. Derrière ce nom, une révolution silencieuse : les agents IA de Google — comme Project Mariner — naviguent désormais le web à la place de vos visiteurs. Ils cliquent, remplissent des formulaires, comparent des produits et achètent — avec leur propre identité officielle. Et ils ignorent votre robots.txt.
Ce que Google a annoncé
Le 20 mars 2026, Google a mis à jour sa documentation sur l'infrastructure de crawling pour ajouter Google-Agent à la liste des "user-triggered fetchers" — les outils qui accèdent au web quand un utilisateur déclenche une action.
Voici ce que la documentation précise :
- Google-Agent est un user agent pour les agents IA hébergés sur l'infrastructure Google qui naviguent le web et effectuent des actions au nom des utilisateurs.
- Il est associé à des projets comme Project Mariner — l'agent IA de Google DeepMind qui navigue le web de manière autonome.
- Le déploiement se fait progressivement sur les prochaines semaines — vous pouvez déjà le voir dans vos logs serveur.
- Google publie un fichier d'IP dédié (
user-triggered-agents.json) pour identifier ce trafic. - Google expérimente aussi le protocole web-bot-auth avec l'identité
https://agent.bot.googpour authentifier ses agents.
Project Mariner : l'IA qui navigue à votre place
Pour comprendre Google-Agent, il faut comprendre Project Mariner — le produit principal qui l'utilise.
Project Mariner est un agent IA développé par Google DeepMind, propulsé par Gemini 2.0. Concrètement, c'est une IA capable de naviguer sur n'importe quel site web comme un humain : elle lit le contenu, clique sur des boutons, remplit des formulaires, fait défiler les pages, compare des produits — le tout de manière autonome, au nom d'un utilisateur.
Un utilisateur peut par exemple demander : "Trouve-moi un hôtel à Biarritz pour le week-end prochain, 2 adultes, avec piscine, moins de 150€ la nuit." Project Mariner va alors naviguer sur les sites de réservation, appliquer les filtres, comparer les options, et présenter les meilleurs résultats — sans que l'utilisateur n'ait touché un seul site.
Project Mariner est actuellement disponible aux États-Unis pour les abonnés Google AI Ultra (249,99 $/mois) et les développeurs via l'API Gemini. Google a annoncé son intégration future dans AI Mode dans Search et dans l'app Gemini.
Le point essentiel pour le SEO : quand Project Mariner visite votre site, il s'identifie comme Google-Agent. C'est un nouveau type de visiteur — ni humain, ni crawler d'indexation — une IA qui interagit avec votre site pour accomplir une tâche.
Google-Agent vs Googlebot vs Google-Extended : le guide
L'écosystème des bots Google est de plus en plus complexe. Voici comment les différencier.
| User agent | Rôle | Type | Respecte robots.txt |
|---|---|---|---|
| Googlebot | Crawler principal pour l'index Google Search | Crawler autonome | Oui |
| Google-Extended | Crawler pour alimenter les modèles IA (Gemini) | Crawler autonome | Oui |
| GoogleOther | Crawls R&D, non liés au Search | Crawler autonome | Oui |
| Google-Agent (nouveau) | Agents IA qui naviguent le web pour l'utilisateur | Fetcher déclenché par l'utilisateur | Non |
| GPTBot (OpenAI) | Crawler ChatGPT pour le search et l'entraînement | Crawler autonome | Oui |
La distinction clé : Googlebot crawle pour indexer. Google-Extended crawle pour entraîner les modèles IA. Google-Agent navigue pour agir. Il ne construit pas un index — il exécute une tâche pour un utilisateur spécifique, en temps réel.
Et contrairement aux crawlers classiques, Google-Agent partage l'infrastructure de crawling de Google mais opère dans la catégorie des "user-triggered fetchers". Un podcast de l'équipe Google Search Relations (12 mars 2026) a clarifié que Googlebot n'est pas un programme autonome mais un nom utilisé par une équipe au sein d'une infrastructure de crawling partagée — la même infrastructure qui sert désormais NotebookLM, Gemini, AdSense, Shopping, et les agents IA.
Le problème robots.txt
C'est le point qui va faire débat dans la communauté SEO : Google-Agent ne respecte pas robots.txt.
En tant que "user-triggered fetcher", il est dans la même catégorie que le fetcher Google Messages (qui génère des aperçus de liens). Les fetchers déclenchés par l'utilisateur sont explicitement exemptés des règles robots.txt dans la documentation Google — la logique étant qu'ils agissent au nom d'un utilisateur humain, pas de manière autonome.
Googlebot, Google-Extended, ou GPTBot dans votre robots.txt, Google-Agent peut quand même accéder à votre site. Vos règles de blocage actuelles ne s'appliquent pas à cette catégorie de fetcher. C'est une zone grise fondamentale : si le contenu est restreint pour les crawlers autonomes mais accessible aux fetchers utilisateur, où se situe la limite quand l'utilisateur est une IA ?
Cette question est d'autant plus pertinente que Project Mariner peut naviguer sur n'importe quel site, lire le contenu, interagir avec les formulaires et extraire des informations — le tout sans être soumis aux restrictions robots.txt que vous avez mises en place.
web-bot-auth : vers une authentification des bots IA
Google semble conscient du problème. La documentation mentionne une expérimentation avec le protocole web-bot-auth, utilisant l'identité https://agent.bot.goog.
Ce protocole vise à permettre aux agents IA de s'authentifier auprès des sites web — une sorte de "carte d'identité" vérifiable pour les bots. L'idée : les propriétaires de sites pourraient vérifier que le bot qui visite leur site est bien un agent Google légitime, et potentiellement appliquer des règles d'accès spécifiques.
Mais à ce jour (mars 2026), aucun mécanisme de contrôle n'est disponible pour les webmasters. web-bot-auth est au stade expérimental, sans documentation d'implémentation côté site. C'est un signal que Google travaille sur le sujet — mais pour l'instant, vous n'avez pas de levier pour contrôler l'accès de Google-Agent à votre site.
Ce que ça change pour le SEO
Google-Agent annonce un changement fondamental dans la nature des visiteurs de votre site. Jusqu'ici, vous optimisiez pour deux types de visiteurs : les humains (UX) et les crawlers (SEO technique). Désormais, un troisième type émerge : les agents IA qui interagissent avec votre site comme des humains, mais avec des capacités machines.
Ce que les agents IA font sur votre site
Contrairement à un crawler qui lit et indexe, un agent IA comme Project Mariner utilise votre site. Il clique sur les boutons, navigue dans vos menus, remplit vos formulaires de contact, compare vos prix, lit vos avis — exactement comme un visiteur humain, mais en quelques secondes. Et il rapporte ses conclusions à l'utilisateur qui l'a envoyé.
Les implications concrètes
- HTML sémantique : un agent IA comprend mieux un site avec un HTML propre et sémantique. Des boutons avec des labels clairs, des formulaires bien structurés, une navigation logique — ce qui est bon pour l'accessibilité est bon pour les agents IA.
- Données structurées : le schema JSON-LD aide les agents à comprendre ce que votre site propose. Product, LocalBusiness, Organization, FAQPage — chaque type de schema est un signal que l'agent peut exploiter pour accomplir sa tâche.
- Performance : un agent IA peut naviguer sur 10 sites en parallèle pour comparer. Le site le plus rapide et le plus lisible sera celui dont il extraira le plus d'informations.
- Formulaires accessibles : si votre formulaire de contact est un captcha illisible ou un design custom sans labels, l'agent IA ne pourra pas l'utiliser — et recommandera un concurrent.
- Contenu clair et direct : les agents IA ne lisent pas votre prose marketing. Ils extraient des faits : prix, disponibilité, localisation, services, horaires. Plus votre contenu est structuré et factuel, plus il est exploitable par un agent.
Comment préparer votre site
1. Vérifier vos logs serveur
- Cherchez le user agent
Google-Agentdans vos logs. Le déploiement est en cours — vous pourriez déjà le voir. - Croisez les IPs avec le fichier
user-triggered-agents.jsonpublié par Google pour vérifier l'authenticité. - Mesurez le volume et la fréquence : ça vous donnera une idée de la pénétration des agents IA sur votre site.
2. Auditer l'accessibilité machine de votre site
- Navigation : vos menus sont-ils en HTML natif (pas uniquement en JS) ? L'agent peut-il naviguer d'une page à l'autre sans JavaScript complexe ?
- Formulaires : vos champs ont-ils des labels
<label>associés ? Vos boutons de soumission sont-ils identifiables ? - Contenu structuré : vos prix, horaires, services sont-ils dans le HTML ou cachés dans des images et des PDFs ?
- Schema JSON-LD : implémentez au minimum Organization/LocalBusiness, Product (si e-commerce), FAQPage, et Article.
3. Penser "agent-first" pour les nouvelles pages
Pour chaque nouvelle page, posez-vous la question : si un agent IA visite cette page pour accomplir une tâche au nom d'un utilisateur, trouvera-t-il facilement l'information dont il a besoin ? Les prix sont-ils visibles dans le HTML ? Les services sont-ils listés clairement ? Le formulaire de contact est-il simple à remplir programmatiquement ?
4. Surveiller l'évolution de web-bot-auth
Quand Google publiera les spécifications d'implémentation côté site pour web-bot-auth, vous aurez un levier pour contrôler l'accès des agents IA. Surveillez les mises à jour de la documentation Google et les annonces de la communauté SEO.
Votre site est-il prêt pour les agents IA ?
Mon audit technique intègre désormais l'analyse de l'accessibilité machine : HTML sémantique, données structurées, formulaires, et compatibilité avec les agents IA.
Demander un audit technique →Questions fréquentes
Pour aller plus loin
- Googlebot : comprendre l'infrastructure de crawl Google — La base : comment Googlebot fonctionne et partage son infrastructure avec les nouveaux agents.
- Comment Google parse le HTML pour le SEO — Les fondamentaux de la structuration HTML que les agents IA exploitent aussi.
- Google UCP : acheter dans AI Mode sans visiter votre site — L'autre face du commerce agentique : le checkout directement dans l'IA.
- AEO : comment être cité par ChatGPT et Google AI — Optimiser votre contenu pour l'ensemble de l'écosystème IA.
- Stratégie SEO — Intégrer les agents IA dans votre vision SEO globale.