Google-Agent: Googles neuer User Agent für KI-Agenten – was dahinter steckt

Google-Agent: Neuer User Agent für KI-Agenten erklärt

⚡️ TL;DR

Neuer User Agent: Google hat „Google-Agent“ als neuen User-Triggered Fetcher in die offizielle Crawler-Dokumentation aufgenommen – er wird von KI-Agenten wie Project Mariner genutzt.

Kryptographische Identität: Google experimentiert erstmals mit dem Web-Bot-Auth-Protokoll (IETF-Entwurf) und nutzt dafür die Identität https://agent.bot.goog – ein Meilenstein für die Bot-Verifizierung.

Deutschland-Relevanz: Project Mariner ist derzeit nur in den USA verfügbar. Akuter Handlungsbedarf besteht für deutsche Websites noch nicht – aber der User Agent ist global dokumentiert und der Europa-Rollout absehbar.

Wer in den letzten Monaten die Google-Crawler-Dokumentation beobachtet hat, kennt das Muster: Alle paar Wochen taucht ein neuer User Agent auf – Google-Pinpoint hier, Google-CWS da, Google-NotebookLM dort. Meistens Feintuning, meistens für Nischenprodukte.

Doch was Google jetzt angekündigt hat, hat eine andere Tragweite: Der neue Google-Agent User Agent ist der erste offizielle Identifikator für KI-gesteuerte Agenten, die im Auftrag von Nutzern eigenständig im Web navigieren und Aktionen ausführen. Und er kommt mit einem kryptographischen Ausweis – einem neuen IETF-Standard zur Bot-Verifizierung.

Aber bevor wir ins Detail gehen: Eine ehrliche Einordnung, was das für dich als deutschsprachigen Website-Betreiber aktuell bedeutet – und was eben noch nicht.

Betrifft das auch Deutschland?

Kurze Antwort: Noch nicht direkt. Und ich will dir keinen unnötigen Aktionismus verkaufen.

Project Mariner – der KI-Agent, der den Google-Agent User Agent nutzt – ist derzeit ausschließlich in den USA verfügbar, und das auch nur für Abonnenten des Google AI Ultra Plans ($249,99/Monat). Europäische Nutzer, auch in Deutschland, haben aktuell keinen Zugang. Google hat zwar angekündigt, weitere Länder folgen zu lassen, aber keinen konkreten Zeitplan genannt.

Das heißt im Klartext: Der Google-Agent-Traffic auf einer typischen .de-Domain wird anfangs nahe Null sein. Keine Panik, kein akuter Handlungsbedarf.

Warum du es trotzdem auf dem Schirm haben solltest

Vier Gründe, warum die Meldung trotzdem für den DACH-Raum relevant ist:

1. Der User Agent ist global dokumentiert. Google hat ihn nicht als US-Feature in die Doku aufgenommen, sondern in die allgemeine Crawler-Infrastruktur. Das Signal: Dies wird ein weltweiter Standard, kein regionales Experiment.

2. Die Gemini API ist für Entwickler weltweit verfügbar. Google bringt die Mariner-Fähigkeiten in die Gemini API und Vertex AI. Damit können Entwickler – auch in Deutschland – eigene Agenten bauen, die denselben User Agent nutzen. Der Traffic wird also nicht nur von Mariner kommen.

3. Google rollt Features erfahrungsgemäß schnell nach Europa aus. AI Mode expandierte von den USA auf 180+ Länder. AI Overviews kamen wenige Monate nach dem US-Start nach Deutschland. Bei Project Mariner dürfte ein ähnlicher Zeitplan realistisch sein.

4. Web Bot Auth ist ein branchenweites Thema. Der kryptographische Verifizierungsstandard, den Google hier adoptiert, wird von Cloudflare, Akamai, Amazon und anderen Anbietern vorangetrieben – unabhängig von Mariner. Wenn du eine WAF nutzt, wirst du damit früher oder später in Berührung kommen.

Nach meiner Einschätzung: Dies ist ein Artikel zum Einordnen und Verstehen, nicht zum hektischen Umbauen deiner Server-Konfiguration. Aber wer die Entwicklung jetzt versteht, ist vorbereitet, wenn der Rollout Europa erreicht – und das wird er.

Was ist der Google-Agent User Agent?

Google hat den neuen User Agent Google-Agent zur Liste der User-Triggered Fetchers hinzugefügt. Laut der offiziellen Dokumentation wird er „von Agenten auf Google-Infrastruktur genutzt, um das Web zu navigieren und Aktionen auf Nutzeranfrage auszuführen“ – zum Beispiel durch Project Mariner.

Screenshot der Google-Dokumentation: Google-Agent User Agent mit Mobile- und Desktop-User-Agent-Strings sowie der Notiz zum Web-Bot-Auth-Protokoll

Screenshot der Google-Dokumentation: Google-Agent User Agent mit Mobile- und Desktop-User-Agent-Strings sowie der Notiz zum Web-Bot-Auth-Protokoll

Die technischen Eckdaten

Drei Dinge unterscheiden Google-Agent fundamental von bisherigen Google-Crawlern:

EigenschaftGooglebot / GoogleOtherGoogle-Agent (neu)
KategorieCommon CrawlerUser-Triggered Fetcher (mit eigener IP-Range-Datei)
AuslöserAutomatisch (Crawl-Schedule)Nutzeranfrage (z. B. „Buche mir ein Hotel“)
IP-Rangescommon-crawlers.jsonuser-triggered-agents.json (neue, eigene Datei)
IdentifikationUser-Agent-String + Reverse DNSUser-Agent-String + Web Bot Auth (kryptographisch, experimentell)
VerhaltenSeiten crawlen und indexierenNavigieren, klicken, Formulare ausfüllen, Aktionen ausführen

Formal ist Google-Agent unter den User-Triggered Fetchers gelistet – zusammen mit Feedfetcher, Google-NotebookLM und Co. Was ihn jedoch von allen bisherigen Fetchers unterscheidet: Er nutzt eine eigene, neue IP-Range-Datei namens user-triggered-agents.json, getrennt von den bestehenden user-triggered-fetchers.json und user-triggered-fetchers-google.json

Die offiziellen User-Agent-Strings

Google-Agent kommt mit einem Desktop- und einem Mobile-String, die beide den bekannten Googlebot-Aufbau nutzen, aber klar als „Google-Agent“ identifizierbar sind:

Mobile:
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/W.X.Y.Z Mobile Safari/537.36 (compatible; Google-Agent; +https://developers.google.com/crawling/docs/crawlers-fetchers/google-agent)

Desktop:
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Google-Agent; +https://developers.google.com/crawling/docs/crawlers-fetchers/google-agent) Chrome/W.X.Y.Z Safari/537.36

Dabei steht W.X.Y.Z wie bei Googlebot als Platzhalter für die jeweils aktuelle Chrome-Version.

Tipp: Google sagt, der Rollout erfolgt „über die nächsten Wochen“. Das heißt: Du hast jetzt Zeit, deine Logfiles und Server-Konfiguration vorzubereiten, bevor der Traffic ankommt.

Der Kontext: Project Mariner und Agentic Browsing

Um zu verstehen, warum dieser User Agent so bedeutsam ist, musst du Project Mariner kennen. Googles KI-Agent wurde auf der Google I/O 2025 vorgestellt und ist seitdem für AI-Ultra-Abonnenten in den USA verfügbar (mehr zur geografischen Einordnung oben). Mariner basiert auf Gemini 2.0 und kann eigenständig im Web navigieren – Websites öffnen, Formulare ausfüllen, Preise vergleichen, Buchungen vorbereiten.

Was Project Mariner konkret macht

Mariner arbeitet nach dem „Observe–Plan–Act“-Prinzip: Es analysiert den Bildschirminhalt, plant eine Reihe von Schritten und führt sie aus – immer unter Nutzerkontrolle. Seit dem I/O-Update läuft Mariner in Cloud-VMs und kann bis zu zehn Aufgaben parallel bearbeiten. Typische Anwendungsfälle sind Jobsuche, Reisebuchungen, Preisvergleiche und Einkäufe.

Das Problem bisher: Mariner nutzte keinen eigenen User-Agent-String. Der Agent steuerte eine reguläre Chrome-Instanz und war in Server-Logs praktisch nicht von einem normalen Nutzer zu unterscheiden. Genau das ändert sich jetzt mit dem Google-Agent User Agent.

Für SEOs und Website-Betreiber ist das ein wichtiges Signal: Google macht den Agentic Traffic erstmals sichtbar und identifizierbar. Das ist ein fundamentaler Unterschied zu anderen AI-Browsern wie OpenAIs Operator oder Anthropics Claude-in-Chrome, die sich bisher nicht gesondert ausweisen. Mehr dazu, wie Google seine Crawler-Infrastruktur insgesamt aufgebaut hat, findest du in meinem Artikel über Crawling und Indexierung bei Google.

Web Bot Auth: Die Zukunft der Bot-Identifikation

Die vielleicht spannendste Information in der Ankündigung ist fast nebenbei gefallen: Google experimentiert mit dem Web-Bot-Auth-Protokoll und nutzt dafür die Identität https://agent.bot.goog.

Was ist Web Bot Auth?

Web Bot Auth ist ein IETF-Standard-Entwurf (Draft), der eine kryptographische Verifizierung von Bots und Agenten ermöglicht. Statt sich nur auf einen leicht fälschbaren User-Agent-String zu verlassen, signiert der Agent seine HTTP-Anfragen mit einem privaten Schlüssel. Der Server kann die Signatur anhand des öffentlichen Schlüssels verifizieren. Große Anbieter wie Cloudflare unterstützen das Protokoll bereits in ihren WAF-Produkten.

Vereinfacht erklärt: Web Bot Auth ist wie ein digitaler Reisepass für Bots. Jeder Agent hat ein Schlüsselpaar (privat + öffentlich), veröffentlicht seinen öffentlichen Schlüssel in einem Verzeichnis und signiert jede Anfrage kryptographisch. Die Website kann die Signatur prüfen und weiß mit Sicherheit, dass der Agent wirklich der ist, der er behauptet zu sein.

Warum das für die gesamte Branche wichtig ist

Dass Google diesen Standard adoptiert, ist ein starkes Signal. Bisher unterstützen bereits Akamai, Cloudflare, Amazon (AgentCore Browser), Stytch und andere Anbieter Web Bot Auth. Aber Google als mit Abstand größter Crawler-Betreiber bringt die nötige kritische Masse.

Das löst ein konkretes Problem: Bisher konnte jeder Bot behaupten, Googlebot zu sein – die einzige Verifizierungsmethode war ein umständlicher Reverse-DNS-Lookup. Mit Web Bot Auth wird die Identität kryptographisch gesichert und in Echtzeit prüfbar. Für die Einordnung, wie Google seine KI-Ranking-Systeme generell weiterentwickelt, ist diese Entwicklung ein weiterer Baustein.

Wichtig: Google „experimentiert“ laut eigener Aussage mit Web Bot Auth. Es ist noch kein finaler Standard und die Implementierung kann sich ändern. Aber die Richtung ist klar – und andere große Player (Amazon, Cloudflare, OpenAI) ziehen bereits mit.

Deine Checkliste: Wenn der Rollout kommt

Kein akuter Handlungsbedarf für deutsche Websites – aber diese Punkte solltest du kennen und vorbereiten, sobald Google-Agent-Traffic in Europa ankommt:

ThemaWas du wissen musstAktion
Logfile-AnalyseGoogle-Agent taucht mit eigenem UA-String in den Logs auf, getrennte IP-Ranges aus user-triggered-agents.json„Google-Agent“ als neuen Bot-Typ in deinem Log-Analyse-Tool anlegen
robots.txtUser-Triggered Fetchers ignorieren laut Google-Doku generell die robots.txt – das gilt auch für Google-AgentKein Handlungsbedarf, aber gut zu wissen: Du kannst Google-Agent nicht per robots.txt blockieren
WAF / Bot-ProtectionAggressive Anti-Bot-Maßnahmen (CAPTCHAs, JavaScript-Challenges) können Google-Agent blockieren – und damit den Nutzer frustrieren, der eine Aufgabe delegiert hatWAF-Regeln prüfen und sicherstellen, dass Google-Agent nicht fälschlicherweise geblockt wird
Strukturierte DatenKI-Agenten nutzen Produktdaten, Preise und Verfügbarkeiten, um Aufgaben für Nutzer auszuführen (Preisvergleiche, Buchungen, Einkäufe)Schema-Markup für Produkte, Öffnungszeiten und Preise überprüfen – wird zum Wettbewerbsfaktor im Agentic Commerce
Web Bot AuthGoogle experimentiert mit kryptographischer Bot-Verifizierung (IETF-Entwurf). Cloudflare, Akamai und AWS unterstützen das Protokoll bereits in ihren WAFsBeobachten – wenn du eine WAF nutzt, wird dein Provider das voraussichtlich bald automatisch unterstützen
Team informierenGoogle-Agent ist eine neue Kategorie von Web-Traffic: Kein Crawler, kein normaler Nutzer, sondern ein KI-Agent, der im Auftrag eines Nutzers handeltEntwickler und IT-Security ins Bild setzen, damit niemand überrascht wird

Wenn dich interessiert, wie der Google Algorithmus insgesamt funktioniert – vom Crawling über die Indexierung bis zum Ranking – und wie sich AI Overviews in dieses System einfügen, findest du dort umfassende Hintergründe.

Häufige Fragen (FAQ)

Beeinflusst Google-Agent mein Ranking?

Nein. Google-Agent ist ein User-Triggered Fetcher und kein Crawler für den Suchindex. Er besucht deine Website nur, wenn ein Nutzer ihn dazu beauftragt – zum Beispiel über Project Mariner. Dein Ranking in der Google-Suche wird davon nicht direkt beeinflusst.

Kann ich Google-Agent per robots.txt blockieren?

Nein. Laut Google-Dokumentation ignorieren User-Triggered Fetchers generell die robots.txt, weil sie auf Nutzeranfragen reagieren und nicht automatisch crawlen. Google-Agent ist als User-Triggered Fetcher gelistet – die robots.txt greift hier also nicht.

Was ist der Unterschied zwischen Google-Agent und Google-Extended?

Google-Extended kontrolliert, ob deine Inhalte für das Training von Gemini-Modellen verwendet werden – es hat keinen Einfluss auf die Google-Suche. Google-Agent hingegen navigiert aktiv im Web auf Nutzeranfrage und interagiert mit deiner Website. Die beiden haben völlig unterschiedliche Zwecke.

Muss ich Web Bot Auth unterstützen?

Aktuell nicht. Web Bot Auth ist ein experimentelles Feature und befindet sich im IETF-Entwurfsstatus. Wenn du allerdings eine WAF (Web Application Firewall) von Cloudflare, Akamai oder AWS nutzt, kann es sein, dass dein Provider bald automatisch Web-Bot-Auth-Signaturen validiert und als „Verified Agent“ durchlässt.

Wann taucht Google-Agent in meinen Logfiles auf?

Google spricht von einem Rollout „über die nächsten Wochen“. Da Project Mariner aktuell nur in den USA verfügbar ist, wird der Traffic auf deutschen Websites zunächst gering sein – beschränkt auf US-Nutzer, die deutsche Seiten besuchen. Sobald Google Mariner (oder andere Agenten) in Europa launcht, dürfte der Traffic deutlich steigen. Frühzeitige Vorbereitung lohnt sich.

Ist Project Mariner in Deutschland verfügbar?

Nein, Stand März 2026 nicht. Mariner ist ausschließlich in den USA für AI-Ultra-Abonnenten ($249,99/Monat) zugänglich. Warum das Thema trotzdem für deutsche Website-Betreiber relevant ist, erkläre ich in der Einordnung oben.

Fazit: Das Agentic Web bekommt einen offiziellen Ausweis

Mit dem Google-Agent User Agent hat Google einen klaren Marker gesetzt: KI-Agenten, die im Auftrag von Nutzern im Web handeln, bekommen eine offizielle Identität.

Das ist mehr als nur ein neuer Eintrag in der Crawler-Dokumentation. Es ist der Startschuss für eine neue Ära der Web-Interaktion: Nutzer delegieren Aufgaben an KI-Agenten, diese Agenten navigieren Websites eigenständig, identifizieren sich transparent – und die Website-Betreiber können differenziert entscheiden, welchen Zugriff sie erlauben.

Die Kombination aus Google-Agent und Web Bot Auth zeigt, wohin die Reise geht: Weg von leicht fälschbaren User-Agent-Strings, hin zu kryptographisch gesicherter Identität. Google ist dabei nicht allein – Amazon, Cloudflare, Akamai und OpenAI treiben den gleichen Standard voran.

Mein Tipp: Du musst heute nichts umbauen. Aber nimm dir 10 Minuten, um die Google-Doku zu lesen, dein Team zu informieren und „Google-Agent“ als Keyword in deiner Log-Analyse anzulegen. Wenn der Europa-Rollout kommt, bist du vorbereitet – und das ist mehr, als die meisten Website-Betreiber von sich behaupten können.

Die Frage ist nicht mehr, ob KI-Agenten zum alltäglichen Web-Traffic gehören werden. Die Frage ist nur noch, wann sie auch in Deutschland ankommen.

Christian Ott - Gründer von www.seo-kreativ.de

Christian Ott – SEO kreativ denken & Wissen teilen

Als Gründer von SEO-Kreativ lebe ich meine 2014 entdeckte Leidenschaft für SEO. Mein Weg vom Hobby-Blogger zum SEO-Experten und Product Developer hat dabei meinen Ansatz geprägt: Ich teile Wissen verständlich, praxisnah und ohne Fachchinesisch.