Die Meldung „Zugriff verboten (403)“ in der Google Search Console weist darauf hin, dass Googlebot einen HTTP-Statuscode 403 erhalten hat, als er versucht hat, eine Seite auf der Website zu crawlen oder zu indexieren. Das bedeutet, dass der Webserver so konfiguriert wurde, dass der Zugriff auf die angeforderte URL für den Googlebot-User-Agent verweigert wird.
Häufige Ursachen sind Bot-Erkennungstools, die Googlebot blockieren, Hotlink-Schutzsoftware, restriktive Crawl-Delay-Einstellungen, fehlende Serverauthentifizierung, unbeabsichtigte Zugriffsbeschränkungen oder Probleme mit zwischengeschalteten Proxy- und Firewall-Ebenen.
Diese Statusmeldung bedeutet, dass Seiten absichtlich von der Suchmaschinenindizierung blockiert werden. Websitebesitzer sollten die zugrunde liegende Ursache diagnostizieren und Fehlkonfigurationen beheben oder Googlebot auf die Whitelist setzen, wenn der Zugriff gestattet werden soll.
Damit Googlebot Website-Seiten crawlen und indexieren kann, ist es wichtig, dass die Inhalte für die Suche richtig optimiert sind.
Verwandt: Was ist Crawling und Indexierung in SEO?