Hi Leute
Habe ein Problem mit Google.
Google meldet mir immer wieder auf einer Domain, die ich in Englisch gesetzt habe:
"Sitemap enthält URLs, die von der "robots.txt"-Datei blockiert werden."
Früher hatte ich tatsächlich den Eintrag: Disallow: /
Diesen Eintrag hatte ich ein Jahr lang drinn, da ich früher die Domain stillgelegt hatte.
Jetzt habe ich den Disallow komplett herausgenommen, Aber die Meldung erscheint weiterhin.
Frage:
Braucht etwa Google ein paar Tage oder Wochen Zeit um die Robots-Datei wieder zu lesen?
Habe ein Problem mit Google.
Google meldet mir immer wieder auf einer Domain, die ich in Englisch gesetzt habe:
"Sitemap enthält URLs, die von der "robots.txt"-Datei blockiert werden."
Früher hatte ich tatsächlich den Eintrag: Disallow: /
Diesen Eintrag hatte ich ein Jahr lang drinn, da ich früher die Domain stillgelegt hatte.
Jetzt habe ich den Disallow komplett herausgenommen, Aber die Meldung erscheint weiterhin.
Frage:
Braucht etwa Google ein paar Tage oder Wochen Zeit um die Robots-Datei wieder zu lesen?