Robots-Probleme

Piero50

Angesehenes Mitglied
Hi Leute

Habe ein Problem mit Google.

Google meldet mir immer wieder auf einer Domain, die ich in Englisch gesetzt habe:

"Sitemap enthält URLs, die von der "robots.txt"-Datei blockiert werden."

Früher hatte ich tatsächlich den Eintrag: Disallow: /
Diesen Eintrag hatte ich ein Jahr lang drinn, da ich früher die Domain stillgelegt hatte.

Jetzt habe ich den Disallow komplett herausgenommen, Aber die Meldung erscheint weiterhin.
sad.gif



Frage:
Braucht etwa Google ein paar Tage oder Wochen Zeit um die Robots-Datei wieder zu lesen?
unsure.gif

 
Sorry, jetzt hat er es geschnallt. Nach 24 Stunden!
D.h. Google kontrolliert die Robots-Datei nur 1 x im Tag ........
biggrin.gif

Alles O.K.
 
Zurück
Oben