Thanks @Alain für den Output aus Deinem HI-Device.
QUOTE
1. Downtime von mehr als 2-3 Tagen, sagma mal > 72h (sonst stellt sich die Frage nicht)
Das anfängliche Szenario würde ich etwas anders aufschichten:
1.) Hoster hat Probs und spielt grad was zurück und WEISS, dass dieses minimum 6 Stunden dauert.
2.) Im Interesse der Domain-Inhaber bzw. deren wertvollen Rankings schreibt der Hoster eine sinnvolle 503-Page für alle betroffenen Domains. Der Wert "Retry-After" wird bequem (weil global für alle Domains) gesetzt und flexibel an die Krisenlage angepasst. In der Praxis hört sich das etwa so an: "Ach, in zwei Stunden ist alles wieder up? Dann ändern wir doch kurz den Retry-After in der Standard-503 für unsere Kunden auf den Wert 7200" oder es hört sich so an: "Verflixt, die Downtime dauert noch fünf Stunden, da schreiben wir doch kurz 18000 in die Minipage und damit hat sichs, und das dauert nur zehn Sekunden".
Ist ja auch bei den Trouble Tickets oft so, dass der Hoster eine Zeitspanne angibt. Klar, nicht immer.
Genau diese Zeitspanne könnte er gleich in die 503-er einbauen, um die lieben Bots zu füttern.
Verlangt man hier vom Hoster zuviel Flexibilität?
Kurz eine Zahl in einem Mini-File ändern, je nach Sachlage und Prognose angeglichen, dürfte ein Klacks sein und verhindert Abstürze in den SERPs.
Ich meine ja nur, diese Denke wäre auch anwendbar bei Downtimes unter 72h.
QUOTE den Spider der SE möglichst an der kurzen Leine halten (will heissen die revisite time des Spiders bzgl meiner Seite soll minimal sein.)
Dieses Detail ist mir unklar. Man kann doch den Googlebots sagen: Kommt in 24 Stunden nochmal vorbei, hier ist grad Umzug oder Neubau oder eben down. Die haben ja sonst genug zu tun, ist doch denen egal.
Und: Spinne an der Leine halten? Wääääääää! Die Leine will ich sehen!
QUOTE
1. Der retry wird von den Hostern gesetzt und wird wahrscheinlich 3600 sein (in ner Stunde wieder), weil sie sich wohl nicht eingestehen werden, dass 48 Stunden brauchen um das Problem zu lösen
Das ist der einzige Knackpunkt. Aber wie sähe das bei vernünftig denkenden Hostern aus? Anders, ja?
QUOTE jeder kann nachvollziehen, dass der Googlebot nicht all Stunde wiederkommen wird. Er denkt ja er sei intelligent, also wird er jedes mal den lag verlängern
Bis heute kenne ich nur
einen einzigen intelligenten Suchbot.
Im Ernst: Woher weisst Du so genau, wann genau der Googlebot wieder reinschaut? Der geht vielleicht erst noch ne Weltumrundung lang surfen und auch wenn da 3600 stehen mag, kommt er erst nach ner Woche wieder.
QUOTE Wenn man denn davon ausgeht, dass die Spiderfrequenz sich nicht ändert (würd ich nicht), dann könnte der von Vorteil sein.
Ja, sehr interessanter Gedanke.
Wenn man schon ins Detail geht: Ich hatte zwei der Hp-gehosteten Domains mit Google Site Maps bestückt. Nach dem letzten Hp-Ausfall sah ich in meinem Google-Account dass diese beiden Site Maps mit "Error" gekennzeichnet waren! Vorher hatten sie grüne Haken, nach dem Ausfall einen Error. Ich habe sie dann re-submitted. Ein weiterer Effekt eines erfolglosen Bot-Besuches.
QUOTE gern eine deduktiven Test machen, wo man 503 vs 302 wirft um die Spider intervalle zu vergleichen.
Falls jemand zwei Throwaway-Domains hat, na ja. Mir ist der 302 generell zu heiss um damit zu spielen (ja, genau wegen Hijacking). Da gibts ja sogar Leute, die mit den Headers von solchen Domains spielen und sich eine
PR10 Site basteln. Bringt denen natürlich nix.
QUOTE geht mit dem 503er, bis ihr wisst, was bigdaddy aus dem 302er macht.
@Hostpoint: Lest ihr mit? Dann bitte nächstes Mal so!
QUOTE Ich vermute auch, dass es keinen grossen Unterschied machen würde gar nicht zu antworten.
Und das vermute ich auch. Trotzdem sollte ein Hoster sich mit solchem Zeugs auskennen und es "ganz richtig" machen. Aber das ist vermutlich Wunschdenken.