Senden Sie keine automatischen Anfragen an Google!

Michael Schramm

Aktives Mitglied
Hallo,

heute habe ich folgendes gefunden:
http://www.google.com/support/webmasters/b...wer=35769&hl=de

"wird dennoch dringend empfohlen, die Qualitätsrichtlinien zu beachten. Diese beinhalten einige der unerlaubten Verfahren, die zur dauerhaften Entfernung einer Website aus dem Google-Index oder zu anderen Strafmaßnahmen führen können."

und weiter unten auf der Seite:

"Senden Sie keine automatischen Anfragen an Google."
und weiter

"Automatisierte Anfragen

Gemäß den Nutzungsbedingungen von Google dürfen automatisierte Anfragen nur mit ausdrücklicher vorheriger Genehmigung von Google an unser System gesendet werden. Automatisierte Anfragen belegen wichtige Ressourcen. Hierunter fällt auch die Verwendung von Software wie WebPosition Gold™, die durch automatisierte Anfragen ermitteln soll, welche Rangfolge eine Website oder Webseite bei verschiedenen Anfragen in den Suchergebnissen von Google einnimmt."

Ich benutze regelmässig SEO-Elite um die Positionierung meiner Seiten zu bestimmten Keywords zu analysieren.
In letzter Zeit ist mir aufgefallen, dass ich manchmal nach so einem Lauf per Hand keine Suche mehr bei Google durchführen kann. Google schickt mich auf eine Seite auf der steht, dass wahrscheinlich ein Virus auf meinen PC seinen Unwesen treibt und ich kann die Suche nur nach der Eingabe eines "captcha" Codes fortführen.

Wenn ich Googles Qualitätsrichtlinie richtig verstanden habe, kann die automatiserte Anfrage meine Seiten ganz von Google rausschmeissen.

Seht ihr das auch so?
Irgendwelche Erfahrungen?
... und
wie soll man sonst die Positionierung überprüfen?
 
Grundsätzlich würde ich mal behaupten, dass du auf der sicheren Seite bist, so lange die Anfragen nicht von deinem Server kommen.
Benutz ein externes Tool.
Dafür kann GOOG dich (eigentlich) nicht abstrafen, sonst hätten deine Konkurrenten ja leichtes Spiel ;-)
 
Wie will Google wissen nach welcher URL du suchst? Google kann natürlich über ein Spy-Cockie herausfinden, ob du ständig nach Keywords suchst, die zu deinen URLs (Google Analytics, Webmastger Tools, ...) passen. Man könnte jetzt natürlich Cockies von Google verbiiten oder ständig das Cockie löschen oder einen anderen Computer für die Positionsabfrage verwenden.

QUOTE Google schickt mich auf eine Seite auf der steht, dass wahrscheinlich ein Virus auf meinen PC seinen Unwesen treibt und ich kann die Suche nur nach der Eingabe eines "captcha" Codes fortführen.


Wenn du bei einem Internet-Provider bist, der ständig neue IP-Nummern vergibt, dann kannst du auch geschwind offline gehen. Das müsste dieses Problem auch beseitigen.
 
Hmm ich denke Google kann da nicht irklich viel machen... Mit der "Warnung" versucht Google einfach den Einsatz solcher Tools in Grenzen zu halten. Sollten durch den Einsatz dieser Tools die abgefragten Domains aus dem Index entfernen würde... könnte man diese Tools auch gezielt bei Konkurrenten Domains einsetzten, damit diese abgestraft werden.

Geht also irgendwie nicht ganz auf.
 
QUOTE (Michael Schramm @ Do 7.02.2008, 06:35)Wenn ich Googles Qualitätsrichtlinie richtig verstanden habe, kann die automatiserte Anfrage meine Seiten ganz von Google rausschmeissen.

Seht ihr das auch so?


Da google damit nicht einverstanden ist, gibt es die Virenmeldung - entweder sitzt das Problem im Computer (es gibt ja solche Viren) oder davor.



QUOTE (Michael Schramm @ Do 7.02.2008, 06:35)... und
wie soll man sonst die Positionierung überprüfen?


Manuell reicht völlig. Ansonsten ist der tatsächliche Traffic entscheidend, den sieht man im Log. Positionsabfragen mit dem Ergebnis 'bin von 250 auf 187' sind völlig unsinnig.
 
QUOTE Manuell reicht völlig. Ansonsten ist der tatsächliche Traffic entscheidend, den sieht man im Log. Positionsabfragen mit dem Ergebnis 'bin von 250 auf 187' sind völlig unsinnig.


Es ist zwar wirklich für den Besucherstrom egal, ob man auf Platz 25 oder 2500 ist, aber durch eine tiefere Positionssuche, kann man zumindest feststellen, ob man langsam steigt oder ob gar nichts geht.
 
Hiho!

Ich kann Google an dieser Stelle sehr gut verstehen. Denn im Extrem braucht man nur an einen SEO zu denken, der 20 Seiten betreut mich jeweils 50 getrackten Keywords, einer Suchtiefe von 500, und täglichem Tracking. Klar, dass da massig Traffic und Last erzeugt wird.

Zunächst sollte man sich aber fragen, welches Tracking man überhaupt benötigt. Denn ob man auf Platz 80 oder 380 ist, ist für den Besucherstrom völlig unerheblich. Bei beiden Platzierungen kann man keine Besucher von einer Suchmaschinen erwarten.

Signifikante Änderungen des Besucherstroms gibt es je nach Keyword erst bei einer Position 20 bis 5+

Klar möchte man vorher schon wissen, ob sich was bewegt. Aber selbst dafür reicht eine Suchtiefe von 100 völlig aus.

Darüber hinaus gibt es durchaus Tools, die die Last bei Google besser verteilen. Da kann man dann Pausen zwischen jeder Abfrage etc. einstellen. Für einen selbst ist das nicht von Nachteil, da das Tracking-Programm auch wunderbar im Hintergrund läuft. Und für Google hat es den Vorteil, dass sie nicht punktuell mit Suchanfragen überhäuft werden. Übrigens bekommt man mit diesen Tools auch keine Virusmeldung von Google.

MfG
Ansgar.
 
QUOTE Manuell reicht völlig. Ansonsten ist der tatsächliche Traffic entscheidend, den sieht man im Log. Positionsabfragen mit dem Ergebnis 'bin von 250 auf 187' sind völlig unsinnig.


Es ist doch für viele sehr interessant, ob man von 367 auf 123 gesprungen ist

wink.gif
und diese "manuellen" Anfragen von Feuereifer gepackten Webmastern machen, glaube ich, einen nicht unerheblichen Teil von googles traffic aus.
Dagegen haben Yahoo
cool.gif
und msn
cool.gif
nichts gegen benutzerfreundliche Tools einzuwenden.

Jedenfalls hatte ich mit einem inzwischen ausrangierten positions-tool das gleiche Problem.
sad.gif
Nach einer Korrespondenz mit google hatten die meine ip allerdings freigeschaltet, sodass diese Virenmeldung ausblieb. Man kann also mit Kulanz rechnen.
(Allerdings hatte ich auch angedeutet, dass Programm bei einer negativen Antwort gratis zu verbreiten.
dry.gif
)

Das Blockieren geschieht per gespeicherter ip und per Cookie.
huh.gif


Die Virenmeldung kam ohnehin erst nach ca. 20 aufeinander folgenden Anfragen mit insgesamt ca. 10000 Seitenaufrufen bei google.com . In meinem Webcounter ist das gleiche Tool integriert und gab bisher keinen Anlass zur Sorge.
rolleyes.gif
Allerdings können gleiche Anfragen nur einmal am Tag gestellt werden.

Bei einer Begrenzung auf die ersten 100 Plätze kann eigentlich nichts passieren.
Leider entspricht die Linkliste mit 100 Einträgen nicht der mit 10 Einträgen, sodass ich für die Position in den ersten 500 Plätzen immer noch 50*10er abrufe.
tongue.gif
Google täte besser daran diese zu vereintlichen, um überflüssigen Traffic zu vermeiden.
tongue.gif


Dass die Seite abstraft werden könnte, wäre mir eigentlich unverständlich.
mad.gif


Schliesslich lebt google ja auch vom automatischen Seitenaufrufen. M.E. verbietet google alles mögliche mit sich selbst als einziger Ausnahme. Nicht zuletzt ist google doch auch eine der Seiten mit dem meisten duplicat content im Internet,
laugh.gif
auch wenn's grösstenteils nur links sind.
 
Zurück
Oben