Google nimmt meine Seite nicht richtig

Nahash

Mitglied
Hallo Allerseits, dies ist mein erster Eintrag hier, mit Sicherheit nicht der Letzte
und ich freue mich, Euch kennen zu lernen.

Wir haben uns die letzten Wochen den Kopf zermartert, weshalb Google unsere Seite nicht mag.

Es geht um diese hier. Der Inhalt ist holländisch, aber das Wesentliche kann man ja erkennen.

http://www.kantoormeubelen-direct.com

Hier ist das Suchergebnis zu kantoormeubelen-direct.com
zu sehen:


http://www.google.de/search?hl=de&rls=GGLD...tnG=Suche&meta=

Es wird nur diese eine Seite indexiert und nicht mehr. Wir haben mehrfach versucht, Unterseiten anzumelden. Aber davon wurde nie etwas genommen.

Zur Seite ... augescheinlich fällt auf, dass wir die Seite index.html mit dem Server per .htaccess umleiten zu der dynamischen Seite /cgi-bin/atl/atl.cgi?ct=a1
Das mag verständlich sein, dass es da Probleme gibt. Aber dies ist nicht die erste Seite dieser Art, sondern, baugleich sozusagen unsere achte. Bisher hat das immer gut funktioniert.

Das Mindeste, was man erwarten könnte wäre ja, dass google wenigstens die ganz normalen statischen Seiten akzeptiert. Diese wären zB.
http://www.kantoormeubelen-direct.com/service.htm
http://www.kantoormeubelen-direct.com/overons.htm
http://www.kantoormeubelen-direct.com/agb.htm

Aber selbst diese Einträge werden nicht veröffentlicht.

Ich habe keine Erklärung, wo das Problem liegen könnte. An der Zeit liegt es nicht. Das ganze geht nun schon seit Monaten so.

Vielleicht liegt es daran, dass am holländischen Google irgendetwas anders ist als an unserem?

Der Server ist in Deutschland, mit der gleichen IP wie andere deutsche Seiten.
Liegt es daran, dass es eine .com Domain ist und keine mit .NL

Oder es liegt daran, dass irgendein Redakteur (gibt es sowas überhaupt bei Google?) beschloßen hat, diese Seite schlecht dastehen zu lassen. Haben wir es uns vielleicht mit dieser Domain versaut?

Das merkwürdige ist eben im Besonderen, dass wir das ganze Spiel ja schon so oft erfolgreich durchgeführt haben. Ganz genauso. Es gibt keine Programmier-Unterschiede. (Bei Interesse siehe: http://inwerk.de)

Also vielleicht fällt Euch Experten etwas dazu ein. Ich kann es mir einfach nicht erklären und weiss wirklich nicht mehr weiter. Jede Meinung oder Idee interessiert mich absolut.

Vielen vielen Dank und viele Grüsse
~~Nahash
 
Hi Nahash

Willkommen bei Ayom.

Wie alt ist die Website? Es kann einige Wochen bis Monate dauern, bis Unterseiten indexiert werden. Ein URL-Design ohne Parameter und viele eingehende Links könnten diesen Prozess beschleunigen.

Gruss, Remo
 
Hallo Nahash

Willkommen hier bei Ayom ;-)

QUOTE http://www.google.de/search?hl=de&rls=GGLD...tnG=Suche&meta=


Diese Seite stellt eine spezifische Suche nach einer Domain k..-direct.com an. Deshalb ist es auch normal, dass lediglich eine Seite auftaucht, da es nur diese eine für deine Suchabfrage gibt. Der Syntax, nachdem Du suchst ist "site:k...-direct.com" (Listet alle indexierten Seiten der Domain). Diese Suchabfrage zeigt aber nur ein Ergebnis, also ist nur eine Seite im Index.


QUOTE Zur Seite ... augescheinlich fällt auf, dass wir die Seite index.html mit dem Server per .htaccess umleiten zu der dynamischen Seite /cgi-bin/atl/atl.cgi?ct=a1
Das mag verständlich sein, dass es da Probleme gibt. Aber dies ist nicht die erste Seite dieser Art, sondern, baugleich sozusagen unsere achte. Bisher hat das immer gut funktioniert.

Die technische Umsetzung ist in der Tat nicht optimal. Die Suchabfrage nach allinurl:cgi-bin/atl/alt.cgi?ct zeigt, dass es in der Tat funktioniert. Ich würde aber nicht behaupten, dass es gut funktioniert.


QUOTE Es wird nur diese eine Seite indexiert und nicht mehr. Wir haben mehrfach versucht, Unterseiten anzumelden. Aber davon wurde nie etwas genommen.

Obschon es noch viele Firmen gibt, die eine Anmeldung in Suchmaschinen verkaufen, ist dies heutzutage sicherlich nicht mehr nötig. Suchmaschinen suchen selber das Internet ab und verfolgen Links. So wird auch deine Seite gefunden.


QUOTE Vielleicht liegt es daran, dass am holländischen Google irgendetwas anders ist als an unserem?

Es gibt Geschwindigkeitsunterschiede für .tld's bzgl. Indexierung, aber da würde ich die Ursache nicht suchen.


QUOTE Liegt es daran, dass es eine .com Domain ist und keine mit .NL

Auch das dürfte nicht die Ursache sein.


QUOTE Oder es liegt daran, dass irgendein Redakteur (gibt es sowas überhaupt bei Google?) beschloßen hat, diese Seite schlecht dastehen zu lassen. Haben wir es uns vielleicht mit dieser Domain versaut?

Google hat im Gegensatz kein Qualityteam wie es Seekport hat, dass manuell "Spam" aus dem Index wirft, sondern sie haben ein Qualitätream, dass den Spam anschaut und daraufhin versucht die Algorithmen zu verbessern. Es gibt manuelles Blacklisting, aber die Warscheinlichkeit, dass Du davon betroffen bist, geht gegen Null.

Suche nach der Ursache:
Es gibt 2 Massgebliche Faktoren für die Indizierung einer Webseite(=Domain mit allen einzenlen Seiten) und deren Geschwindigkeit.
1. Die Präsentation der Information
2. Die Repräsentation der Information

Ich würde Dir empfehlen beide Punkte anzupacken, und werde jetzt kurz darauf eingehen, wie das möglich ist.

1. D.h. ist die Information auf kürzestem Weg für eine Maschine verständlich? D.h. kann ein Suchmaschinenspider verstehen, was da steht?
Du hast schon erwähnt, es funktionierte schon, trotz des cgi CMS. Ich gebe Dir soweit recht: http://www.google.de/search?hl=de&c2coff=1...tnG=Suche&meta=
Aber ich weigere mich anzuerkennen dieses Resultat als gut zu betrachten. Dazu kurz eine Erläuterung: als Kapazitäten und Verständnis von dynamischen Seiten (~Seiten mit Parametern in der Url) noch nicht so vorhanden waren, haben Sumas oftmals ebendiese Seiten nicht gespidert. Die Begründung ist einfach. Wir können uns nicht sicher sein, ob diese Informationen konsisten sind, wenn sie nicht hinter einem statischen File liegen. Dies hat sich insofern verbessert, alsdass Suchmaschinen mitlerweile erkennen, ob sich die Information ständig ändern, oder wirklich konsisten ist. Im zweiten Fall, indizieren sie (allen voran Google) auch korrekt.
Jetzt stellt sich aber die Frage, ob das nötig ist? Wieso verwendet ihr kein Mod_rewrite um aus /cgi-bin/atl/atl.cgi?ct=a4 Kasten-a4.html zu machen? Es ist ein deutlicher Mehrwert für den Kunden, sowie ihr macht Robotern klar, dass es sich bei euch um statische Daten handelt. Dies beschleunigt auch in aller Regel die Indizierung.

2. Die Repräsentation der Information sind Links. Eine Seite die von nirgendwo verlinkt wird, wird auch nicht gefunden. Die "Wichtigkeit" einer Seite ist eine Funktion ihrer Links. Somit ist es einfach zu folgern, dass die Geschwindigkeit der Indizierung von der Anzahl der Links abhängt. Deshalb empfehle ich Dir umbedingt die Seite auch zu verlinken. Ich konnte lediglich 10 externe Links ausmachen, alle von inhaltslosen Seiten. Dabei handelt es sich um die anderen Länderdomains, auf denen ihr jeweils ein Bild und ein Link hinterlegt habt. Das ist für einen Menschen ein Bild und für eine Maschine gar nichts. Dabei wäre es eine Überlegung wert, ob Ihr diese Domains nicht direkt mit einem 301 header auf das Ziel weiterleiten möchtet.

Wieviele Links auf diese Seite gibt es? Ich vermute, dass in dein Problem an Punkt 2. liegt. Ich gehe aber auch davon aus, dass Du nach einer guten Umsetzung von Punkt 1 sehr viel mehr Erfolg haben wirst, vor allem was die Indizierungsgeschwindigkeit angeht.
 
Hallo Remo,
die erste Anmeldung bei google müsste da im Dezember 2004 gewesen sein.
Danach gab es zahlreiche weitere Anmeldungen, die aber auch auf unseren anderen Seiten nie geschadet haben (eher genützt).

Ich lese gerade über google Bestrafungs-Algorithmen, in der Hoffnung dort etwas zu entdecken
smile.gif


http://pr.efactory.de/d-pr0.shtml

Weisst Du vielleicht, ob es bei google irgendwie eine redaktionelle Prüfung gibt, oder passiert da doch alles vollautomatisch?

Viele Grüsse
~~Nahash
 
Und Hallo und vielen Dank Alain !

QUOTE Mod_rewrite


Ich denke gerade über Deine Idee mit Mod Rewrite nach,
da wäre es doch so, dass die Seite statisch wird, aber die Links
innerhalb der Seite, diese würden doch so bleiben wie sie sind, oder?

In meinem Beispiel wäre der Link für die Kategorie Top-Angebote

http://www.kantoormeubelen-direct.com/cgi-...l/atl.cgi?ct=a1

Und würde so stehen bleiben.
Das ist dann immernoch ein dynamischer Link. Soweit ich das
richtig verstanden haben, käme dann wenn man diesen
Link verfolgt beispielsweise die Seite http://www.kantoormeubelen-direct.com/a1.html
als Ergebnis.

Kann diese "Unlogik" vielleicht auch nachteilige Ergebnisse in der Suchmaschinenbewertung
haben? Oder habe ich das mit dem mod rewrite falsch verstanden? Oer kennst Du eine elegantere Art?


QUOTE Die Repräsentation der Form sind Links


Mit den Links auf diese Seite hast Du Recht. Da haben wir zu wenige. Die Sache mit dem Bild und dem Link war ein Experiment als ich den Verdacht hatte, es gäbe eine Art negativer Bewertung bei google für diese Seite. Vorher leiteten die Domains mit dem Bild auf die gleichen Seite:
http://www.kantoormeubelen-direct.com/cgi-...l/atl.cgi?ct=a1


Viele Grüsse und vielen Dank nochmal!
 
QUOTE Kann diese "Unlogik"...

Wenn Du von kryptischen Urls auf "schöne Urls" umstellen willst, musst Du auf jeden Fall zweierlei machen. Einerseits die RewriteRule's in der .htaccess und andererseits musst Du auch alle Links in deinem CMS (in Deinem Fall das Shop-Script) in die neue Form bringen. Z.b. $name-$id.html. Das ist schön für den Benutzer und für die Suchmaschine. Da muss ein Programierer ran. In der Faq gibts auch was zu Mod_rewrite und zum "Url-Design". Prinzipiell kannst Du auch mit 2. starten und dann schauen ob Du 1. überhaupt noch umsetzen willst.

QUOTE Die Sache mit dem Bild und dem Link war ein Experiment

Suchmaschinen sowie Besucher fänden eine Weiterleitung besser. Wieso sollte ein Besucher zu erst auf das Bild von etwas klicken, dass er anklicken möchte?

Die Seiten sind eigentlich nur Doorwaypages, was eigentlich Spam ist. Aber Du wirst so einfach nicht abgestraft. Frag Dich lieber zuerst wie viele echte Links es auf die Seite gibt? Der Titel der Linkpages ist übrigens etwas sehr lang ;-)


QUOTE Weisst Du vielleicht, ob es bei google irgendwie eine redaktionelle Prüfung gibt, oder passiert da doch alles vollautomatisch?

Da hört es etwa mit dem Wissen auf. Aber ich denke nicht, dass jemand bei Google sitzt, der die Vision hat, man könne das Internet von Hand säubern... Dann bleibt noch semi-automatisch und ganz automatisch.
 
Ja, dankeschön Alain,
ich habe mich mit dem mod rewrite jetzt mehr auseinandergesetzt und verstehe.

Der Programmierer, das wäre dann wohl ich ;-)

Mit seufzenden dankbaren Grüssen und einem Kompliment: ich finde das toll wie Ihr da hier macht und bin dankbar für die Energie und Kompetenz, die Ihr hier reinsteckt. Wirklich.
smile.gif


~~Nahash
 
Zurück
Oben