Google, Yahoo und Microsoft gemeinsam gegen ...

MarcoCH

Angesehenes Mitglied
Endlich ...

Google, Yahoo und Microsoft gemeinsam gegen doppelten Content

Webmaster haben seit langem das Problem, dass die Suchmaschinen es gar nicht schätzen, wenn Inhalte doppelt auf Websites vorkommen. Hat beispielsweise ein Portal oder ein Shop einen Artikel in mehreren Kategorien eingeordnet oder eine sehr ähnliche Produktbeschreibung zusätzlich auf der Startseite, dann kann dies zu einer Abwertung bei den Suchmaschinen führen. Das betrifft auch gleiche Inhalte auf unterschiedlichen Domains. Die Suchmaschinen sind darauf geeicht, die doppelten Inhalte herauszufiltern, während der Crawler das Original bevorzugt. Im schlimmsten Fall deuten die Crawler die doppelten Inhalte als Spam. Duplicate Content kann sich also übel auf das Ranking einer Website auswirken.

Doch was ist eigentlich das Original? In der Vergangenheit gab es hier stets Ungemach, weil die Crawler leicht andere Seiten bevorzugen, als vom Webmaster gewünscht. Google, Microsoft und Yahoo kommen Webdesignern und Entwicklern nun entgegegen. Sie haben eine einheitliche Auszeichnungsmöglichkeit festgelegt, mit der der Website-Betreiber auf einer Seite mit doppeltem Content seine bevorzugte Primär-URL angeben kann. Im Head-Bereich des Zweitinhalts muss ein solches Link-Tag eingebaut werden:

<link rel="canonical" href="http://www.beispiel.de/produkt.php?item=0815&category=test" />

Die hier angegebene URL ist nun die Haupt-URL für diesen Inhalt. Damit steuert nun also der Webmaster, welches die Original-Version eines doppelten Inhalts ist und muss dies nicht dem Gutdünken der Crawler überlassen. Gleichzeitig schreibt Google beispielsweise auch die Link-Popularität für einen Artikel immer der Originalversion zu, was die Wertung dieser Version verbessert.

Greets Marco
 
QUOTE (AdMarkt @ Mo 16.02.2009, 10:14)Abwertung wegen DC auf einer Seite gibt es schon länger nicht mehr ...

Kommt mir aber nicht so vor ... woher hast Du die Infos?

Gruss Marco
 
Was passiert wenn jeder Webmaster nun den Tag einfügt ?

<link rel="canonical" href="http://www.beispiel.de/produkt.php?item=0815&category=test" />

Die Welt ist schlecht...
 
QUOTE ein Shop einen Artikel in mehreren Kategorien eingeordnet


Wie brint man das nun XTCommerce und anderen Shop-Scripten bei? Theoretisch eine nette Idee, aber wie so oft leider nicht zu Ende gedacht. Außerdem ist es doch die Aufgabe der Suchmaschinen die Primär-URL zu kennen. Die sind doch alle laut Eigenwerbung immer so super-toll und erkennen alles.
 
Hab jetzt ein dickes Post geschrieben, worauf mir der FF abgestürzt ist. damed!!!

Also long story short, nicht schon länger nicht mehr, gab es nie!

Werde den Google Post Heute Abend lesen und kann nur ayom.com/search?q=duplicate+content empfehlen.
 
Abwertungen aufgrund von DC (Domainintern) gab es nie - allerdings ist der springende Punkt dabei:

QUOTE Google sagt: wenn wir nicht in der Lage sind, alle Duplikate einer bestimmten Seite zu identifizieren, dann können wir diese nicht entsprechend zusammenfassen. Dies könnte die Stärke der einzelnen Rankingsignale dieses Contents mindern, da sie über verschiedene URLs aufgeteilt sind.

 
Ich habe mich stets daran gehalten, keinen DC zu produzieren oder zumindestens immer zu "mischen" Ich bin damit nicht schlecht gefahren. Hat man natürlich sehr viele Direktbesucher erübrigt sich die Frage des DC und es rückt mehr in den Hintergrund.
 
QUOTE (Seth.Gecko @ Mo 16.02.2009, 16:08) Abwertungen aufgrund von DC (Domainintern) gab es nie - allerdings ist der springende Punkt dabei:


QUOTE Google sagt: wenn wir nicht in der Lage sind, alle Duplikate einer bestimmten Seite zu identifizieren, dann können wir diese nicht entsprechend zusammenfassen. Dies könnte die Stärke der einzelnen Rankingsignale dieses Contents mindern, da sie über verschiedene URLs aufgeteilt sind.



deshalb ging es in diesen Fällen immer darum eindeutigen DC zu produzieren oder es ganz zu lassen ...
 
Zurück
Oben