Duplicate content Filter (Google: Slow Death?)

Hans-Werner

Angesehenes Mitglied
Hi Hi,

identsiche Inhalte führen ja evtl. zu Nachteilen bei den Suchmaschinen!

Ab wann meint z.B. Google Duplicate content zu erkennen.

Beispiel:
Auf dieser Lexikon-Seite von Webkoch.de wird der Inhalt von der entsprechenden Wikipedia-Seite übernommen (was übrigens völlig legal ist).

Erkennt Google das als doppelten content?

Wenn ja, was könnte man anders machen? Man darf ja den Text nicht verändern. Würden hier zusätzliche andere Inhalte was ändern?


Schöne Grüße
Hans
 
QUOTE Ab wann meint z.B. Google Duplicate content zu erkennen.
Salop: wenn es Mirrors sind, wie dein Beispiel. Aber diese Frage exakt zu beantworten ist eine Nummer zu gross für mich...

QUOTE Erkennt Google das als Duplicate content?
Nein, dieses Beispiel, m.E. nicht, jedoch einfach noch nicht alle Wiki-Mirrors vollständig. Ist nur ein Algorithmus und ist sicher relativ viel Rechenzeit nötig ;-)

Duplicate content heisst nicht, dass die Seite nicht in Google ist.

Es hängt damit Zusammen, das bei der Generierung der SERPs für einen Teil KWs Seiten als Mirrors identifiziert werden und immer zu Gunsten der populärsten (Inbound-Links) fallen gelassen werden.


QUOTE Wenn ja, was könnte man anders machen?
2. Möglichkeiten:


QUOTE Würden hier zusätzliche andere Inhalte was ändern?
1. Da der Algorithmus von Google unbekannt ist, aber klar ist, dass es sich um einen approximativen also ungenauen Algo handelt, ist klar, dass man die Grenzen nicht eindeutig setzen kann.
Intuitiv scheint aber klar, dass die Gleichheit nicht mehr gegeben sein kann, wenn du für den Leser zusätzlichen Inhalt mit dem Mirror content verbindest. Wiederum ist klar, je mehr desto ungleicher sind die Seiten.

2. Alternativ kannst du die Ursprungsseite an Populatität überbieten, was die u.U. zu überraschend positive Resultate führen würde ;-)

Illustration:
Seiten in den SERPs: http://www.google.com/search?num=100&hl=de...e%22&lr=lang_de
#138 für Ananas. http://www.google.com/search?q=Ananas&num=...&start=138&sa=N

Ich bin mir noch nicht ganz sicher (aber gehe davon aus), ob die Doubles vom KW abhängig sind, und ob bei Entlarven von Doubletten dies dazu führt, dass sie in den jeweiligen SERPs nicht angezeigt werden.

PS Dies sind leider alles Hypothesen ;-) Sowie Pagerank Penalties für Doubletten m.E. urbane Legenden sind.
 
Hallo Alain,

danke! Mal wieder ein gutes Feedback!
smile.gif


Ich rekapituliere:
- je mehr zusätzlicher Text, desto besser
- auf Title- und Linktexte etc. achten


Schöne Grüße
Hans
 
Genau. Das Ändern von Texten usw. ist nicht illegal, man muss sich nur genau die jeweiligen Lizenzen durchlesen und dann danach handeln.
Das Problem ist, im Internet gibt es ne Mega Menge an Duplicte content, ich weiß nicht wie viele meiner Forenpostings duplicate content sind usw.
Das Problem ist immer das Ranking. Generell, wie auch Alain gesagen hat, kann man mit genügend Link Pop alles schlagen, wobei ich gegen die wikipedia nicht mit link pop kämpfen würde;)
 
Einige Weiterführende Überlegungen, die das Problem bekämpfen könnten:

QUOTE Ich rekapituliere:
- je mehr zusätzlicher Text, desto besser
Hm, pauschal ja, aber ich Frage mich:

Wie verlgeicht Google Texte?

Es gibt verschiedene Textvergleich Algorithmen. Diese können aber wenn Text nicht identisch ist, ihn nur begrenzt Vergleichen.

Z.B. Sei eine Seite mit 5 Abschnitten in einer Html Seite.
1. Wenn man die gleiche Seite Text in ein anders Template (andere Tags, andere Navigation) packt, ist es immer noch sehr änhlich.
2. Wenn man die Reihenfolge der Abschnitte ändert, ist der Text immernoch sehr ähnlich (weniger als bei 1).
3. Wenn man der Seite Text hinzufügt (vor oder nach dem Text) ist er immernoch ähnlich (weniger als bei 2).
4. Wenn man der Seite zwischen den Abschnitten Text hinzufügt ist die Seite immernoch ähnlich (weniger als bei 3)
5. Wenn man Text weglässt, ist die Seite immernoch ähnlich (weniger als 1)
6. Wenn man Text ändert ist der Text immernoch ähnlich (weniger als 1-5)

Aus diesen Überlegungen folgt, dass Text, der auf einer Quelle basiert immer eine gewisse Ähnlichkeit mit dieser aufweist. Daraus folgt, dass es aus Webmastersicht nur darum geht die Ähnlichkeit zu reduzieren, um sie unter eine nicht bekannt untere Schranke von Google zu bringen.


QUOTE - auf Title- und Linktexte etc. achten
Dem kann ich jetzt nicht ganz folgen.

Mein persönliches Fazit: Wenn du dem User Mehrwert (in Textform) bietest, wird Google dich nicht als Doublette ansehen. Es reicht aber nicht einfach oben und unter 2 Links o.ä. hinzuzufügen.

Eine Diskussion, die sich zwar nicht genau mit der Problematik beschäftigt, aber interessant sein könnte, da die Krankheiten wohl verwandt sind: http://www.suchmaschinentricks.de/forum/th...5&forum=1&stm=0
 
Danke für den langen Beitragen zu den textvergleich algos. So gesehen müsste fast alles sehr ähnlich sein, da wohl jeder beim Schreiben seiner Texte sich auf Quellen bezieht, und sei es nur auf Dinge man gelesen und ausprobiert hat, irgendwoher hat jeder sein Wissen.
 
QUOTE So gesehen müsste fast alles sehr ähnlich sein, da wohl jeder beim Schreiben seiner Texte sich auf Quellen bezieht
;-) Ja, jeder Beitrag dieser Diskussion ist jedem anderen ähnlich, weil in jedem das Word ähnlich vorkommt ;-)
Aber obiger Gedanke ist ein wenig abstrakt und dient der Illustration. Wenn man sich pratisch orientieren will, dann muss diese relative Ähnlichkeit schon sehr hoch sein, damit Google die Seiten wirklich als Doppelten Content siehr (Z.B. sind diese Post niemals Doubletten für Google).
Quellen beziehen != Copy and Past, ungenaue Ausdrucksweise meinerseits.

PS Nochmal zu dem obigen Link. Sehr wohl lesenswert bezüglich Dublicate Content. Der erwähnte Slow Death ist m.E. ein simples Produkt von Dublicate Content (sowie den Neuen Linktext Analysen etc).
 
das ist allerdings korrekt Alain, die beiträge hier sind keine Doubles, da jeder auch seinen eigenen Stil hat und den sollte man auch beim erstellen der seiten beachten. Das ultimative ziel sollte net sein fremden inhalt möglichst gut so zu doublen das er net als double erkannt wird..sondern zu ner hub&authority seite zu werden, wer das erreicht, hat super listings trotz algo-änderungen, die wf faq ist ein gutes beispiel in die richtige richtung;-)

Copy und Paste..ist meist auf faulheit zurückzuführen, und wer nicht selbst arbeiten will..der hat gutes ranking net verdient..sorry für meine Interpretationen hier;-)
 
Einige Weitere Überlegungen zu obiger Abhandlung:

Ich verwende immer den Begriff Seite und diesen gilt es jetzt genau zu definieren:
Def: Eine Seite ist eine einzelne Html- (php, asp, htm, whatever) Seite.

D.h. es geht bei Google nicht darum Domain asdf.ch mit ölkj.ch zu vergleichen, sondern asdf.ch/bauen.html mit ölkj.ch/häuser_bauen.php.

Achtung: eine Domain (d.h. ein Internetprojekt wie z.B. webmasterforum.ch) besteht aus x Seiten (nach def). Es ist sehr wichtig zu verstehen, dass Google einzelne Seiten vergleicht. Somit vergleicht sie auch die einzelnen Seiten einer Domain. Sicherlich hat jeder von euch folgenden Text schon einmal bei Google gesehen:
QUOTE Um Ihnen nur die treffendsten Ergebnisse anzuzeigen, wurden einige Einträge ausgelassen, die den 33 bereits angezeigten Treffern sehr ähnlich sind.
Sie können bei Bedarf die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen.

Fazit: m.E. Gibt es zwischen der Mirrorpoblematik, aufgrund Google's neuer Fähigkeiten Doubletten von anderen Webseiten effizient zu erkennen und der Gleichsetzung einzelner Seiten von Domains einen Zusammenhang. Für mich scheint es aber logisch, dass gleiche Seiten von verschiedenen Domains nicht den gleichen Faktoren unterliegen wie gleiche Seiten von gleichen Domains.
 
Ein super Abakus-Posting über verschwundene Seiten: http://www.abakus-internet-marketing.de/fo...pic/t-6063.html

Unter anderem verschwand die Seite www.ranardo.de: http://www.google.de/search?hl=de&ie=UTF-8...tnG=Suche&meta=

Wenn ich die mal so anschaue, einen Satz in Google kopiere und dann den Link anklicke habe ich das:

http://www.ranardo.de/008/index.html
http://www.uhren-experte.com/

Google räumt auf.

PS Bezgl. Ranardo: Neben DC dürfte die Verlinkung dieser Domain wohl noch einen gewichtigen Grund gewesen sein, wieso sie nicht im index auftaucht.
 
Danke für die Links und Infos Alain, halte uns bitte auf dem laufenden. Man sieht mal wieder, eigener Inhalt ist der king;-)
 
Jetzt eine Verständnisfrage zu Wikipedia. Wenn ich

Dieser Artikel basiert auf dem Artikel XYZ (http://de.wikipedia.org/wiki/Hauptseite) aus der freien Enzyklopädie Wikipedia (http://de.wikipedia.org/) und steht unter der GNU-Lizenz für freie Dokumentation (http://www.gnu.org/licenses/fdl.txt). In der Wikipedia ist eine Liste der Autoren (http://de.wikipedia.org/w/index.php?title=Hauptseite&action=history) verfügbar.

dazuschreibe, kann ich mit den Texten online machen, was ich will und sie beliebig auf meiner Website verwenden ...

Kann das sein, dass mich Google in den Suchergebnissen zurückreiht, weil bei meinem (aus duplicate content-Gründen ziemlich abgeänderten) Text der Wikipedia-Link steht?


Gibt es irgendwo im Web Beispiele, was Google NICHT unter duplicate content versteht?




 
Verzeih mir, aber kannst Du die Frage bitte präzisieren? Geht es um eine einzelne Seite, geht es um mehrere Seiten, und wo vermutest Du eine Zurückstufung in den SERPS.

Beispiele habe ich in der Vergangenheit einige gepostet. Siehe den FAQ Artikel zu Duplicate Content.
 
Hallo Alain!

Mir geht es um einzelne Seiten, die z. B. Pressemeldungen enthalten. Wie muss ich die umformulieren, damit das nicht als DC erkannt wird? Im Normalfall ist ja praktsich jede Meldung auf irgendeine Quelle im Netz zurückzuführen. Ich kann mir nicht vorstellen, dass Google da alle Quellen bzw. Inhalten untereinander abgleicht ....

Eine Zurückstufung in den Suchmaschinen habe ich selbst noch nicht bemerkt, vielleicht aber jemand anderer?


 
QUOTE Mir geht es um einzelne Seiten

Die einzelne Seite wird u.U. (richtigerweise) als DC erkannt (für wenige spezifische Queries) und nicht angezeigt, wenn nicht verändert, mehr nicht. Je nach deiner Einbindung sinkt die Warscheinlichkeit.
 
Zurück
Oben