3 identische Website-Kopien mit 1 DB

FilOO

Angesehenes Mitglied
Abend zusammen

Grundsätzlich ist mir bewusst, dass 1:1 kopierte Websites nicht "gut" sind. Trotzdem bin ich unsicher, was folgende Sache anbelangt und wäre somit auf eure nette Hilfe angewiesen.

Angenommen, ich habe die Website example.com und bin bei Google auf Platz 5.

Ich kopiere nun die gesamte Website (ohne DB) unter meiner neuen Domain (example2.com und example3.com). Alle 3 Websites laufen also nun auf eigene Domains und sind 1:1 kopiert. Ich greife aber mit allen 3 Websites auf 1 DB zu. Theoretisch könnten sich registrierte User also auf einer dieser x-beliebigen Website anmelden und alles funktioniert untereinander.

Soweit so gut.

Ich komme zurück auf example.com auf Platz 5 bei Google. Dazu meine Frage:

- Inwiefern sind 1:1 Kopien für das Google-Ranking nicht "gut"? Wird example.com abgestuft (example.com könnte ja nichts dafür können, wenn jemand anders seine Website einfach kopiert...)? Oder schaut es, welche dieser 3 Websites schon länger online ist und behandelt nur diese als "Original"?

- Oder, könnte es sogar sein, dass auch example2.com und example3.com ein gewisses Google-Ranking erhalten (vielleicht einfach nicht gerade Platz 6 und 7)?

- Oder, werden alle 3 Websites runtergestuft oder gar aus dem Index gelöscht?

Was denkt ihr, oder was wüsstet ihr?

Freundlicher Gruss
FilOO
 
Hi

Wenn ich Google wäre, dann müsste ich mich fragen: "Was soll ich meinen suchenden Kunden anbieten?"

Damit meine ich: "Was soll ich damit?".

Für Google ist das bestimmt nicht interessant.
 
Duplicate Content ist nicht unbedingt schlecht. Es rankt sogar -für kurze Zeit- ganz gut. Aber: Besteht besteht eine Seite nur aus Duplicate Content macht das keinen Sinn. Es ergeben sich kurzweilig sicherlich Effekte. Danach kommt es aber wieder zu einem Einbruch. Die Hauptdomain kann ebenfalls davon betroffen sein. Solche Modelle funktionierten einmal vor Jahren optimal. Mittlerweile muss aber mehr arbeit investiert werden. Eine Löschung aus dem Index passiert nicht. Ich habe seit Jahre eine Seite mit DC (über 3000 Texte einer anderen Domain). Ab und zu kommt es einmal zu einer Sichtbarkeit von 1,4 - 4,9 bei OVI. Diese fällt aber einige Tage bzw. Wochen wieder zurück. Alle Seiten sind jedoch nach wie vor im Index. DC wird in einigen Bereichen manchmal angewandt, um kurzweilig Ergebnisse zu erzielen. Für richtige Projekte auf Dauer ist es jedoch kontraproduktiv.

Die anderen Seiten können ja identisch sein. Der Text muss dafür allerdings ein wenig geändert werden. So das Unterscheidungsmerkmale bestehen.
 
Das "Original" ist diejenige Seite, die höher rankt. Also länger online ist und mehr einkommende Links hat. Wenn eine Kopie jetzt bessere einkommende Links hat, dann kann es sein, dass die Kopie höher rankt und somit die Rolle des Orginals übernimmt.

Gut. Jetzt zu den Problemen: die tieferrankenden Kopien erscheinen nicht in den Rankings. Google kennt sie, aber lässt sie einfach aus. "Duplicate Content Filter". Das Original wird vorderhand nicht runtergestuft. Die Kopien erscheinen einfach nicht.

ABER: Was Du mit Deinen 3 Kopien bewirkst ist insofern folgendes: statt dass Besucher die beste Domain a verlinken, verlinken Sie entweder a, b oder c. Wobei vermutlich auf b, c nicht wirklich viel Besucher sind. Trotz allem: ein wenig unnütze Links auf b,c wirst Du schon erhalten.

Eine 301 auf die Hauptdomain ist insofern klar von Vorteil, weil sich dann alles auf die beste Domain fokussiert.

Wenn Du jetzt argumentierst, dass Domain a, b, c halt andere, wertvolle Schlüsselbegriffe im Domainnamen enthalten: ja, wenn das sooo wertvoll ist, dann wäre es geschickter, alle Domains mit eigenen, optimierten Inhalten zu fahren.

Dann mal als Anmerkung zum Duplicate Content Filter: ich habe Buchbesprechungsseiten mit ca. 60% Anteil kopierten Inhaltsangaben und Buchklappentext. Ich kann Dir deutlich sagen, dass 1:1 überhaupt nicht geht. Bei 60% kopierten Inhalten kommen die Unterseiten manchmal im Index und im nächsten Monat nicht. Dann brechen die Umsätze in Amazon ein.

Das "ein bisschen Abändern" ist insofern nur ein gut gemeinter Ratschlag, wenn man "bisschen" auslässt.

Ich habe z.B. auch eine Event-Webseite, auf der Leute Konferenzen posten können. Da nutzen die Leute oft kopierte Texte. Da war im Sommer die Hölle los. Mal 50% weniger Traffik von einem Tag auf den anderen. Nun ändere ich alle Texte von Hand ab. Nein, mit "ein bisschen" ist das nicht getan. Denn sobald irgendeine (Konkurrenz-)Seite mit ähnlichen Texten nahe kommt, könnte das Licht ausgehen. Da kann ich mein Geld auch gleich verbrennen.
 
QUOTE (Peter Schneider @ Sa 24.01.2015, 08:29)

Dann mal als Anmerkung zum Duplicate Content Filter: ich habe Buchbesprechungsseiten mit ca. 60% Anteil kopierten Inhaltsangaben und Buchklappentext. Ich kann Dir deutlich sagen, dass 1:1 überhaupt nicht geht. Bei 60% kopierten Inhalten kommen die Unterseiten manchmal im Index und im nächsten Monat nicht. Dann brechen die Umsätze in Amazon ein.

Auch bei 100 Prozent Übernahme kommen die Seiten in den Index. Da gibt es in der Regel kein Problem. Das hat bisher immer geklappt.
 
QUOTE kommen die Unterseiten manchmal im Index und im nächsten Monat nicht.


Ja sorry. Hier sollte SERP stehen.



QUOTE Auch bei 100 Prozent Übernahme kommen die Seiten in den Index.


Natürlich kommen die Seiten in den Index. Die Frage ist doch: WERDEN DIE SEITEN ANGEZEIGT!

Das ist doch die alleinige Frage hier. Im Index zu sein ist etwa so wertvoll wie ein Stück Klopapier ohne Ranking.

Der DC-Filter greift bei der Darstellung spezifscher Suchanfragen. Was bringt eine Webpage für sagen wir mal "Harry Potter", die zwar im Index ist, aber nie in den SERPS erscheint?

Dann nur mal so: ich schreibe nicht von "100% Übernahme": ich spreche von 60% Anteil von Fremdtexten auf meiner Seite. Wenn Du alles "übernimmst" und dann doppelt soviel ringsherum schreibst, ist Dein Anteil lediglich bei 33%. In diesem Sinne sind Deine Angaben mit Vorsicht zu geniessen. Z.B. auch, ob man die Besprechungen sprachlich modifiziert oder unmodifiziert einbettet. Wo liegt die Hürde? Die ist finanziell! Ich kann jetzt nicht mehr tausende Texte abändern.

Ich habe mit der site:-Abfrage 80000 Seiten im Index. Davon erzeugen aber lediglich 5000 mehr als 10 PI Traffik pro Monat. Genau um das geht es hier doch. Traffik.

Man kann durchaus spezielle Konstruktionen anschauen wie "domain.ch/domain.de/domain.at"-Konstrukte. Da könnte sowas sinn machen, wenn man die ganzen hreflang-Befehle einbaut (https://support.google.com/webmasters/answer/189077?hl=en)

Aber das zu diskutieren macht ja auch nur Sinn, wenn man genauere Angaben vom Fragesteller hat.
 
QUOTE (Peter Schneider @ Sa 24.01.2015, 11:49) Das ist doch die alleinige Frage hier. Im Index zu sein ist etwa so wertvoll wie ein Stück Klopapier ohne Ranking.

Absolut derselben Meinung.

Schlussendlich sind die Gesamtzahl der Besucher wichtig. Was auch immer für ein Rank oder Ranking spielt eh keine Rolle.

Man müsste eben mal eine gut laufende Seite als Test verdreifachen und danach zusammenrechnen wieviele Besucher noch da sind.
 
QUOTE Man müsste eben mal eine gut laufende Seite als Test verdreifachen und danach zusammenrechnen wieviele Besucher noch da sind.


Mein SEO-Kollege meint, never Change a Running System. Ich kann meine Aussage diesbezüglich nur mit den starken Ranking-Schwankungen kopierter Inhalte begründen.
 
Ja: und auch mit der Zeit vor dem DC und nach Einführung des DC-Filters. Das ist einfach augenscheinlich. Siehe die ganzen Wiki-Klone.

Ausserdem hat Google zu irgendeinem Zweck eine Zahl von Metas eingeführt (wie z.B. Canonical) oder auch die hreflang-Angaben, um das Erscheinen von DC in den SERPS zu verhindern.

Man kann schon dagegen versuchen anzukämpfen. Dann sprechen wir aber auch von Mehrkosten. Also Optimierungskosten und Frust, wenn irgendetwas von Heute auf Morgen aus den Serps verschwindet.

Und sorry nochmals, dass ich "Index" geschrieben habe. Im Index ist aller Müll...
In den Serps kommt nur das beste. LOL
 
QUOTE (Peter Schneider @ Sa 24.01.2015, 11:49)

Natürlich kommen die Seiten in den Index. Die Frage ist doch: WERDEN DIE SEITEN ANGEZEIGT!

Das ist doch die alleinige Frage hier. Im Index zu sein ist etwa so wertvoll wie ein Stück Klopapier ohne Ranking.

Angezeigt werden die Seiten. Das ist ebenfalls kein Problem. Aber wie gesagt, für richtige Webprojekte macht das keinen Sinn. Das ist genauso, als wenn man Schuhe für 30 Euro kauft. Man erhält auch nur Müll.
 
Danke für die vielen Antworten.

Ich habe mir weitere Gedanken darüber gemacht. Konkret geht es mir darum:

In Grossfirmen sind oft mehr oder weniger bekannte (gut gerankte) Spiele-Websites gesperrt. Darunter könnte auch meine Spiele-Website fallen. Ich könnte also mit einer 2. Domain (alle Daten sind kopiert auf einem anderen Server) auch die User erreichen, bei welchen solche Spiele-Websites gesperrt sind. Zwar würde ich diese Kopie als "noindex nofollow" einrichten. Da diese Kopie auf die selbe DB zugreift, ist eine solche Website-Kopie schnell eingerichtet.

Die 3. Domain und Kopie weiss ich noch nicht so genau. Diese möchte ich vielleicht in den index schicken "index follow".

Ihr seht, bin noch unschlüssig
biggrin.gif


Ach ja, im internen Bereich würde ich natürlich die Domain 2 bekannt geben, da diese ja sonst nicht gefunden wird. So meine Theorie.

Über konstruktive Kritik bin ich immer froh.

Grüsse
filOO
 
Zurück
Oben