Google Post zum Thema Linkbuilding

SeoSpider Murphy

Aktives Mitglied
Auf dem Google webmaster central gibts aktuell einen sehr interessanten Artikel zum Thema Backlinks von Pseudo-Blogs ...

Tipps und Anmerkungen zum Linkbuilding

Im WWW wird fleißig diskutiert, ob Google eigentlich diese minderwertigen Links erkennen und rausfiltern kann, oder eigentlich damit überfordert ist und deshalb um "Mithilfe" bittet.

Jedenfalls dürften einige für das Thema Linkaufbau von Schrottseiten sensibilisiert worden sein, und Marktplätze wie seolista und ranksider kommen bei den internetkapitänen alles andere als gut weg...


<<Newlines aus den Sätzen entfernt>>
 
Danke für den Hinweis... Und ein wirklich schöner Song, wenngleich konsequent einen Ton daneben gesungen... ;-)
 
Hab ich die versteckte Botschaft an alle SEOs richtig herausgelesen?

"Gebt euch bitte nicht so viel Mühe, wie können schlechten Content, minderwertige Blogs und dubiose Links sowieso nicht automatisch erkennen."
 
Hey!

Man soll minderwertige Links kontrollieren und diese gegebenenfalls entfernen lassen.

Das mag ja bei Seiten funktionieren, die wenige Links haben, was ist den mit den großen Seiten, das ist ja dann eine Lebensaufgabe das alles zu kontrollieren!
Am Besten 50 Praktikanten einstellen, die das dann rausfiltern. Das halte ich für ein wenig übertrieben.

Oder gibt es eine Software, die schlechte Seiten erkennt?

Gruß Micha
 
Hm das würde mich auch mal interessieren, wie stark das Linkbuilding in Blogs die Position nach oben zieht. Meistens kann mans ja nicht unterscheiden, weil es ja nur recht wenige nur in Blogs machen.
 
Für mich ist das sowieso immer so eine Sache.
Google kann doch nicht einfach Seiten abstrafen nur weil Sie viele Links von "minderwertigen" Seiten haben.

Da sind wir doch wieder an dem Punkt, dass man einen Mitbewerber mit solchen Links schaden kann. Für mich ist das ein Mythos.
 
Erstens würde ich die Aussagen von Google nicht für bare Münze nehmen. Zu Recht möchte sich Google nicht in die eigenen Karten schauen lassen um nicht manipuliert zu werden. Ich sehe dies so ähnlich wie Kommentare von Zentralbankern, die können auch nicht alles sagen um die Märkte damit nicht zu beeinflussen. Mit ein wenig gesundem Menschenverstand lassen sich aber die Ziele von Google und den Zentralbanken abschätzen. So ist Google zwangsläufig darauf angewiesen, seiner suchenden Klientel möglichst passende Ergebnisse zu präsentieren, ansonsten werden sie durch eine andere, besser funktionierende Suchmaschine vom Markt verdrängt werden. Aus genau diesem Grunde ist davon auszugehen, dass mit einigen schlechten Links (bad neighbourhood) nicht einfach eine Webseite abgestraft wird, ansonsten liesse sich die Konkurrenz ja problemlos ausschalten. Ich nehme an, es geht dabei um das Verhältnis zwischen guten und schlechten Backlinks. Anstatt schlechte Backlinks zu entfernen ist es folglich vermutlich effizienter, neue gute Links zu erstellen.
Weiter ist immer auch zu bedenken, dass die Rechenleistung und damit die Möglichkeit von Google zunehmen. Vermutlich könnte Google heute bereits viel bessere Ergebnisse liefern und viele Manipulationsversuche ausfiltern, jedoch wird sich dies unter ökonomischen Kriterien noch nicht lohnen. Um gut gefunden zu werden auf Google ist also ein langfristiger Ansatz sinnvoll.
 
Zurück
Oben