Suchmaschinenoptimierung

flirtratgeber

Legendäres Mitglied
Hallo,
ich hab www.blaulichtportal.com und dafuer dass es erst 1 Woche online ist, schon ganz passable User, wobei die User durch weiterreden Mundpropaganda kommen.

Google Analytics zeigt, dass ich eine hohe Besuchertreue habe.
Einziges Problem groesseres und das hab ich bei allen Seiten, ist die Suchmaschinenoptimierung.

Hier unter der Adresse:
http://www.ayom.com/shop/buch/top-platzier...hinen-p-31.html
das Buch hab ich getestet.Naja das hat mir nicht so gefallen als ich mir das ausgeliehen hab.
Zu grob.

Was will ich wissen ?
Wie muss man die Keyword Density machen
Was sind gute anzahl von meta tags ?
Wie muessen die Urls richtig formatiert sein?
Wie sollen die Meta Descriptions sein?

Hab das Problem wenn ich jetzt suche auf google:
http://www.google.de/search?hl=de&lr=&sa=G...lichtportal.com
1 suchergebniss

sollte aber mehr sein!

link:
http://www.google.de/search?hl=de&q=link%3...tnG=Suche&meta=
ergibt kein Ergebnis obwohl es links auf blaulichtportal.com gibt

und dafuer wenn ich nach "www.blaulichtportal.com" suche, so habe ich
http://www.google.de/search?hl=de&q=%22www...tnG=Suche&meta=
mehr ergebnisse!


Also meine Fragen.
Wo gibts "bessere Literatur"?
Wer kennt einen Algorythmus um automatisch bei einem Forum die Inhalte in eine Meta Descriptiopn umwandeln kann...ayom macht das ja auch irgendwie.... und wie find ich die meta keywords raus...?
 
Hallo Andreas,

so wie ich das im Moment bei betPedia beobachte, braucht google einfach ein wenig Zeit (Tage - Wochen) um alle Sites zu indexieren und die links auf dein Projekt zu erkennen.

Ich habe bereits deutlich mehr Links auf meine Website, als google das anzeigt!

Ich werde den weiteren Verlauf aufmerksam verfolgen!


Zu deinen anderen Punkten hätte ich auch gerne noch eine professionelle Antwort
biggrin.gif



Gruß,
Ingo
 
QUOTE Ich habe bereits deutlich mehr Links auf meine Website, als google das anzeigt!


Das wird auch vermutlich immer so bleiben, weil Google nur einen sehr geringen Teil der Backlinks anzeigt.

Für Backlinks nehme ich immer MSN

linkdomain:www.domain.de -> zeigt alle Links, die auf die Domain gehen
link:www.domain.de/seite.endung -> zeigt nur Links, die auf die jeweilige Seite geht

Wenn man dann noch in den Einstellungen einstellt, daß nur 1 Treffer pro Domain gezeigt wird, dann erhält man ein sehr gutes Ergebnis.

MSN ist aber oft sehr wählerisch was die Aufnahme einer Seite betrifft, deswegen werden dort zwar nicht so viele wie in Yahoo gefunden, dafür werden aber Footerlinks nicht 100x gezählt.
 
OK danke Rainer, fuer deine Information.
Und wo finde ich gute Literatur, fuer Seitenoptimierung?
Kann auch ein Tutorial(vorzugsweise deutschsprachig) sein.

Aber ich haette gern mehr Seiten indexiert und verstehe nicht ganz wieso er das nicht macht, Ausserdem würd ich Keywords gern optimieren...aber das sollen wirkliche Leitlinien sein...ich will das alles a bissal wissen ned nur soo grob ;-)
 
QUOTE (Andreas Ploetzeneder @ Mi 30.8.2006, 8:51)Und wo finde ich gute Literatur, fuer Seitenoptimierung?
Kann auch ein Tutorial(vorzugsweise deutschsprachig) sein.

Aber ich haette gern mehr Seiten indexiert und verstehe nicht ganz wieso er das nicht macht,

Ein Basic-Tutorial gibt es bei Abakus, das ist dort auf der Startseite verlinkt.

Und mehr indizierte Seiten gibt es nur, wenn es auch sehr viel mehr eingehende Links gibt - no Links, no google.
 
ok dann schau ich mal bei abakus.
Ja, das mit den Links ist mir klar, hab aber eigentlich schon 20 links auf meine seite von fremden...naja wird schon werden.
 
QUOTE (Andreas Ploetzeneder @ Mi 30.8.2006, 10:14) ok dann schau ich mal bei abakus.
Ja, das mit den Links ist mir klar, hab aber eigentlich schon 20 links auf meine seite von fremden...naja wird schon werden.

Das kann dauern ... Wochen ... oder sogar Monate.

Problematisch ist auch, wenn jede Seiten zu viel gleichen Inhalt hat. Also gleiche Meta-Daten, gleiches Menü, gleichen Footer und nur dazwischen vielleicht ein paar Prozent anderen Inhalt.
 
@ jAuer:

Müssen die Links auf die "Hauptseite" www.domain.de oder direkt auf die Unterseiten zeigen, damit google regelmäßig alle Sites indexiert?

@ Rainer:

Genau wie ich es oben auch schon sagte, es dauert einfach bis google die Seiten indexiert.
Nur, wie will man das erreichen, dass der Header, der Meta-Text, die Navi und der Footer sich ebenfalls zum Inhalt (in der Mitte) unterscheiden?

Edit: *gg* nicht vermeiden, sondern erreichen *gg*
Ach ja ich habe gerade gesehen, das mein kleines Plugin einen Teil des Contents an die Meta-Description je nach Inhalt nach der festen Description anfügt´

Gruß,
Ingo
 
Header => Da wird jetzt wohl nicht so viel Text stehen.

Meta-Text => Bei statischen Seiten halt andere rein und bei dynamischen Seiten muss man schauen, wie man das macht. Besser ist meiner Meinung nach sogar leer lassen als immer das immer das gleiche drin steht. Bei meiner Webmaster-Sonne.de habe ich vor 1 - 2 Wochen die Meta Des. und Keywords leer gemacht, seit dem tauchen viel mehr Seiten bei der Site-Abfragen auf. Zuvor nur die Index-Seite und der Rest war im DC-Filter. Titel ist immer noch überall gleich. Ich muss mal schauen ob ich den irgendwie rauslesen kann. Ich bin leider nicht so der php-Crack.

Navi => Habe ich bei einigen Seiten testweise per Javascript versteckt. MSN ist schon drauf angesprungen. Google noch nicht ganz. Meine Navi hat aber durch Pulldownmenüs locker 80 - 90 % des Quelltext ausgemacht. Hier muss man halt andere Wege finden, daß Google die Unterseiten findet. Am besten eine Sitemap anlegen und auf die verlinken.

Footer => Nicht viel schreiben oder per Javascript verstecken

Je mehr verschiedener Text vorhanden ist, desto mehr darf sich natürlich auch wiederholen.

Ich habe das Problem selber bei einigen Seiten und bin noch am Testen bei einigen Seiten, deswegen kann ich noch nicht mehr dazu sagen.
 
QUOTE (Ingo Just @ Mi 30.8.2006, 9:26)Müssen die Links auf die "Hauptseite" www.domain.de oder direkt auf die Unterseiten zeigen, damit google regelmäßig alle Sites indexiert?

Das hängt von der Struktur der Domain und der Stärker der eingehenden Links ab.

Deeplinks sind prinzipiell nicht schlecht, bei mir gehen die meisten Links auf Unterseiten, manche sogar auf Seiten der dritten Ebene.

Außerdem schmeißt google seit BigDaddy gerne Unterseiten raus, falls diese zu gleichartig sind - die werden erst gecrawlt und fliegen dann wieder raus. Da wurden die Kriterien verschärft.
 
QUOTE Außerdem schmeißt google seit BigDaddy gerne Unterseiten raus, falls diese zu gleichartig sind - die werden erst gecrawlt und fliegen dann wieder raus. Da wurden die Kriterien verschärft.


Das ist mir leider auch schon aufgefallen, deswegen versuche ich jetzt die Menüs und anderen gleichen Inhalt per Javascript auszulagern.
 
QUOTE (Rainer @ Mi 30.8.2006, 9:20)
QUOTE (Andreas Ploetzeneder @ Mi 30.8.2006, 10:14) ok dann schau ich mal bei abakus.
Ja, das mit den Links ist mir klar, hab aber eigentlich schon 20 links auf meine seite von fremden...naja wird schon werden.

Das kann dauern ... Wochen ... oder sogar Monate.

Problematisch ist auch, wenn jede Seiten zu viel gleichen Inhalt hat. Also gleiche Meta-Daten, gleiches Menü, gleichen Footer und nur dazwischen vielleicht ein paar Prozent anderen Inhalt.

also wuerdest an meiner stelle bei blaulichtportal.com die beschreibung raushaun oder ?
 
Andreas Ploetzeneder:

Meine Metadaten waren ungefähr gleich lang. Wenn die Meta Daten dann nicht im sichtbaren Text irgendwo stehen, dann bringt es meines Wissens überhaupt nichts. Ich würde die Metas rausmachen, aber ich will dann nicht schuldig sein, wenn gar keiner mehr kommt. Weil -> Google Wege sind unergründlich.
 
QUOTE (Andreas Ploetzeneder @ Mi 30.8.2006, 14:31)also wuerdest an meiner stelle bei blaulichtportal.com die beschreibung raushaun oder ?

Sieh zuerst in deinem Protokoll nach.

Wahrscheinlich sind die Unterseiten aufgrund zu weniger / zu schwacher Links nicht gespidert worden.

Nur wenn sie laut Protokoll gespidert wurden, aber nicht im Index erscheinen, kann die Struktur der Meta-Daten dafür mitverantwortlich sein.

Zu vermuten ist aber, daß google die Seiten noch nicht einmal angefaßt hat. Also können sie auch noch nicht wegen zu großer Ähnlichkeit wieder rausgeschmissen worden sein.
 
Rainer, du bist gr ned schuld,.... ich mach das alles auf eigene verantortung und auch keinen gewinn mit den seiten
@jauer, ich werd mir die logfiles anschaun! danke fuer die infos!
 
Hallo jAuer,

erstmal ein großes Lob jemand so komepetenten hier zu haben
biggrin.gif

Wie hier nun schon öffters angsprochen wurde fliegen zu ähnliche Seiten aus dem Index. Das ist nun zwischen dem Crawl am 23.08.06 und 27.08.06 geschehen.

Zuvor waren komplett alle Seiten (bis auf die neu hinzugekommen) im Index und jetzt sind es ca. die Hälfte weniger.

Wie versteckt man denn Inhalt (z. B. im Footer) vor den Suchmaschinen? Denn im Footer ist bei mir nichts wichtiges, wass gespidert werden soll.
Den Header habe ich noch nicht genau analysiert, was und wieviel sich auf den unterschiedlichen Seiten wiederholt.

Danke im Voraus!

Gruß,
Ingo
 
Sieht auf den ersten Blick nicht schlecht aus, dass werde ich mir doch gleich mal zu Gemüte führen.

Danke für den Tipp!
 
QUOTE (Ingo Just @ Do 31.8.2006, 7:32)Wie versteckt man denn Inhalt (z. B. im Footer) vor den Suchmaschinen? Denn im Footer ist bei mir nichts wichtiges, wass gespidert werden soll.

Das hat doch Rainer oben bereits beschrieben, wobei ich mit dieser Technik mangels Bedarf keine Erfahrung habe.

Solange allerdings die ganzen Titel der Unterseiten mit derselben riesigen Wortkette


QUOTE betPedia - Das Sportwetten-Lexikon, Wette, Sportwetten, Onlinewetten, Buchmacher, Wettanbieter, Quoten Blog Archiv


anfangen, sollte das erst einmal geändert werden - Titel sollten möglichst individuell und verschieden sein.
 
Zurück
Oben