Parameter-Url (nicht) indexieren

VD

Aktives Mitglied
Hallo,
ich hab mal eine Anfängerfrage, und zwar möchte ich ganz normal meine Startseite(domain.tld/) indexiert haben, nun ist es aber so das es passieren kann das teilweise parameter auf die startseite übergeben werden müssen.. das würde dann so aussehen: domain.tld/parameter1=wert1&parameter2=wert2.... usw.
nun möchte ich aber NUR domain.tld indexieren und nicht irgendwelche urls mit parametern.. wie mache ich das? wenn ich bei allen aufrufen mit irgendwelchen parametern einfach noindex,nofollow setze, fliegt dann nicht die ganze seite also domain.tld aus dem index?
bzw. wie verhindere ich das indexieren von den parametern

ist recht dringend, würde mich deshalb über eine Antwort freuen.

grüße
valentin
 
stichwort: robots.txt

CODE
User-agent: *
Disallow: /parameter



dann werden alle url's die mit /parameter beginnen nicht indiziert. alle anderen aber schon.
 
hey. danke für die schnelle antwort..
also ginge:
Disallow: /?show
Disallow: /?page
?
muss ich da nich noch nen "Joker" setzen? also:
Disallow: /?show*
Disallow: /?page*
 
ja das ginge!

und nein, den joker musst du nicht setzen. und solltest du auch nicht!
bei der robots.txt kannst du dir den rechtsbündigen joker immer dazu denken.

Disallow: /?

würde also schon reichen.
 
QUOTE (Tim Blog @ Mo 6.08.2007, 16:00) Eine andere Möglichkeit wäre ein noindex tag im head, sobald ein parameter übergeben wird. Du solltest in der robots.txt noch einmal Google direkt ansprechen (siehe http://www.ehlunding.de/blog/207/inhalte-u...ollt-im-index/) sonst übersieht der das gerne mal.

ich glaube da tust du google unrecht.

hatte auch schon ein paar mal den fall, dass seiten trotz disallow in der robots.txt im index waren. beim ersten mal dachte ich noch es gäbe einen unterschied zwischen disallow: seite.html und disallow: /seite.html. weil nach dem editieren war alles in ordnung.
beim zweiten mal kam dann aber die erleuchtung. es lag an den zugriffsrechten! beim übertragen per ftp sind wohl die lokalen zugriffsrechte (nur eigentümer darf lesen) mit übertragen worden. und wenn ich niemanden ausser mir erlaube die robots.txt zu lesen, kann ich mich auch nicht beschweren wenn sich niemand daran hält
wink.gif


bevor fragen kommen: wenn man im browser die datei mit domain.tld/robots.txt aufrufen kann, dann ist alles in ordnung.
 
so... überall wo parameter vorkommen setzt ne php funktion jetzt hofftl. ein noindex-metatag
und in der robotstxt isses auch noch mal verboten, und noch einmal für google extra
danke euch.
 
Zurück
Oben