Josh
Legendäres Mitglied
hi alle.
ist es möglich, das spidern einer seite zu verhindern? meine situation ist die folgende:
ich habe eine seite, welche viele infos bietet. diese infos sind je nach den vom benutzer gewählten kriterien anders aufbereitet. diese kriterien werden mit GET params an php geleitet und dann der inhalt aufbereitet.
ich möchte nun, um die suchmaschine nicht vollzuspammen mit 100 verschiedenen varianten des aufbereiteten contents, die spider nur "reinlassen", wenn die standardaufbereitung angezeigt wird.
also werde ich mittels php evaluieren, ob kriterien angegeben wurden. wenn ja, dann soll der spider gesperrt werden; wenn nein, dann ist alles ok.
wie kann ich das am besten machen? gibt es dafür meta tags, und wenn ja, wie wirkungsvoll sind sie in realität?
vielen dank.
josh
ist es möglich, das spidern einer seite zu verhindern? meine situation ist die folgende:
ich habe eine seite, welche viele infos bietet. diese infos sind je nach den vom benutzer gewählten kriterien anders aufbereitet. diese kriterien werden mit GET params an php geleitet und dann der inhalt aufbereitet.
ich möchte nun, um die suchmaschine nicht vollzuspammen mit 100 verschiedenen varianten des aufbereiteten contents, die spider nur "reinlassen", wenn die standardaufbereitung angezeigt wird.
also werde ich mittels php evaluieren, ob kriterien angegeben wurden. wenn ja, dann soll der spider gesperrt werden; wenn nein, dann ist alles ok.
wie kann ich das am besten machen? gibt es dafür meta tags, und wenn ja, wie wirkungsvoll sind sie in realität?
vielen dank.
josh