Google's Konkurrenz

QUOTE Ich finde die Suchergebnisse mit den vier Farben höchst unübersichtlich. Die Url ist ziemlich schlecht lesbar, weniger Farben wäre da mehr.


Die farbenfrohe Version ist die aktuelle. Die Betaversion ist wesentlich übersichtlicher gestaltet. Für mich ist die Quali gleich gut wenn nicht höher als bei Google, kommt wie gesagt dazu, dass ich etwas gegen marktbeherrschende Firmen habe. Meines Erachtens ist Google eine solche oder kommt zumindest ganz nahe heran.

En schöne Tag
Christian
 
QUOTE die screenshots scheinen (zumindest bei meiner stichprobe) sehr aktuell, sprich <2 tage zu sein




also der screenshot meiner seite entspricht einer version die seit ca 1.5 jahren nicht mehr online ist ....
also absoluter widerspruch zu deiner aussage ...
 
hatte ich auch kurz, beim nächsten Aufruf war der Screenshot der neuen Seite drin (seit etwa 36Stunden online).
 
die hauptseite ist ist sehr veraltet drin, alle unterseiten sind korrekt ...
 
ich denke mal das die seite relativ schnell probleme mit den Jugendschutz bekommt
wink.gif


Wurde Google doch schon mehrfach angefochten, weil man mit speziellen Suchwoertern pornographisches Material findet, braucht es bei dieser Suchmaschiene noch nicht einmal spezielle Suchwoerter.
Also ein entsprechender Filter muss da noch eingebaut werden
wink.gif


Ansonsten gefaellt sie mir ganz gut.

MfG
GP
 
QUOTE (G.P. @ Do 14.9.2006, 11:45) ich denke mal das die seite relativ schnell probleme mit den Jugendschutz bekommt
wink.gif


Das glaube ich nicht, die Domain ist in Frankreich auf

Exalead S.A.
204, rue de Crimee
Paris, Paris 75019
FR

registriert. Ich vermute mal, daß denen der deutsche Jugendschutz ziemlich am Po vorbeigeht. Wenn dann sollte man eher mal Google.DE dicht machen.
 
jo, den deutschen Jugendschutz geht das nichts an, aber wenn ich mich nicht irre, ist der franz. auch recht aktiv geworden.
 
QUOTE
Ich vermute mal, daß denen der deutsche Jugendschutz ziemlich am Po vorbeigeht. Wenn dann sollte man eher mal Google.DE dicht machen.


Ja ist wirklich krass, die schliessen jede Website die auch nur ein falsches JPG drauf haben. Aber Google lassen sie laufen ...
 
Also ich muss schon sagen sieht interessant aus...

Die sollten aber noch ein wenig an den Suchergebnissen arbeiten.

Beispiel:
Suche nach "Green Dot Entertainment"
www.google.com: 1.Platz

Hmm, von dem her...
www.eyalead.com: nicht gefunden
 
QUOTE (ronnic @ Mi 13.9.2006, 22:33) Wegen der Screenshots habe ich folgendes gefunden - so mal als Gedankenansatz.
http://khtml2png.sourceforge.net/

Gruß Ronny

khtml2png is meiner Meinung nach sehr umständlich, immerhin muss man hier KDE komplett installieren. Außerdem funktionieren manche Seiten nicht mit KHTML, da KHTML sehr strikt nach den Standards geht.
Ich mach mir Screenshots immer per Firefox + Imagemagick (zusammen mit einem Bash-Script). Finde ich einfacher.
 
das mit den screenshots zu jeder seite ist echt ne prima sache.
Aber bis sich diese Google-Alternative durchsetzt wird noch einiges an PR und einiges
an Layoutänderungen erforderlich sein.
 
Jetzt sehe ich auch ein anderes Design. Orange URL und die grünen Kategorien auf weissen Hintergrund ist wohl wirklich etwas schwer zu lesen. Das Info-Zeugs auf der linken Seiten kostet doch nur unötig Platz.
 
Salute

Sieht echt toll aus.
Vorallem die Bilder habens mir angetan.

a propos, wenn kein Bild vorhanden ist und man
auf die Seite und wieder zurück geht, wird ein aktueller
Screenshoot gemacht und auch gleich angezeigt.


Gruss Peter
 
Ich grabe diesen Thread nochmals aus, da ich Euch nicht vorenhalten möchte, wo die Screenshots kostenlos erhältlich sind: Thumbshots

Ich hoffe Ihnen wurde geholfen.
biggrin.gif
Dankes-Links wie immer auf eines meiner Shopping Portale.
laugh.gif


Gruss, Ivo
 
Etwas OT:
Das mit den dyn. Screenshots ist so ne Sache. Unter Linux geht sowas recht fix mit z.B. PHP, SOFERN man kde nutzt, und keinen Safe_mode hat (also nicht gerade ideale Bedingungen) ;-)

Per "kwebdesktop res_x res_y datei url", per exec() aufgerufen, wird so der gewünschte Screenshot in der gewünschten Auflösung erzeugt. Mit konventionellen Mitteln (gdlib..) kann man den Shot dann noch verkleinern etc. Läuft eigentlich stabil, aber langsam und Resourcenfressend.

Ich baue für ein neues Projekt gerade sowas auf. Allerdings will ich nicht meine Server damit belasten, sondern werde "unabhängige" Kisten aufbauen, die sich per XML die zu machenden Screenshots auslesen, diese machen, verkleinern und wieder hochladen. So kann das ganze je nach Last 1A skalliert werden, und die Webserver laufen wie gewohnt zügig
wink.gif


Übrigens; browsershots.org ist auch ne ganz coole Geschichte..
 
Zurück
Oben