CSV-Dateien Handling

Themenmixer

Aktives Mitglied
Hallöchen mal wieder!

Ich tummel mich ja nun auch schon ein Weilchen in der Affiliate-Szene und vermarkte mit mehr oder weniger großen Erfolg ein paar Programme. Aber was mich immer wieder beschäftigt ist die Sache mit den CSV-Dateien.

Ich stelle mir das so vor: Ich lade die Datei vom Anbieter herunter und bin so im Besitz vieler Produkt-Deeplinks. Aber wie verwalte ich die am besten?
Lese ich die Datei in eine MySQL-DB ein und bediene mich aus dieser? Oder lese ich die CSV-Datei bei jedem Seitenaufruf ein und scanne dann das Array durch? Wie mache ich das am besten?
Außerdem: Oftmals (?) ändern sich die Produkte der Shops. Das bedeutet wieder neue CSV-Dateien. Mir schwant, dass ich dann gezielte Deeplinks auf bestimmte Produkte immer erneut auf Gültigkeit prüfen muß. Aber wenn ich viele Deeplinks gesetzt habe artet das in einer Arbeit aus, die Sisyphus zur Ehre gereicht hätte.

Und - automatisiert ihr die Updates der CSV-Dateien oder ladet ihr die manuell in regelmäßigen Abständen aufs Neue herunter?

Wie also handelt ihr eure Produkt-CSV-Dateien? Ich würde mich freuen, wenn ihr da Tipps auf Lager hättet, die mir weiterhelfen. Vielleicht geht das ja via XML-Dateien um vieles besser?


Vielen Dank schonmal und sonnige, frostige Grüße vom Bodensee
Jörg

 
Ich habe mit so etwas auch noch nicht gearbeitet, aber sehe ich es nicht richtig, dass man theoretisch permanent die Daten neu vom Anbieter laden muss, da man ja auch in Echtzeit den aktuellen Preis benötigt?

Gruß
Benedikt
 
Naja, du musst ja nicht umbedingt die csv/xml Daten immer auf dem neusten Stand haben. Es ist ja nicht so, dass die Links sich ständig grundsätzlich verändern. Umso älter deine CSV Files sind, desto grösser wird halt die Chance, dass du z.B. veraltete Preise oder sogar Produkte im Index hast, die gar nicht mehr angeboten werden.
Wenn du z.B. eine Preisvergleichssuchmaschine erstellst, dann ist es natürlich wichtig, dass deine Preise tagesaktuell sind. Sprich: Die CSV Files sollten täglich aktualisiert werden.

Das aktualisieren der CSV Files kann man natürlich automatisieren. Da gibt es ganz verschiedene Wege. Z.B.: Cronjob oder auch ein php-Script
 
Ok - eine Preissuchmaschine möchte ich nicht gleich erstellen, aber ein paar sehr gezielte Produkte aus diversen CSV-Dateien zusammenkoppeln. :)
Wie handhabst du denn das Verarbeiten der Dateien?
Einmal runtergeladen liegt sie auf dem Webserver herum und dann?
Datenbank oder was?
Hier möchte ich mal lesen, was ihr so an Erfahrungswerten habt.
So eine CSV-datei ist ja mit einigen bis vielen MByte ja auch nicht gerade handlich.
 
was mich wundert ist, dass es von den anbietern keine lösungen gibt. die wollen ja schliesslich, dass man auf ihre seite klickt - also sollte da schon etwas hilfe von den anbietern vorhanden sein...

andererseite werden die csv-listen wahrscheinlich am meisten für spam-seiten verwendet, da hält man den support gering!

ich stelle es mir z. b. so vor:
die csv-listen kann man wunderbar mit etwas erfahrung in einen os-commerce-shop pressen (cronjob). dort muss dann scripttechnisch nur die artikelseite geändert werden, das ganze warenkorb-zeugs raus und schon hat man einen "online-shop", bestehend aus lauter "fremdartikeln".

stehen verschiedene csv-listen zur verfügung, hat man auch schon eine preissuchmaschine ;-)

was man mit refererabfragen da alles machen kann... - findet man ja oft genug im netz!

per php text ersetzen lassen für die suchmaschinen um doppelten content zu vermeiden... da gibts sicherlich feine sachen für leute mit viel zeit...

 
QUOTE ich stelle es mir z. b. so vor:
die csv-listen kann man wunderbar mit etwas erfahrung in einen os-commerce-shop pressen (cronjob). dort muss dann scripttechnisch nur die artikelseite geändert werden, das ganze warenkorb-zeugs raus und schon hat man einen "online-shop", bestehend aus lauter "fremdartikeln".

...und das Endergebnis sieht dann etwa so aus wie in meinem 1. Footerlink.

Alternativ kann man die Daten auch im Rahmen eines Shopping Portals verwenden (siehe mein 2. Footerlink) oder aber im Rahmen einer reinen Produktsuche.

Das grosse Problem ist meist nicht die Integration der Daten, sondern qualitativ gute Feeds zu finden, die wenig Nachbearbeitung benoetigen.

So, Themenmixer, ich hoffe nun bist Du inspiriert genug.

Gruss, Ivo
 
QUOTE (Themenmixer @ Mo 6.11.2006, 16:14) Ok - eine Preissuchmaschine möchte ich nicht gleich erstellen, aber ein paar sehr gezielte Produkte aus diversen CSV-Dateien zusammenkoppeln. :)
Wie handhabst du denn das Verarbeiten der Dateien?
Einmal runtergeladen liegt sie auf dem Webserver herum und dann?
Datenbank oder was?
Hier möchte ich mal lesen, was ihr so an Erfahrungswerten habt.
So eine CSV-datei ist ja mit einigen bis vielen MByte ja auch nicht gerade handlich.

Also =)

Da meine php Künste sehr auf einem jungräulichen Niveau sind, habe ich meine Mini Produktesuchmaschine folgendermasen erstellt:
Wird eine Suche durchgeführt, öffne ich die csv File mit fopen, schreibe das passende in ein Array und schliesse wieder mit fclose. Die Nebeneffekte dieser Variante liegen auf der Hand, jedesmal muss die csv Datei ins Memory geladen werden und bei einem Suchvorgang schnellt mein Proz auf bis zu 60%. =)
Die php-Profis hier im Forum werden wohl soeben ein paar Haare verloren haben, wenn Sie dies lesen.

@ivo Sind deine Projekte alle selber entwickelt? Vielleicht könntest du mal ein paar Tipps gegeben. Liest du die csv-Dateien in eine db ein?

Grüsse
 
QUOTE (Stefu @ Di 7.11.2006, 10:34)
QUOTE (Themenmixer @ Mo 6.11.2006, 16:14) Liest du die csv-Dateien in eine db ein?




na bestimmt, sonst sind die Zugriffszeiten ja gigantisch..
 
hmmm, könnte man aber auch (statt Datenbank) mit PHP und XML lösen, bei XML-Livefeed müsste man auch nichts aktualisieren :)
 
Falls jemand ernsthaftes Interesse an einem Preisvergleich im professionellen Bereich (mit XML- und CSV-Schnittstellen) hat, kann er sich mal bei mir melden.

Allerdings ist das Problem der technischen Realisierung meist das kleinste Problem bei einem Preisvergleich. Man braucht schon ein ordentliches Kapital und gute Partner um mit den großen auch nur halbwegs konkurrieren zu können.
 
Hallo,

ich sehe da ein ganz anderes Problem mit den CSV oder XML-Feeds das auf die Affiliate-Partner zukommt.
Ein reales Praxisbeispiel ob bei affili.net oder zanox, egal.
Bei vielen Affilinetpartnern die Zugang zu den CSV Daten haben und diese selbstverständlich täglich aktualisieren entsehen viele zig tausend Seiten, die gewünschter Weise bei Google indexiert werden.
Für eine Zeit lang kann das ganz gut laufen, für neue Sites. Nach drei - bis sechs Monaten stellt google fest, das es zig tausend domains mit gleichem Inhalt gibt und verbannt einige oder die meisten davon. Der Umsatz ist somit futsch, die Domains ausgebrannt bei google.
Wer glaubt es einfach mit neuen Domains zu wiederholen, wird vergeblich den Erfolg finden solange die Domain auf der gleichen IP sitzt.

Vielleicht hat euch dieser Artikel was gebracht. Ich wünsche viel Erfolg im Internet...

Gruß
Dragan
 
QUOTE (jb-net @ Mi 8.11.2006, 13:29)Falls jemand ernsthaftes Interesse an einem Preisvergleich im professionellen Bereich (mit XML- und CSV-Schnittstellen) hat, kann er sich mal bei mir melden.

Bitte mal mehr Infos. Danke.
 
Zurück
Oben