Schrift
Wiki:Tipp zum Debugging: use Data::Dumper; local $Data::Dumper::Useqq = 1; print Dumper \@var;
[thread]2950[/thread]

libwww oder libcurl oder fertiges programm: .. das ist hier die frage

Leser: 1


<< >> 10 Einträge, 1 Seite
subsys
 2005-10-14 16:05
#29564 #29564
User since
2005-03-08
27 Artikel
BenutzerIn
[default_avatar]
Hi zusammen,

ich bräuchte einen Art "Downloadmanger" unter Linux mit folgenden Features:

- sollte eine Art Downloadliste abarbeiten können (aus Datei, DB usw.)
- HTTP und FTP
- möglichst meherere Downloads gleichzeitig können
- keine graphische GUI .. nur Kommandozeile, da ich gerne automatisieren möchte

Vielleicht hat einer von euch schon ein Tool in die Richtung ? Ich habe selbst schon etwas herumgesucht aber leider nichts in die Richtung finden können.
Bin auch über Codeschnipsel dankbar!

Meine ersten Schritte waren mit LWP. Bin nun auch über libcurl gestossen, die von sich behaupten besser als libwww zu sein. Was würdet ihr einsetzen ? Wo habt ihr schon Erfahrungen gemacht ?
esskar
 2005-10-14 16:32
#29565 #29565
User since
2003-08-04
7321 Artikel
ModeratorIn

user image
wget?
renee
 2005-10-14 16:38
#29566 #29566
User since
2003-08-04
14371 Artikel
ModeratorIn
[Homepage] [default_avatar]
libcurl kenne ich nicht, aber mit CPAN:LWP habe ich bisher ganz gute Erfahrungen gemacht...
OTRS-Erweiterungen (http://feature-addons.de/)
Frankfurt Perlmongers (http://frankfurt.pm/)
--

Unterlagen OTRS-Workshop 2012: http://otrs.perl-services.de/workshop.html
Perl-Entwicklung: http://perl-services.de/
subsys
 2005-10-14 16:54
#29567 #29567
User since
2005-03-08
27 Artikel
BenutzerIn
[default_avatar]
Mit wget habe ich leider das Problem, dass er nicht checkt, ob ein bestimmtes File zu gross ist, bevor er es lädt.
Der macht das laut man-page nur auf rekursive Listen oder ftp Verzeichnisse. Und das erst wenn er komplett alles
heruntergeladen hat.
sri
 2005-10-27 12:43
#29568 #29568
User since
2004-01-29
828 Artikel
BenutzerIn
[Homepage] [default_avatar]
WWW::Curl (woran ich mitgearbeitet hab) sollte alles koennen was du brauchst, insbesondere parallele downloads (kann sonst kein Perl Modul), allerdings ist die API noch sehr C lastig.
lichtkind
 2005-10-27 19:17
#29569 #29569
User since
2004-03-22
5680 Artikel
ModeratorIn + EditorIn
[Homepage]
user image
dürfte curl nicht schneller sein ?
Wiki:Tutorien in der Wiki, mein zeug:
kephra, baumhaus, garten, gezwitscher

Es beginnt immer mit einer Entscheidung.
ptk
 2005-10-28 01:45
#29570 #29570
User since
2003-11-28
3645 Artikel
ModeratorIn
[default_avatar]
[quote=sri,27.10.2005, 10:43]<a href="http://cpansearch.perl.org/dist/WWW-Curl/" target="_blank">WWW::Curl</a> (woran ich mitgearbeitet hab) sollte alles koennen was du brauchst, insbesondere parallele downloads (kann sonst kein Perl Modul), [/quote]
CPAN:LWP::Parallel::UserAgent
sri
 2005-10-29 05:55
#29571 #29571
User since
2004-01-29
828 Artikel
BenutzerIn
[Homepage] [default_avatar]
[quote=ptk,27.10.2005, 23:45][quote=sri,27.10.2005, 10:43]<a href="http://cpansearch.perl.org/dist/WWW-Curl/" target="_blank">WWW::Curl</a> (woran ich mitgearbeitet hab) sollte alles koennen was du brauchst, insbesondere parallele downloads (kann sonst kein Perl Modul), [/quote]
CPAN:LWP::Parallel::UserAgent[/quote]
Gaenzlich nutzlos, da voll mit bugs und unglaublich langsam...
ptk
 2005-11-06 21:56
#29572 #29572
User since
2003-11-28
3645 Artikel
ModeratorIn
[default_avatar]
Erzähl mal Genaueres, da ich es auch verwende und nicht in die Bugs reinstolpern möchte...
ptk
 2005-11-16 12:12
#29573 #29573
User since
2003-11-28
3645 Artikel
ModeratorIn
[default_avatar]
Ich habe jetzt kurz in WWW::Curl reingeguckt und bin skeptisch. Das Modul lässt sich nicht von CPAN.pm aus installieren (Test erwartet eine interaktive Eingabe, die man allerdings nicht sieht, also muss man "notest install WWW::Curl" verwenden). Wahrscheinlich gibt es deshalb nur sehr wenige Test-Reports bei den cpantesters. Die Dokumentation ist praktisch nicht vorhanden. Wenn ich das Beispiel in WWW::Curl::Easy verwende, dann wird die gesamte Ausgabe nach STDOUT geschrieben (?!), Header-Parsing etc. wird dem Benutzer überlassen.
<< >> 10 Einträge, 1 Seite



View all threads created 2005-10-14 16:05.