Schrift
Wiki:Tipp zum Debugging: use Data::Dumper; local $Data::Dumper::Useqq = 1; print Dumper \@var;
[thread]769[/thread]

In einer Schleife maximal 30 Sekunden warten: ... sonst den nächsten bearbeiten. WIE? (Seite 2)

Leser: 1


<< |< 1 2 >| >> 13 Einträge, 2 Seiten
olruebe01
 2006-07-06 01:42
#8237 #8237
User since
2006-01-19
192 Artikel
BenutzerIn
[default_avatar]
Hi Kristian,

lustige Vorwürfe auch. Ist Dir bekannt, dass manche Seiten (oder wie auch immer) extra Informationen für solche Zwecke bereitstellen? Merke: Es ist nicht ausgeschlossen, dass soetwas auch legal stattfindet.

Schöne Grüße,
Oliver
kristian
 2006-07-06 02:39
#8238 #8238
User since
2005-04-14
684 Artikel
BenutzerIn
[Homepage] [default_avatar]
Hallo

Erstmal, ich will und wollte dir nicht persönlich ans Bein pissen sondern die Community zum Nachdenken anregen.
Es ist bestimmt nicht ausgeschlossen, dass so etwas legal stattfindet, allerdings gibt es dann Regeln und Umgangsformen.
Das was du da bastelst ist ein Robot. Robots beachten die robots.txt oder werden entsorgt.
Ich kann mir keinen Grund vorstellen, warum dich Seiten ausperren, wenn du dich an die Regeln hälst.
Hast du bei dem Betreiber der Seite X, die dir Probleme macht, mal nachgefragt?

Gruss Kristian
olruebe01
 2006-07-06 03:52
#8239 #8239
User since
2006-01-19
192 Artikel
BenutzerIn
[default_avatar]
Hallo Kristian,

es ist nicht so, dass mich der Betreiber ausschliesst, sondern der Server war / ist down. Da ich diese Aktion aber per Cronjob jede Nacht wiederhole, hat mich das zum denken gebracht und wollte einfach eine gewisse Sicherheit, dass eine kurzzeitige unnerreichbarkeit einer einzelnen URL nicht den gesammten weiteren Ablauf stoppt...

Um das abzuschliessen: Ich bin berechtigt diese Informationen abzurufen und es geht lediglich um (meine) Statistiken, die ich von anderen Servern bekomme.

Schöne Grüße,
Oliver
<< |< 1 2 >| >> 13 Einträge, 2 Seiten



View all threads created 2006-07-04 19:44.