Schrift
Wiki:Tipp zum Debugging: use Data::Dumper; local $Data::Dumper::Useqq = 1; print Dumper \@var;
[thread]595[/thread]

Floodingschutz (wiederholtes Posten) in Gästebuch: Wie würdet ihr das am besten machen?



<< |< 1 2 >| >> 19 Einträge, 2 Seiten
GwenDragon
 2005-10-19 21:57
#5837 #5837
User since
2005-01-17
14540 Artikel
Admin1
[Homepage]
user image
Nachdem es immer wieder unliebsame Zeitgenossen gibt, die mit Bots und sonstigen Viechern auf Gästebücher und Foren losgehen, wollte ich euch einmal fragen, wie ihr am sinnvollsten einen Schutz dagegen programmiert.

Ich meine das Flooding.

Ich habe da so ein paar Ideen:

* IP und Unixtime mitloggen und dann bei gleicher IP 2 Minuten sperren

* IP loggen und testen, ob Inhalt des vorherigen Posts der gleiche des jetzigen ist; kann allerdings auch aus Versehen passieren durch Drücken von Reload im Browser
die Drachin, Gwendolyn


Unterschiedliche Perl-Versionen auf Windows (fast wie perlbrew) • Meine Perl-Artikel

betterworld
 2005-10-19 22:28
#5838 #5838
User since
2003-08-21
2613 Artikel
ModeratorIn

user image
Quote
kann allerdings auch aus Versehen passieren durch Drücken von Reload im Browser
Macht ja nichts. Es ist doch nicht schlimm, wenn auch versehentliches Doppeltposten vermieden wird. Nur sollte man halt nicht gleich die IP-Adresse blocken.

Viele Leute missbrauchen Gaestebuecher ja, um Links auf ihre Seite zu setzen (wegen Google). Dagegen kann man ein bisschen angehen, indem man a rel=nofollow benutzt und auf der Formularseite erklaert, dass man das tut. Hilft allerdings nichts gegen automatisiertes Spammen und solches, dessen Ziel nicht die Selbstwerbung ist.
Gast Gast
 2005-10-19 22:40
#5839 #5839
Naja, das Doppel-Request-Problem löst man einfach mit einem Redirect nach dem POST :)
esskar
 2005-10-20 01:55
#5840 #5840
User since
2003-08-04
7321 Artikel
ModeratorIn

user image
[quote=betterworld,19.10.2005, 20:28]a rel=nofollow[/quote]
was tut das?
GwenDragon
 2005-10-20 12:38
#5841 #5841
User since
2005-01-17
14540 Artikel
Admin1
[Homepage]
user image
@betterworld

Wenn ein Spammer aber ein Skript benutzt und mehrere Hundert Anfragen per Post sendet, dann ist das ein Problem.

Also besser Lösung 2: Testen ob vorheriger Inhalt derselbe und dann nicht eintragen, oder?
die Drachin, Gwendolyn


Unterschiedliche Perl-Versionen auf Windows (fast wie perlbrew) • Meine Perl-Artikel

Ronnie
 2005-10-20 13:01
#5842 #5842
User since
2003-08-14
2022 Artikel
BenutzerIn
[default_avatar]
[quote=esskar,19.10.2005, 23:55][quote=betterworld,19.10.2005, 20:28]a rel=nofollow[/quote]
was tut das?[/quote]
informiert Suchmaschinen das Links von dieser Seite nicht zu gewichten sind, das heisst deren Ranking steigt dadurch nicht.
Ronnie
 2005-10-20 13:03
#5843 #5843
User since
2003-08-14
2022 Artikel
BenutzerIn
[default_avatar]
[quote=GwenDragon,20.10.2005, 10:38]Also besser Lösung 2: Testen ob vorheriger Inhalt derselbe und dann nicht eintragen, oder?[/quote]
Oder du verwendest Captchas. Ist bei Blogs sehr beliebt.
Gast Gast
 2005-10-20 14:48
#5844 #5844
Aber bloß nicht bei Seiten einsetzen, die Zugänglichkeitsrichtlinien erfüllen müssen.
Gast Gast
 2005-10-30 16:30
#5845 #5845
Wie wäre es denn mit einer Session? Daran kannst Du dann die Bedingung knüpfen, dass nur 1 Posting pro Minute zulässig ist. Wenn man dann doppelt posten will, müßte man erst jedesmal neu auf das Script zugreifen um eine neue Session zu bekommen. - Wenn das nicht greift, dann koppel es noch mit der IP. (Wäre aber eher die letzte Wal)
vayu
 2005-10-31 12:22
#5846 #5846
User since
2005-01-13
782 Artikel
BenutzerIn
[default_avatar]
Das versehentliche Doppelposten wollte ich auch per redirect lösen, aber irgendwie will das noch nicht so recht. Habs dann einfach so gemacht, dass ich nen Link ausgebe auf den man klickt, um zum gästebuch zurückzukommen.
<< |< 1 2 >| >> 19 Einträge, 2 Seiten



View all threads created 2005-10-19 21:57.