Schrift
Wiki:Tipp zum Debugging: use Data::Dumper; local $Data::Dumper::Useqq = 1; print Dumper \@var;
[thread]9825[/thread]

[Poard] Bugs (Seite 36)

Leser: 11


<< |< 1 ... 33 34 35 36 37 >| >> 366 Einträge, 37 Seiten
renee
 2009-01-08 20:19
#117725 #117725
User since
2003-08-04
14371 Artikel
ModeratorIn
[Homepage] [default_avatar]
esskar+2009-01-08 19:12:28--
läuft ;)


Wer lesen kann ist klar im Vorteil ;-) Ich habe geschrieben, dass ich es erst noch genauer teste bevor ich es auf den Server lade ;-)
OTRS-Erweiterungen (http://feature-addons.de/)
Frankfurt Perlmongers (http://frankfurt.pm/)
--

Unterlagen OTRS-Workshop 2012: http://otrs.perl-services.de/workshop.html
Perl-Entwicklung: http://perl-services.de/
Antworten mit Zitat
renee
 2009-01-08 20:20
#117747 #117747
User since
2003-08-04
14371 Artikel
ModeratorIn
[Homepage] [default_avatar]
Gast+2009-01-08 19:17:09--
URLs werden doch gepostet!
Sind halt keine Links, aber das ist trotzdem lesbarer Spam.


Ganz so restriktiv muss man ja nicht sein. Ich hätte vielleicht deutlicher machen sollen, dass es Links sind, die nicht erlaubt sind.

Aber Patches sind durchaus willkommen (auch zu allen anderen Bugs).
OTRS-Erweiterungen (http://feature-addons.de/)
Frankfurt Perlmongers (http://frankfurt.pm/)
--

Unterlagen OTRS-Workshop 2012: http://otrs.perl-services.de/workshop.html
Perl-Entwicklung: http://perl-services.de/
Antworten mit Zitat
GwenDragon
 2009-01-08 20:35
#117751 #117751
User since
2005-01-17
14542 Artikel
Admin1
[Homepage]
user image
Ich finde schon, dass es restriktiv gehört. Bin halt vorsichtig.

Wenn nämlich hier mit illegalen Inhalten gespammt wird, und es nicht schnell genug entfernt wird, dann gibt es Ärger.

Aber das soll halt jemand entscheiden, der auch den Kopf juristisch hinhalten muss.
die Drachin, Gwendolyn


Unterschiedliche Perl-Versionen auf Windows (fast wie perlbrew) • Meine Perl-Artikel

Antworten mit Zitat
renee
 2009-01-08 23:16
#117757 #117757
User since
2003-08-04
14371 Artikel
ModeratorIn
[Homepage] [default_avatar]
Es gibt ja aber keine direkten Verweise auf andere Seiten. Man muss sich ja dann schon die Arbeit machen und die Adresse kopieren und im Browser aufzurufen.

Außerdem müsste man dann *alle* Beiträge vor dem Veröffentlichen freigeben, da ja im Prinzip jeder "spammen" oder auf illegale Inhalte hinweisen kann.
OTRS-Erweiterungen (http://feature-addons.de/)
Frankfurt Perlmongers (http://frankfurt.pm/)
--

Unterlagen OTRS-Workshop 2012: http://otrs.perl-services.de/workshop.html
Perl-Entwicklung: http://perl-services.de/
Antworten mit Zitat
LanX-
 2009-01-08 23:35
#117758 #117758
User since
2008-07-15
1000 Artikel
BenutzerIn

user image
renee+2009-01-08 22:16:19--
Es gibt ja aber keine direkten Verweise auf andere Seiten. Man muss sich ja dann schon die Arbeit machen und die Adresse kopieren und im Browser aufzurufen.


Hast ja recht, aber mein Ziel wäre es schon den Spammer effizient zu frustrieren udn dauerhaft abzuwimmeln!

Wenn die URL nicht verlinkt wird stört das nen Bot wenig, wenn er mit URLs immer abgewiesen wird gibt er auf!

Und Gästen sollte es zumutbar sein, sich einen Account zu besorgen wenn sie denn unbedingt URLs posten wollen. Zur Not können sie ja auch URLs zerhacken, z.B. www-unparsable-de. Das nutzt aber nem Spammer wenig...


renee+2009-01-08 22:16:19--
Außerdem müsste man dann *alle* Beiträge vor dem Veröffentlichen freigeben, da ja im Prinzip jeder "spammen" oder auf illegale Inhalte hinweisen kann.


Rechtlich ist es IMHO so dass es eine Moderation geben muss die zeitnah löscht, und das ist ja gegeben. Was aber nicht sein kann, ist dass man resigniert und nen Spambot walten lässt, nach dem Motto "weiß ja jeder, dass in dem Thread nur Blöde draufklicken". Illegal ist nun mal illegal!
Antworten mit Zitat
esskar
 2009-01-09 00:15
#117762 #117762
User since
2003-08-04
7321 Artikel
ModeratorIn

user image
ja. habt ja recht.
ich hab übrigens ne nette methode, um mich vor spam bots zu schützen:
* ich erzeuge die feld-namen dynamisch und merke mir sie pro session
* ich hab zusätzlich felder mit namen wie "email", "name", "url", die ich mit css-verstecke (ok, unvorteilhaft bei lynx); wenn man die ausfüllt (was ein bot möglicherweise tut), wird der post abgelehnt
* wenn man felder abschickt, deren generierungsdatum > ist als 30 min, lehne ich den post ab

hilft echt viel
Antworten mit Zitat
LanX-
 2009-01-09 00:28
#117764 #117764
User since
2008-07-15
1000 Artikel
BenutzerIn

user image
Hatte ähnliche Ideen ... aber hier ist es nicht nur entscheidend einen guten Schutz zu haben sondern auch ein für gemeinnützig Schaffende auch einfach wartbares Verfahren zu haben.

Da ist IMHO ein simples abschalten von Features für Gäste noch am vertretbarsten...

Hab übrigens jahrelang problemlos ein Forum betrieben wo der submitbutton erst per JS geschrieben wurde. 8 )
Antworten mit Zitat
topeg
 2009-01-09 07:56
#117766 #117766
User since
2006-07-10
2611 Artikel
BenutzerIn

user image
Wie währe es mit einer Linkdatenbank.
Wenn ein registrierter Nutzer eine URL postet kommt diese in die DB, dann darf ein Gast Die selbe URL posten. Es sollte sogar reichen nur den Hostnamen zu speichern/testen, dann kann auch auf andere Seiten auf dem selben Server verwiesen werden, ohne sie explizit in der DB stehen zu haben.
Dazu müssten wohl alle alten Posts nach URLs abgeklappert werden, um eine Basis zu bekommen.

Alternativ könnte man eine vom Admin gepflegte Blacklist anlegen gegen die geprügft wird.
Antworten mit Zitat
renee
 2009-01-09 10:15
#117767 #117767
User since
2003-08-04
14371 Artikel
ModeratorIn
[Homepage] [default_avatar]
topeg+2009-01-09 06:56:56--
Wie währe es mit einer Linkdatenbank.
Wenn ein registrierter Nutzer eine URL postet kommt diese in die DB, dann darf ein Gast Die selbe URL posten. Es sollte sogar reichen nur den Hostnamen zu speichern/testen, dann kann auch auf andere Seiten auf dem selben Server verwiesen werden, ohne sie explizit in der DB stehen zu haben.
Dazu müssten wohl alle alten Posts nach URLs abgeklappert werden, um eine Basis zu bekommen.

Alternativ könnte man eine vom Admin gepflegte Blacklist anlegen gegen die geprügft wird.


Patches welcome ;-)

Ich werde in die Sache nicht allzuviel Energie setzen, da ich z.Zt. hier ziemlich alleine bin, mich auch ein wenig um mein Unternehmen kümmern muss und ich immer noch die Hoffnung habe, dass wir im Laufe von 2009 auf battie umsteigen (zu pq schiel *g*)
OTRS-Erweiterungen (http://feature-addons.de/)
Frankfurt Perlmongers (http://frankfurt.pm/)
--

Unterlagen OTRS-Workshop 2012: http://otrs.perl-services.de/workshop.html
Perl-Entwicklung: http://perl-services.de/
Antworten mit Zitat
renee
 2009-01-09 10:27
#117768 #117768
User since
2003-08-04
14371 Artikel
ModeratorIn
[Homepage] [default_avatar]
LanX-+2009-01-08 22:35:06--
Wenn die URL nicht verlinkt wird stört das nen Bot wenig, wenn er mit URLs immer abgewiesen wird gibt er auf!
Was meinst Du mit abgewiesen? Wenn eine Seite mit einer "Fehlermeldung" kommt, bekommt er trotzdem eine 200 OK. Wenn der Bot den Inhalt der Seite nicht auswertet, wird er trotzdem nicht aufgeben!

LanX-+2009-01-08 22:35:06--
renee+2009-01-08 22:16:19--
Außerdem müsste man dann *alle* Beiträge vor dem Veröffentlichen freigeben, da ja im Prinzip jeder "spammen" oder auf illegale Inhalte hinweisen kann.


Rechtlich ist es IMHO so dass es eine Moderation geben muss die zeitnah löscht, und das ist ja gegeben. Was aber nicht sein kann, ist dass man resigniert und nen Spambot walten lässt, nach dem Motto "weiß ja jeder, dass in dem Thread nur Blöde draufklicken". Illegal ist nun mal illegal!


Es ist ja eben *nicht* mehr zum draufklicken. Es ist also von dem User wesentlich mehr Aktion gefragt.

Außerdem gibt es ja noch mehr Überprüfungen als nur die eine ob ein Link in der Nachricht ist. Nur muss hier eine Liste gepflegt werden und ich habe keine Zeit mich Tag und Nacht hinzusetzen und das zu pflegen.

Edit: Es wäre schön, wenn wir diese Diskussion vielleicht in einem anderen Thread weiterführen könnten. Sonst wird dieser Thread ziemlich unübersichtlich.
OTRS-Erweiterungen (http://feature-addons.de/)
Frankfurt Perlmongers (http://frankfurt.pm/)
--

Unterlagen OTRS-Workshop 2012: http://otrs.perl-services.de/workshop.html
Perl-Entwicklung: http://perl-services.de/
Antworten mit Zitat
<< |< 1 ... 33 34 35 36 37 >| >> 366 Einträge, 37 Seiten



View all threads created 2007-07-30 01:21.