Schrift
Wiki:Tipp zum Debugging: use Data::Dumper; local $Data::Dumper::Useqq = 1; print Dumper \@var;
[thread]3967[/thread]

Bannerwerbung für Perl-Job auf dieser Website (Seite 6)



<< |< 1 ... 3 4 5 6 >| >> 53 Einträge, 6 Seiten
GwenDragon
 2006-04-13 19:49
#36141 #36141
User since
2005-01-17
14542 Artikel
Admin1
[Homepage]
user image
Die robots.txt ist nützlich um z. B. den gefräßigen MSN-Bot am dauerspidern zu hindern und im Grafiken, Javascripte, Textdateien etc. aus zu schließen. Das reduziert den Traffic.

Ein URLmod ist schon schwieriger.
bla.cgi?id=blubb&hier=nochwas => bla.cgi/id=blubb;hier=nochwas wäre sinnvoll.
Das bedeutet aber, dass anstatt des REQUEST_STRING dann PATH_INFO genommen wird.
Alte ?...& könnten ja mit mod_rewrite umgebogen werden.
die Drachin, Gwendolyn


Unterschiedliche Perl-Versionen auf Windows (fast wie perlbrew) • Meine Perl-Artikel

jan
 2006-04-13 21:17
#36142 #36142
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
msn soll doch ruhig spidern. vielleicht schickt er dafür ja auch ein paar besucher.
und grafiken .. mh, das ist sowieso so ein problem. google images zb hält sich nicht an die robots.txt (hat sich da mittlerweile eigentlich was geändert?). ich persönlich geh da eher den weg, bots, die ich nicht haben will, mit einem freundlichen deny zu begrüßen. google images zählt dazu, wenn ich nicht gerade will, dass er meine bilder spidert (was manchmal interessant sein kann, es suchen doch einige leute mit google images - wenn auch primär nach "pokemon sex" u.a.). das kann man ja auch dateibasiert machen.

und urlmods lassen sich mit mod_rewrite ja wunderbar herstellen. hält sich auch in grenzen mit dem performance-verlust, wenn man nicht durchdreht.
renee
 2006-04-13 23:02
#36143 #36143
User since
2003-08-04
14371 Artikel
ModeratorIn
[Homepage] [default_avatar]
[quote=GwenDragon,13.04.2006, 17:22]Dieses Forum für Suchmaschinen?
Für die Robots fehlt das Metatag robots
<meta name="robots" content="index, follow">
Ein paar andere wie Description u. ä. würde nicht schaden.
Eine robots.txt unter http://board.perl-community.de/robots.txt existiert nicht.

Wo sollen die Robots bitte die Infos holen ;)

Was soll da sonst noch optimiert werden? Vielleicht ein paar Keywords.[/quote]
Die robots.txt ist nicht wirklich notwendig. Meine Webseiten werden auch so ganz gut gefunden und aufgenommen.
OTRS-Erweiterungen (http://feature-addons.de/)
Frankfurt Perlmongers (http://frankfurt.pm/)
--

Unterlagen OTRS-Workshop 2012: http://otrs.perl-services.de/workshop.html
Perl-Entwicklung: http://perl-services.de/
<< |< 1 ... 3 4 5 6 >| >> 53 Einträge, 6 Seiten



View all threads created 2006-03-29 09:41.