Font
[thread]9279[/thread]

für die Links-Abteilung: Kategorie CGI-Apache (page 2)



<< |< 1 2 3 >| >> 25 entries, 3 pages
format_c
 2003-08-14 16:46
#91984 #91984
User since
2003-08-04
1706 articles
HausmeisterIn
[Homepage] [default_avatar]
Also ob wir das per Wiki realisieren, muss ich mir mal noch überlegen, da damit unsere Grundgedanke über den Haufen geworfen wird.
Relais
 2003-08-14 16:57
#91985 #91985
User since
2003-08-06
2257 articles
ModeratorIn
[Homepage] [default_avatar]
[quote=format_c,14.08.2003, 14:46]Also ob wir das per Wiki realisieren, muss ich mir mal noch überlegen, da damit unsere Grundgedanke über den Haufen geworfen wird.[/quote]
Vielleicht gibt es auch da eine Synthese. Mit CPAN:LWP und CPAN:XML::Dingens kann das Links-Team die Daten aus der Wiki-Seite wieder in den eigenen Datenabestand einpflegen oder abgleichen.

Ebenso mit CPAN:LWP oder auch CPAN:WWW::Mechanize /...CPAN:::Shell wieder ins Wiki einpflegen.

Dazwischen können sowohl die jetzigen Software-Abläufe als auch die Menschliche Interaktion weiter wie gewohnt stattfinden. 8)
Erst denken, dann posten --
27. Deutscher Perl- u. Raku -Workshop 12. bis 14. Mai 2025 in München.

Winter is Coming
snadra
 2003-08-14 17:13
#91986 #91986
User since
2003-08-11
265 articles
BenutzerIn
[Homepage] [default_avatar]
Ich denke auch, daß eine Linkliste eine geweisse Übersichtlichkeit braucht um interessant zu bleiben, ich weiß nicht ob ein Wiki dafür nötig ist. Zumal neue Linkvorschläge hier ja auch gerne genommen werden...
http://hamburg.pm.org
jeden 2. mittwoch im monat
--
#!/usr/bin/perl -w
$l=join('',map chr,(116,110,105,114,112))if$^T;
!!$$?@_=qw(Jhfg Aabgure Prey Hnpxre):$l=1;
for(@_){eval reverse($l)."'"._(_(_($_))).' \''}
sub _{$_=~y+a-z+n-za-m+and pop}
format_c
 2003-08-14 17:29
#91987 #91987
User since
2003-08-04
1706 articles
HausmeisterIn
[Homepage] [default_avatar]
Ach jetzt bin ich hin und her gerissen :)

Ich wollte eigendlich vermeiden, dass jeder Zugriff auf die XML-Datei hat.
Mit einem Wiki wäre das der Fall.
Gut, es wird bei nach der Überprüfung eine Sicherung der XML-Datei gezogen, denn der Teufel ist meist ein Eichhörnchen.

Woher bekomm ich den die Wikisoftware?
Dann kann ich es ja vielleicht mal ausprobieren, wie sich das Realisieren lässt.

Gruß Alex
Relais
 2003-08-14 17:36
#91988 #91988
User since
2003-08-06
2257 articles
ModeratorIn
[Homepage] [default_avatar]
Das Wiki ist doch schon da. Und Du kannst mit dem Live-Wiki testen, eine Test-Umgebung kannst Du Dir das selbsttätig einrichten.
Erst denken, dann posten --
27. Deutscher Perl- u. Raku -Workshop 12. bis 14. Mai 2025 in München.

Winter is Coming
JW
 2003-08-14 18:38
#91989 #91989
User since
2003-08-04
467 articles
HausmeisterIn
[Homepage] [default_avatar]
Noch ein Hinweis zu den FAQ - Links

* open-ionix FAQ
* Perl-Community FAQ (alt)

Die beiden sind identisch und sind durch

* Perl-Community FAQ

ersetzt worden.

Die * Perl-Community FAQ (alt) kann eigentlich auch aus der Startseite der Community entfernt werden.

Die Seiten auf open-ionix.de werde ich doch noch so lange stehen lassen, bis google direkt auf perl-community.de verlinkt, sonst wäre die Platzierung völlig hinüber.
format_c
 2003-08-14 18:49
#91990 #91990
User since
2003-08-04
1706 articles
HausmeisterIn
[Homepage] [default_avatar]
geändert.
Mache jetzt mal manuell ein Update.

Gruß alex
Ishka
 2003-08-14 19:52
#91991 #91991
User since
2003-08-04
771 articles
HausmeisterIn
[Homepage] [default_avatar]
[quote=JW,14.08.2003, 16:38][...]

Die Seiten auf open-ionix.de werde ich doch noch so lange stehen lassen, bis google direkt auf perl-community.de verlinkt, sonst wäre die Platzierung völlig hinüber.[/quote]
Mach dochn Link von jeder Seite zu den neuen Seiten, und auf jede Seite ein <meta robots="noindex,follow"> dann ist das ranking nach nem Monat perfekt da.
sub z{if(@_){1while$x[$k=rand 10];t($t=$x[$k]=1)}print map"$z[$x[$_]]$_".($_%3?
"":"\n"),1..9}sub t{$j=0;$x[$_+1]==$t&&($j+=2**$_)for 0..8;z,die"Gewinner $z[$t]
"if grep$_==($j&$_),7,56,73,84,146,273,292,448;z,die"Gleichstand\n"if@x>9&&!grep
!$_,@x}@x=4;@z=qw{. [ (};z$^T&1;while(<>){next if$_>9||$x[$_];t$t=$x[$_]=2;z 1}
Dubu
 2003-08-14 20:10
#91992 #91992
User since
2003-08-04
2145 articles
ModeratorIn + EditorIn

user image
[quote=JW,14.08.2003, 16:38]
Die Seiten auf open-ionix.de werde ich doch noch so lange stehen lassen, bis google direkt auf perl-community.de verlinkt, sonst wäre die Platzierung völlig hinüber.[/quote]
Du koenntest es sogar noch besser machen: Lass die FAQ da erstmal stehen, aber setze einen Link auf die neue Startseite der Perl-Community, das wirkt sich schon positiv auf das Ranking der Community aus.
(Und nimm den Link zu perl.de mal da weg... ;-))

Edit: Ishka war schneller. :-)\n\n

<!--EDIT|Dubu|1060877472-->
Dubu
 2003-08-14 20:26
#91993 #91993
User since
2003-08-04
2145 articles
ModeratorIn + EditorIn

user image
[quote=format_c,14.08.2003, 15:29]Ach jetzt bin ich hin und her gerissen :)
[/quote]
Kann ich verstehen. Es gibt fuer beide Ansaetze gute Argumente.

Quote
Ich wollte eigendlich vermeiden, dass jeder Zugriff auf die XML-Datei hat.
Mit einem Wiki wäre das der Fall.

Wie schon gesagt: Auch beim Wiki kann man es so machen, dass nur einzelne Leute Schreibzugriff auf die Seite bekommen. Man kann auch die Linkseite fuer Kommentare editierbar lassen, aber die Liste selber per %INCLUDE% von einer schreibgeschuetzten Seite einbinden. Geht ganz einfach.
So einen Schreibschutz sollte man sich aber gut ueberlegen, weil er halt der Wiki-Idee widerspricht. TWiki geht da deutlich weiter, weil es fuer den Unternehmenseinsatz geschrieben wurde, und da gibt es manchmal eben Vorgaben bzgl. Access Control.

Quote
Gut, es wird bei nach der Überprüfung eine Sicherung der XML-Datei gezogen, denn der Teufel ist meist ein Eichhörnchen.

Woher bekomm ich den die Wikisoftware?
Dann kann ich es ja vielleicht mal ausprobieren, wie sich das Realisieren lässt.

Am einfachsten waere es wohl, wenn die Linkliste ins gleiche Web kaeme wie das Wiki, denn dann haettest du ueber das Dateisystem direkten Zugriff auf die Rohdaten, die sich deutlich einfacher erzeugen und parsen lassen als fertiges HTML.
<< |< 1 2 3 >| >> 25 entries, 3 pages



View all threads created 2003-08-14 04:41.