Schrift
Wiki:Tipp zum Debugging: use Data::Dumper; local $Data::Dumper::Useqq = 1; print Dumper \@var;
[thread]53[/thread]

content compression ohne apache modul: wie geht das



<< >> 9 Einträge, 1 Seite
kmonster
 2003-09-29 21:56
#5011 #5011
User since
2003-08-20
33 Artikel
BenutzerIn
[default_avatar]
habe schon vor ein paar wochen zu dem thema geposted aber beitrag ist leider weg...

also ich möchte mit content compression arbeiten, habe aber kein Apache::Compress oder ähnliches installiert. muss also per hand komprimieren. mit Compress::Zlib bekomme ich es hin wenn ich den gesamten content auf einmal komprimiere:

Code (perl): (dl )
1
2
3
4
5
6
use strict;
use Compress::Zlib;
print "Content-type: text/html\n";
print "Content-encoding: gzip\n\n";
my $ausgabe = "hallo";
print Compress::Zlib::memGzip($ausgabe);


nun möchte ich das aber stückchenweise machen. memGZip liefert die benötigten header und footer (denke ich), da kann man aber nichts mehr hinterhängen. die compress() funktion desselben modules liefer nur die reine kompression, diese könnte ich hintereinander hängen, brauche dann aber noch header und footer.

wer kann helfen?

km\n\n

<!--EDIT|kmonster|1064858331-->
esskar
 2003-09-29 22:08
#5012 #5012
User since
2003-08-04
7321 Artikel
ModeratorIn

user image
ich denke mal im heder steht die länge...
wieso kannst du es nicht komplett machen?
kmonster
 2003-09-29 22:31
#5013 #5013
User since
2003-08-20
33 Artikel
BenutzerIn
[default_avatar]
weil sich die relativ lange bearbeitungszeit mit der relativ langen ladezeit deckt und alles auf einmal hiesse erst bearbeiten dann laden. zudem ist es schöner wenn nach und nach was erscheint anstelle eines zunächst leeren screens.
jan
 2003-09-29 22:42
#5014 #5014
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
wäre das nicht ein fall für transfer-coding: chunked?
http://www.w3.org/Protocols/rfc2616/rfc2616-sec3.html
esskar
 2003-09-29 23:31
#5015 #5015
User since
2003-08-04
7321 Artikel
ModeratorIn

user image
stimmt...
chunked is gut...
wird auch oft benutzt!
kmonster
 2003-09-30 00:58
#5016 #5016
User since
2003-08-20
33 Artikel
BenutzerIn
[default_avatar]
ok wenn ich das richtig verstanden habe wird der content stückchenweise in sogenannten chunks gesendet wobei ich dann für jeden chunk das obige beispiel benutzen kann. weiss leider nicht genau wie das geht und habe kein passendes modul bei cpan gefunden...
jan
 2003-09-30 01:18
#5017 #5017
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
afaik nutzt google chunked gzip-encoding. schau dir einfach mal den raw-output an, d.h. nicht von LWP gefiltert.
esskar
 2003-09-30 01:41
#5018 #5018
User since
2003-08-04
7321 Artikel
ModeratorIn

user image
gibt es wohl nicht...
programmier es doch selber!
kmonster
 2003-09-30 15:14
#5019 #5019
User since
2003-08-20
33 Artikel
BenutzerIn
[default_avatar]
habe mir google content über socket angesehen und nichts besonderes bemerkt. ist wohl auch chunked aber nicht compressed.

Code: (dl )
1
2
3
4
5
6
7
8
9
10
11
12
HTTP/1.1 200 OK
Cache-Control: private
Date: Tue, 30 Sep 2003 11:13:14 GMT
Server: GWS/2.1
Content-Type: text/html
Content-Type: text/html; charset=UTF-8
Client-Date: Tue, 30 Sep 2003 11:13:12 GMT
Client-Response-Num: 1
Client-Transfer-Encoding: chunked
Cneonction: Close
Set-Cookie: PREF=ID=717b269664a9c754:LD=de:TM=1064920394:LM=1064920394:S=IT2UfLbAF0HWYw_R; expires=Sun, 17-Jan-2038 19:14:07 GMT; path=/; domain=.google.de
Title: Google Suche: hallo
<< >> 9 Einträge, 1 Seite



View all threads created 2003-09-29 21:56.