Ich weiß nicht genau, wie groß die Dateien werden können... bisher kamen aber schon welche mit um 1,2 Mio Zeilen vor. Und man könnte sie noch in den Hauptspeicher (512MB) einlesen, aber das macht man natürlich nur ungern, zumal wenn es nicht nötig ist.
Die Datei wird später eh nochmal Zeile für Zeile eingelesen und verarbeitet, ich möchte nur gerne den Fortschritt der Arbeit in Prozenten ausrechnen können, das kann ich aber natürlich nur, wenn ich vorher weiß, wieviele Zeilen die Datei hat. Und dieses nice-to-have darf natürlich nicht signifikant Zeit kosten.
Ich denke ich bau es einfach ein und schau mal... ums Zählen der Umbrüche kommt man wohl wirklich nicht herum.
Ich dachte nur, vielleicht wäre Tie::File und dann die Arraygröße ermitteln irgendwie schlau, aber dafür muss er ja auch
mindestens alle Umbrüche zählen...
[quote=Taulmarill,21.04.2004, 11:34]also ich kann jetzt schon sagen, dass ich heute keine zeit zum benchmarken hab.
wenn das ein dateichen ist, dann muss man sich keine gedanken um performance machen, für den fall finde ich deinen code sehr elegant.
aber wenn du mal in den originalpost schaust, geht es da um die schnellste variante. ich hatte da jetzt schnell mit performant gleichgesetzt und nicht mit schnell programmiert.[/quote]
genau ;-)
schnell programmiert wäre kürzer gewesen als die Frage zu stellen :-D\n\n
<!--EDIT|Crian|1082540383-->
s--Pevna-;s.([a-z]).chr((ord($1)-84)%26+97).gee; s^([A-Z])^chr((ord($1)-52)%26+65)^gee;print;
use strict; use warnings; Link zu meiner Perlseite