Wie gesagt kürze die Datenmenge, sukzessives halbieren!
Oder gib zuerst nur $schluessel aus bis du weißt wo die äußere Schleife hängt.
dann isolierst du die nächste Schleife usw.
Dein Problem lässt sich bei mir überhaupt *nicht* reproduzieren!
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
use Data::Dumper;
my %hash = ('Abend' => 'NN',
'Sonne' => 'NN',
'Haus' => 'NN',
'Abendsonne' => 'who knows',
);
while (<DATA>) {
chomp;
$hash{$_}="irgendwas";
}
for my $word ( keys %hash ) {
for my $pre ( keys %hash ) {
for my $post ( keys %hash ) {
if ( lc $word eq lc "$pre$post" ) {
print $word, $/;
}
}
}
}
__DATA__
!
$
%
&
'
(
)
*
+
+16,4%
+23%
+5,8%
+8,8%
,
-
[...]
[...]
[...]
£
©
±
µg/m
«
»
Wieviele Zeilen hat eigentlich in deiner Korpusdatei? Hast du mal daran gedacht es einfach lang genug durchlaufen zu lassen, bei 1000 Zeilen sind das immerhin 1000³=1 Milliarde Durchläufe...
ich hab dir schonmal geraten mit
-f index zu arbeiten, dann kannst du auch abkürzen.
tschüss bin jetzt 3 Tage offline!