Readers: 35
1
2
3
if (defined ($hash{data}{test1}{ha1}{blubb1})) {
print "Pfad existiert bereits in DB\n";
}
2011-02-23T23:10:51 lousekMittlerweile frage ich mich, ob eine relationale Datenbank wie MySQL der richtige Weg ist ...
2011-02-23T23:10:51 lousek### Pfad-Modell ###
- Jeder Datensatz besteht aus ID und pfad.
# Vorteil #
- Es kann einfach einen ganzen Pfad abgefragt werden
- Es kann einfach überprüft werden, ob ein Pfad bereits in der DB ist
# Nachteil #
- Der Aufbau des Baumes gestaltet sich eher schwierig, da in der Datenbank keine Hierarchie abgebildet ist
- Es wird viel Platz gebraucht, da immer der komplette Pfad gespeichert wird
1
2
3
4
5
6
ID NUMERIC
, FULLPATH VARCHAR
, DIRNAME VARCHAR
, LEVEL NUMERIC
, FIRSTDETECTED DATE
, LASTVERIFIED DATE
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
#!/usr/bin/perl -w
use strict;
use DBI;
## DB data
my $db = "xxx";
my $user = "xxx";
my $pass = "xxx";
my $host = "localhost";
# Connect to DB
my $dbh = DBI->connect("DBI:mysql:$db:$host", $user, $pass);
my %hash;
buildDBHash(0, \%hash);
# Build a hash like $hash{part}{of}{the}{hash} = 0 using the Database
# Syntax: buildDBHash(parentID, hashref)
# Return Value: Hash-Tree
sub buildDBHash {
# Set variables
my $parentID;
my $id;
my $folders;
my $hash;
# Load arguments into variables
if (defined($_[0])) {
$parentID = $_[0]; # Load parentID into variable
}
if (defined($_[1])) {
$hash = $_[1]; # Load parentID into variable
}
# Set query
my $query = "SELECT id,parentID,name FROM dir WHERE parentID=$parentID;";
# Run query
my $sth = $dbh->prepare($query);
$sth->execute();
# Use the query results ...
while (my @result = $sth->fetchrow_array) {
my $id = $result[0];
my $parentID = $result[1];
my $name = $result[2];
print $name."\n";
# Add this result to the Hash
$hash{$name} = $id;
# Create a reference to the hash
my $ref = \%hash;
# Go one step further
$ref = $ref->{$name};
# Call the buildDBHash-function for the child-entries
buildDBHash($id, $ref);
}
}
2011-02-24T23:45:40 lousekBeim starten des Scripts muss ja überprüft werden, ob der Ordner xyz bereits in der Datenbank eingetragen ist, und wenn ja, soll "FIRSTDETECTED" auf "jetzt" geupdatet werden.
1
2
3
4
5
6
7
8
UPDATE
T_LS
SET
LASTVERIFIED = sysdate
WHERE
FULLPATH in (SELECT FULLPATH FROM T_LS_TMP)
and
LASTVERIFIED = (SELECT max(LASTVERIFIED) FROM T_LS);
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
INSERT INTO
T_LS (FULLPATH, DIRNAME, LEVEL, FIRSTDETECTED, LASTVERIFIED)
SELECT
FULLPATH
, DIRNAME
, LEVEL
, FIRSTDETECTED
, LASTVERIFIED
FROM
T_LS_TMP
left outer join T_LS on
T_LS_TMP.FULLPATH=T_LS.FULLPATH
and
T_LS.LASTVERIFIED = (SELECT max(LASTVERIFIED) FROM T_LS)
WHERE
T_LS.FULLPATH IS NULL;
DELETE FROM T_LS_TMP;
LASTVERIFIED = (SELECT max(LASTVERIFIED) FROM T_LS);
SELECT max(LASTVERIFIED) FROM T_LS;
2011-02-25T10:49:00 lousekSehe ich dass richtig, dass du bei einer Synchronisation natürlich nur beim betreffenden Ordner das Feld "LASTVERIFIED" auf sysdate (also jetzt) setzt, nicht bei allen Ordnern?
2011-02-25T10:49:00 lousekWenn ja:
Bei deinem ersten SQL-Statement hast du ja
Code: (dl )LASTVERIFIED = (SELECT max(LASTVERIFIED) FROM T_LS);
darin. Wenn jetzt ein Ordner am 12.12.2012 um 12:12 synchronisiert wurde, dann wurde ja auch "LASTVERIFIED" auf 12.12.2012 um 12:12 gesetzt. Bei allen anderen Ordner ist "LASTVERIFIED" älter wie bei diesem.
Wenn ich jetzt das SQL-Statement
Code: (dl )SELECT max(LASTVERIFIED) FROM T_LS;
absetzte, dann bekomme ich doch nur den höchsten Wert resp. das letzte Datum zurück, also eben den 12.12.2012 um 12:12.
Das würde ja heissen, dass er in deinem ersten SQL-Statement nur diejenigen Datensätze updaten würde, wo "LASTVERIFIED" = 12.12.2012 um 12:12 ist, und das wäre ja nur dieser eine Ordner ... oder sehe ich da etwas falsch?
2011-02-25T10:49:00 lousekKönntest du mir das zweite SQL-Statement noch etwas genauer erläutern, ich habe da so meine Verständnis-Probleme :-)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
INSERT INTO
T_LS (FULLPATH, DIRNAME, LEVEL, FIRSTDETECTED, LASTVERIFIED)
-- soweit klar: nach T_LS inserten, und zwar das, was das folgende SELECT zurückgibt
SELECT
-- Korrektur: Hier haben vorhin die Tabellennamen gefehlt. Das hätte nicht funktioniert,
-- weil die Spaltennamen in beiden Tabellen vorkommen und also nicht eindeutig sind.
T_LS_TMP.FULLPATH
, T_LS_TMP.DIRNAME
, T_LS_TMP.LEVEL
, T_LS_TMP.FIRSTDETECTED
, T_LS_TMP.LASTVERIFIED
FROM
T_LS_TMP
-- left outer join heißt: selecte von der linken Tabelle (also T_LS_TMP) alle Datensätze
-- und von der rechten alle, die nach den join-Kriterien (Bedingungen wie in einer WHERE-
-- Klausel) übereinstimmen. Das heißt, die linke Tabelle wirkt als Filter auf die rechte
-- aber nicht umgekehrt.
-- Ich bekomme also zunächst alle Datensätze aus T_LS_TMP und dazu Daten aus T_LS von den
-- den join-Kriterien entsprechenden Datensätzen (außer der Bedingung, die die Überein-
-- stimmung prüft habe ich noch eine Bedingung eingebaut, die auf Aktualität prüft, denn
-- wenn ein Verzeichnis in der Vergangenheit schon einmal existiert hat, dann aber gelöscht
-- und jetzt neu wieder angelegt wurde, soll es in T_LS doppelt erscheinen - mit einander
-- nicht überschneidenden Zeitintervallen).
left outer join T_LS on
T_LS_TMP.FULLPATH=T_LS.FULLPATH
and
T_LS.LASTVERIFIED = (SELECT max(LASTVERIFIED) FROM T_LS)
WHERE
-- Da ich aber nur die haben will, die in der Zieltabelle nicht schon enthalten sind, filtere
-- ich jetzt alle diejenigen Datensätze aus, die in der Zieltabelle enthalten sind.
T_LS.FULLPATH IS NULL;
2011-02-25T10:49:00 lousekIch versuche mal, die beiden "Möglichkeiten" zusammenzufassen und gegenüberzustellen:
[...]
So, soweit mal zu dem "Vergleich" ... habe ich etwas vergessen?
2011-02-25T10:49:00 lousekIch denke, falls die Datenbank anstatt auf dem Replikationsserver auf einem leistungsfähigen Datenbankserver liegt, macht deine Variante mehr Sinn, sobald aber die Datenbank auf dem Replikationsserver selbst liegt, würde "mein" Weg mehr Sinn machen ... oder nicht?
2011-02-25T10:49:00 lousekWarum genau würdest du die Synchronisations-Datumswerte in eine seperate Tabelle auslagern?
2011-02-25T10:49:00 lousekUnd "nebenbei" ... was wäre dann die best mögliche Lösung, um auch die Files überprüfen zu können? Tabelle mit Fremdschlüssel auf die Ordnertabelle?
2011-02-24T23:45:40 lousekNaja, der primäre Zweck der Datenbank ist wirklich um der vorherige Stand des Dateisystems (resp. der Stand in der DB) und der jetztige Stand vergleichen zu können also was wurde erstellt und was wurde gelöscht ...
1
2
3
4
5
6
7
vor der Installation:
find / | grep -v -e ^/proc/ -e ^/tmp/ -e ^/dev/ > emacs_23-1_preinstall.list
danach:
find / | grep -v -e ^/proc/ -e ^/tmp/ -e ^/dev/ > emacs_23-1_postinstall.list
danch diffen
2011-02-25T15:43:04 lousekHallo leo11
Ich bin mir nicht sicher, ob du mein Problem richtig verstanden hast ... es hat zumindest nichts mit einer Installation zu tun ...
LG
Lousek
QuoteSchlussendlich will ich eigentlich sehen, welche Ordner in der Datenbank existieren, aber auf dem Dateisystem nicht und welche Ordner auf dem Dateisystem existieren aber in der Datenbank nicht.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
#!/usr/bin/perl -w
use Data::Dumper;
%ordner = (
data => {
bla1 => {
ha1 => {
hi1 => {
he1 => 0,
},
},
},
},
);
print Dumper(%ordner);
1
2
3
4
5
6
7
8
9
10
$VAR1 = 'data';
$VAR2 = {
'bla1' => {
'ha1' => {
'hi1' => {
'he1' => 0
}
}
}
};
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
#!/usr/bin/perl -w
use Data::Dumper;
%ordner = (
data => { #/data
bla1 => { #/data/bla1
ha1 => { #/data/bla1/ha1
hi1 => { #/data/bla1/ha1/hi1
he1 => 0, #/data/bla1/ha1/hi1/he1
he2 => 1, #/data/bla1/ha1/hi1/he2
},
hi2 => { #/data/bla1/ha1/hi1
he1 => 0, #/data/bla1/ha1/hi2/he1
he2 => 1, #/data/bla1/ha1/hi2/he2
},
},
ha2 => { #/data/bla1/ha2
hi1 => { #/data/bla1/ha2/hi1
he1 => 0, #/data/bla1/ha2/hi1/he1
he2 => 1, #/data/bla1/ha2/hi1/he2
},
hi2 => { #/data/bla1/ha2/hi2
he1 => 0, #/data/bla1/ha2/hi2/he1
he2 => 1, #/data/bla1/ha2/hi2/he2
},
},
},
bla2 => { #/data/bla2
ha1 => { #/data/bla2/ha1
hi1 => { #/data/bla2/ha1/hi1
he1 => 0, #/data/bla2/ha1/hi1/he1
he2 => 1, #/data/bla2/ha1/hi1/he2
},
hi2 => { #/data/bla2/ha1/hi1
he1 => 0, #/data/bla2/ha1/hi2/he1
he2 => 1, #/data/bla2/ha1/hi2/he2
},
},
ha2 => { #/data/bla2/ha2
hi1 => { #/data/bla2/ha2/hi1
he1 => 0, #/data/bla2/ha2/hi1/he1
he2 => 1, #/data/bla2/ha2/hi1/he2
},
hi2 => { #/data/bla2/ha2/hi2
he1 => 0, #/data/bla2/ha2/hi2/he1
he2 => 1, #/data/bla2/ha2/hi2/he2
},
},
},
},
);
print Dumper(\%ordner);
my @pathes;
my $tmphash = \%ordner;
my @blubb = keys(%$tmphash);
while (keys(%ordner)) {
my $path = "";
print "Keys1: ".keys(%ordner)."\n";
print "Keys2: ".keys(%$tmphash)."\n";
while (keys(%$tmphash)) {
@parts = keys(%$tmphash);
$part = $parts[0];
$path .= "/".$part;
if(!keys(%{$tmphash->{$part}})) {
print $path."\n";
push(@pathes, $path);
delete $tmphash->{$part};
} else {
$tmphash = $tmphash->{$part};
}
print Dumper($tmphash);
}
}
foreach my $haha (@pathes) {
print "Path: $haha\n";
}
my $tmphash = \%ordner;
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253
#!/usr/bin/perl -w use strict; use DBI; use Data::Dumper; use Data::TreeDumper; # Define variables my $db; my $user; my $pass; my $host; my $dbh; my $stime; my $etime; my $endtime; my %hash; ## DB data $db = "ofrs"; $user = "ofrs"; $pass = "ofrs"; $host = "localhost"; # Connect to DB $dbh = DBI->connect("DBI:mysql:$db:$host", $user, $pass); # Set time before import $stime = time; # Sync a replication folder on the disk with the database checkFS("/data/test1"); # Set time after import $etime = time; $endtime = ($etime - $stime); # Print needed time print "Needed $endtime seconds ...\n"; # Creates a hash tree for a replication folder using the pathes in the database # Syntax: makeTree($repFolder) # Return Value: hash-tree (hash) sub makeTree { # Set & define the variables my $path = $_[0]; my $tree={}; # Set query my $query = "SELECT path FROM dir WHERE path = '$path';"; # Run query my $sth = $dbh->prepare($query); $sth->execute(); # Use the query results ... while (my @result = $sth->fetchrow_array) { my $path = $result[0]; # ... and add each path to the hash-tree addToTree($tree,$path); } # return the hash-tree return $tree; } # add a Path to the hash-tree # Syntax: addToTree($tree,$path) # Return value: none sub addToTree { # Set & define the variables my $tree = $_[0]; my $path = $_[1]; # Split the path up to its parts my @parts = split('/',$path); # Delete the first (empty) part shift @parts; # Delete the trailing slash at the end of the path if exists my $file=1; unless($parts[-1]) { $file=0; pop(@parts); } # build the hash-tree for this path my $ref=\$tree; $ref=\$$ref->{$_} for(@parts); } # build the pathes from the hash-tree # Syntax: buildPathes($tree) # Return value: path-list (array-reference) sub buildPathes { # Set & define variables my $tree=shift; my $path=shift // ''; my @list; # walk through all levels and sort them for my $name (sort(keys(%$tree))) { my $elm=$tree->{$name}; if($elm && ref($elm) eq 'HASH') { # run the function recursive my $lst=buildPathes($elm,"$path/$name"); push(@list,@$lst); } else { push(@list,"$path/$name"); } } # return the list of pathes from the hash-tree return \@list; } # sync a replication folder on the disk with the database # Syntax: checkFS($repPath) # Return value: none sub checkFS { # Set & define variables my $path = $_[0]; # create the hash-tree for this path / replication folder my $tree = makeTree($path); # check if the folder on the disk exists in the database checkFolder($path, $tree); # build the pathes from the hashes left in the hash-tree my $onlyDB = buildPathes($tree); # print the pathes out print "OnlyDB-Pathes:\n"; print Dumper($onlyDB); # foreach my $path (@$onlyDB) { # DELETE THE MISSING FOLDERS FROM THE DATABASE # } } # check a folder and its subfolder if they exists in the hash-tree # Syntax: checkFolder($path, $tree) # Return value: none sub checkFolder { # Set variables my @subfolders; my $path; my @parts; my $name; my $hash; my $tmphash; my $found; my $childNotFound; # Load arguments into variables if (-d $_[0]) { $path = $_[0]; # Load path into variable } else { # Exit script if no path is specified print "Error: No valid path specified\n"; exit(1); } if (defined($_[1])) { $hash = $_[1]; # Load hash into variable } else { # Exit script if no hash is specified print "Error: No hash specified\n"; exit(1); } # Set variables $childNotFound = 0; # split the path to its parts @parts=split(/\//, $path); shift @parts; $name = $parts[-1]; $found = 0; $tmphash = \%hash; for (my $i = 0; $i < @parts; $i++) { # walk through each part of the path my $part = $parts[$i]; if(defined($tmphash->{$part})) { # Does the part exists in the hash-tree? if($i == @parts-1) { # Is this the last part of the path? $found=1; # Yes, the folder is in the database! } else { # Not the last part of the path $tmphash=$tmphash->{$part}; # Go one level further } } else { last; # The path is not in the database } } if ($found == 0) { # Insert current directory into DB # Set query my $query = "INSERT INTO dir (path) VALUES (\"$path\");"; # Run query $dbh->do($query); } # Open the current directory opendir (DIR, $path) or die "Unable to open $path: $!"; # Exclude "." and ".." my @files = grep { !/^\.{1,2}$/ } readdir (DIR); # Close directory closedir (DIR); # Set the full path for all files @files = map { $path . '/' . $_ } @files; # Write each subfolder into the array @subfolders foreach my $file (@files) { if (-d $file) { push (@subfolders, $file) } } # If there are any subfolders then ... if (@subfolders > 0) { foreach my $subfolder (@subfolders) { # ... put the subfolder into the DB using the subfolder's path and the id of the current directory $childNotFound = checkFolder($subfolder, \%hash); } } # if this directory was found in the path and if it has no subfolders, then delete it from the hash-tree if ($found == 1 && !keys(%{$tmphash->{$name}})) { delete $tmphash->{$name}; return 0; } else { # return 1 if this folder is either not in the hash-tree or if this directory has subfolders return 1; } }
1 2 3 4 5 6 7 8 9 10 11 12
for (my $i = 0; $i < @parts; $i++) { # walk through each part of the path my $part = $parts[$i]; if(defined($tmphash->{$part})) { # Does the part exists in the hash-tree? if($i == @parts-1) { # Is this the last part of the path? $found=1; # Yes, the folder is in the database! } else { # Not the last part of the path $tmphash=$tmphash->{$part}; # Go one level further } } else { last; # The path is not in the database } }
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
while(@parts) { # walk through each part of the path my $part=shift(@parts); my $elm=$tmphash->{$part}; # Does the part exists in the hash-tree? if(defined($elm)) { # Is this the last part of the path? if(!@parts) { # Yes, the folder is in the database! $found=1; #leave loop last; } # Not the last part of the path else { # if possible # Go one level further if(ref($elm) eq 'HASH') { $tmphash=$elm; } else { last; } } } else { # The path is not in the database last; } }
2011-03-01T15:47:35 lousekSorry, ich weiss nicht ganz, wie mir diesen Beitrag helfen soll ...!?
1 2 3
# build the hash-tree for this path my $ref=\$tree; $ref = \$$ref->{$_} for(@parts);
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
$VAR1 = { 'data' => { 'test4' => { 'abcdwxyz1' => { 'abcdwxyz1' => { 'abcdwxyz1' => { 'abcdwxyz1' => undef, 'abcdwxyz3' => undef, 'abcdwxyz2' => undef }, 'abcdwxyz3' => { 'abcdwxyz1' => undef, 'abcdwxyz3' => undef, 'abcdwxyz2' => undef }, 'abcdwxyz2' => { 'abcdwxyz1' => undef, 'abcdwxyz3' => undef, 'abcdwxyz2' => undef } }, ...
1 2 3 4 5 6 7 8 9
if(defined($tmphash->{$part})) { # Does the part exists in the hash-tree? if($i == @parts-1) { # Is this the last part of the path? $found=1; # Yes, the folder is in the database! } else { # Not the last part of the path $tmphash=$tmphash->{$part}; # Go one level further } } else { last; # The path is not in the database }
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
$VAR1 = { 'data' => { 'test4' => { 'abcdwxyz1' => { 'abcdwxyz1' => { 'abcdwxyz1' => { 'abcdwxyz1' => {}, 'abcdwxyz3' => {}, 'abcdwxyz2' => {} }, 'abcdwxyz3' => { 'abcdwxyz1' => {}, 'abcdwxyz3' => {}, 'abcdwxyz2' => {} }, 'abcdwxyz2' => { 'abcdwxyz1' => {}, 'abcdwxyz3' => {}, 'abcdwxyz2' => {} } }, ...
1 2 3
# build the hash-tree for this path my $ref=\$tree; $ref = \$$ref->{$_} ||= {} for(@parts);
1
2
Can't modify single ref constructor in logical or assignment (||=) at ./syncDBwithFS3.pl line 93, near "} for"
Execution of ./syncDBwithFS3.pl aborted due to compilation errors.
1 2 3 4
# build the hash-tree for this path my $ref=\$tree; $ref = \$$ref->{$_} for(@parts); $$ref={};