Tja,
Rätt ny här (på att skriva inlägg). Men tänkte i alla fall säga att jag testat att leka lite med dedup och compression. För att se skillnaderna i dels hastighet men också grad av vinst.
Kör OpenSolaris 134 på en W3520, 6GB ECC, 2x500GB + 20x2TB diskar.
Skapade en pool med raidz2 på 20x2, och skapade där i tre olika zfs filsystem.
[None] Ett utan vare sig compression eller deduplication.
[Comp] Ett med compression (gzip-9) dvs max compression
[Dedup] Ett med deduplication (sha256, strict) för högsta verifikation
Jag la 8GB på 'None' och kopierade sedan det över till både 'Comp' och 'Dedup' för att se skillnaderna.
[Comp] - 1m29s
[Dedup] - 57s
För att se hur detta skalar sig testade jag lägga runt 800GB på 'None' och uföra testet igen.
[Comp] - 168m26s
[Dedup] - 393m38s
temp/none 34608236329 819688767 31577282969 3% /temp/none
temp/comp 34608236329 819095382 31577282969 3% /temp/comp
temp/dedup 34608236329 819698258 31577282969 3% /temp/dedup
Här kan vi se att 'comp' inte hjälpte mycket. Jag tjänare några ynka MB + att CPUn fick mycket högre load. För dedup blev det ännu värre, jag förlorade på det
MEN, nu kommer det mera problematiska. Att köra en zfs destroy på 'comp' gick rätt så fort. MEN, när jag kör den på dedup så slutade datorn att svara. Och den hänger sig vid "loading ZFS config*". Efter lite sökande på nätet inser jag att detta inte är ett så ovanligt fenomen[1] för dedup och kan ta några dagar för stora partitioner och är också beroende på ram. Och nackdelen för min del är att jag har en stor partition och lite ram, så den får väl stå och köra under påsken för att bli klar.
Någon kanske vet en workaround? Hade helst sluppit rensa alla diskar och skapat om allt.
[1] - http://www.mail-archive.com/zfs-discuss@opensolaris.org/msg34...