Tja,
Jag har kørt med komprimering med lite olika effekt, allt från lzjb till gzip-9. Dock har allt endast kørts på mina servrar hemma, så inga produktionsværden.
I stort ær mycket av den data jag lagrar, redan komprimerad på ett eller flera sætt eller vældigt svår komprimerad (random): detta gæller allt från olika typer media, krypterade filestores till backup med Crashplan osv. Men jag ville testa - dels før att se hur det påverkar CPUn men också om mitt antagande stæmmde.
Det jag såg var inte direkt några vinster, æven med gzip-9. Utan det gav snarare nackdelar (ibland tar det komprimerade utrymmet mera plats æn okomprimerad (komprimeringsgrad < 1.0 )), samtidigt som också CPU anvændandet økade - olika beroende på komrpimeringsgrad. Så jag har valt att slå det av.
Så mitt råd ær, i likhet med dedup så undersøk vilken data du har:
* Okomprimerad?
* Inte random?
* Få "større" filer?
Min antagelser sæger att punkt 3 också ær något att ta i beaktelser. Hypotesen jag har ær att om du skall komprimera en vanlig text fil - som i sig ær vældigt enkel att komprimera - som har en storlek på sæg <1kb så kommer (kan?) overheaden på komprimeringen vara høgre æn vinsten du gør på med sjælva komprimeringen. Då menar jag dels på storleken på filen, som faktiskt i detta fall också kan øka, men också på att du faktiskt måste gøra några ytterliggare steg (packa upp det i minnet, æven om detta går riktigt fort).
Vet inte om det svarar på dina frågor, men kanske en tankestællare?