Je hebt twee onderdelen...
Aantal schijven per RAIDZ1/2/3 sets, en de opgeslagen informatie binnen die set.
Dat zijn (volgens mij) totaal twee verschillende zaken.
De hoeveelheid aantal disken per Z1/2/3-set is al helemaal uitgekauwd en hoeft volgens mij niet 'opnieuw te worden uitgevonden'.
Dit staat helemaal LOS van wat je er op zet!
Compressie wordt toegepast op de data die je op de set wilt wegschrijven...
Het zijn nog steeds hele brokken data die op disk terecht blijven komen.
Hoeveel sectoren je er exact mee vol schrijft is net zo boeiend als zonder compressie...
Je zal altijd wel een deel overhead blijven houden omdat je gewoonweg vanwege de size (bijna) nooit exact tot de laatste bit in een sector vult.
Tav dedup zou ik mij voor kunnen stellen dat hier de overhead wel groter is omdat er daar alleen pointers worden weggeschreven, maar doordat de opgeslagen informatie een veelvoud lager is, heeft dit nog altijd een extreem hoog rendement.
Maar ook dat hangt er weer vanaf HOE die pointers worden weggeschreven.
zijn het allemaal individuele bestandjes, of zitten ze in een database?
Daarom adviseert men voor databases ook een veel kleinere recordsize in je pool dan de standard 128 kB.
For PostgreSQL and MysSQL users recomment using a different recordsize than default 128k.
PostgreSQL: 8k
MySQL MyISAM storage: 8k
MySQL InnoDB storage: 16k
Alles staat en valt met type data.
Nu kan je voor ieder type data een aparte pool aanmaken, maar dan heb je weer veel meer overhead per pool en schiet je je doel ook weer voorbij.
Ik heb zelf nu 3 pools draaien.
- Reguliere data
- Databases
- Backup (met dedup)