Ik ben bezig een nieuwe fileserver uit te rollen met 2 dual core opterons en 8 146GB 10krpm SAS disken. Met deze 8 disken zijn ook alle disk bays bezet. Het systeem heeft verder een hardware raid (1, 1+0 en 5) controller met een 256MB battery-back write cache. Het systeem zal o.a. als fileserver gebruikt worden en er zullen ook wat virtual servers op draaien. Het OS zal RHEL 5.1 zijn.
Nu vraag ik me af hoe ik het beste mijn filesystem kan opzetten, ik wil nl wel in de toekomst, ondanks dat nu alle diskbays bezet zijn, mijn filesystem kunnen extenden. Ik dacht zelf aan het volgende:
Een 100MB raid1 partitie voor /boot, bestaande uit 3x 100MB van de eerste 3 disken en de rest van deze disken en de complete 5 andere disken in een raid 5. Op deze raid 5 array wilde ik dan LVM draaien met daarbinnen losse logical volumes voor o.a. / , /home en /xen_server{1,2,3}.
Volgens mij kan ik dan later (als ik meer ruimte nodig heb) met mdadm een disk in de raid5 set laten failen, dan removen vervolgens die disk vervangen door bv een 300GB disk. Op die 300GB disk maak ik dan weer een 146GB partitie aan die ik weer aan de raid5 set toevoeg om die weer te restoren/rebuilden. Dat doe ik dan ook met de andere 146GB disken. (voor de 1e drie disken waar ook een 100GB /boot op stond worden dan uiteraard ook op de nieuwe 300GB disken gemaakt).
Uiteindelijk heb ik dan alle disken vervangen door een grotere en zou ik de resterende (>146GB) ruimte van al nieuwe disken kunnen gebruiken om daar ook weer een raid 5 van te maken en die aan de logical volume group toe te voegen, zodat ik mijn logical volumes op die group verder kan extenden.
Nu de hamvraag, kan ik dit alles toch maar beter in sofware raid doen, of doe ik er in dit geval beter aan (performance wise) om toch de HW raid controller te gebruiken. Het hierboven beschreven scenario lees ik nl. terug op veel Linux LVM en RAID HOWTO's maar zowat allemaal gaan ze er van uit dat de gebruiker niet over een HW raid controller met battery backed writeback cache beschikt... Of is bovenstaand niet zonder meer toe te passen als de initiele raid 1 en raid 5 array via de HW controller zijn 1 opgebouwd?
Het doen van raid 5 via Linux mdadm tools zal uiteraard iets performance kosten, meer als dan wanneer ik het door die controller zou laten doen, maar ik denk niet dat performance een bottleneck zal zijn met 2 dual core opterons en slechts 3-5 gebruikers...
Nu vraag ik me af hoe ik het beste mijn filesystem kan opzetten, ik wil nl wel in de toekomst, ondanks dat nu alle diskbays bezet zijn, mijn filesystem kunnen extenden. Ik dacht zelf aan het volgende:
Een 100MB raid1 partitie voor /boot, bestaande uit 3x 100MB van de eerste 3 disken en de rest van deze disken en de complete 5 andere disken in een raid 5. Op deze raid 5 array wilde ik dan LVM draaien met daarbinnen losse logical volumes voor o.a. / , /home en /xen_server{1,2,3}.
Volgens mij kan ik dan later (als ik meer ruimte nodig heb) met mdadm een disk in de raid5 set laten failen, dan removen vervolgens die disk vervangen door bv een 300GB disk. Op die 300GB disk maak ik dan weer een 146GB partitie aan die ik weer aan de raid5 set toevoeg om die weer te restoren/rebuilden. Dat doe ik dan ook met de andere 146GB disken. (voor de 1e drie disken waar ook een 100GB /boot op stond worden dan uiteraard ook op de nieuwe 300GB disken gemaakt).
Uiteindelijk heb ik dan alle disken vervangen door een grotere en zou ik de resterende (>146GB) ruimte van al nieuwe disken kunnen gebruiken om daar ook weer een raid 5 van te maken en die aan de logical volume group toe te voegen, zodat ik mijn logical volumes op die group verder kan extenden.
Nu de hamvraag, kan ik dit alles toch maar beter in sofware raid doen, of doe ik er in dit geval beter aan (performance wise) om toch de HW raid controller te gebruiken. Het hierboven beschreven scenario lees ik nl. terug op veel Linux LVM en RAID HOWTO's maar zowat allemaal gaan ze er van uit dat de gebruiker niet over een HW raid controller met battery backed writeback cache beschikt... Of is bovenstaand niet zonder meer toe te passen als de initiele raid 1 en raid 5 array via de HW controller zijn 1 opgebouwd?
Het doen van raid 5 via Linux mdadm tools zal uiteraard iets performance kosten, meer als dan wanneer ik het door die controller zou laten doen, maar ik denk niet dat performance een bottleneck zal zijn met 2 dual core opterons en slechts 3-5 gebruikers...