Voor een upgrade van een aantal van onze storagenodes ben ik aan het kijken naar een nieuwe oplossing. Ik ben op zoek naar een kostenefficiente oplossing van minimaal 25TB netto en wil daarbij 'zoveel' mogelijk performance per node. De nodes zullen elk duizend plus concurrent connections van data moeten kunnen voorzien (online video).
Niet alleen voor performance maar ook voor data redundantie zullen er meerdere nodes gebruikt worden. Op een enkel uitgevoerde array van 25TB+ wil je in het kader van rebuild of restore tijd niet al teveel problemen
Voor oplossingen boven de 20TB kom je al snel uit op SAS gebaseerde oplossingen.
Met SATA2 schijven kun je met een verschrikkelijk goede prijs/GB ratio 'redelijk' eenvoudig SAS dozen gaan stapelen. Je hebt dan de keus om de RAID logica op je SAS HBA plaats te laten vinden in een JBOD config of de RAID logica door het SAS chassis af te laten handelen. In het kader van beheersbaarheid en flexibiliteit gaat mijn voorkeur uit naar een high end SAS Host adapter en daar de RAID configuratie af te laten handelen.
Ik weet dat Femme persoonlijk erg gecharmeerd is van Areca hardware en ik heb daar zelf ook erg goede ervaringen mee.
Ik heb zelf inmiddels een redelijk idee wat ik wil maar zit nog met een aantal vragen, daarom hieronder een schets van 2 mogelijke implementaties:


In situatie 1 zijn de SAS JBOD chassis aangesloten in daisy-chain configuratie.
In situatie 2 zijn de SAS JBOD chassis elke aangesloten op een eigen SFF-8088 connector op de SAS HBA.
De Areca 1680ix-12 heeft 1x externe SFF-8088 connector maar wel de mogelijkheid voor een 4GB cache module.
De Adaptec 5058 heeft 2x externe SFF-8088 connectoren maar ondersteunt maar max 512MB cache.
Beide zijn voorzien van de 1200Mhz Intel IOP348.
Een Areca ARC-1680x heeft ook 2 externe SFF-8088 aansluitingen maar heeft slechts 256MB fixed cache en een 800Mhz Intel IOP348 aan boord.
Het is lastig om in te schatten welke keuze het meeste netto performance op gaat leveren.
De bandbreedte van een SAS widelink via SFF-8088 is in theorie 4x3Gbit en dat zou in mijn situatie qua bandbreedte niet snel de bottleneck worden. Wel is het aantal te gebruiken SAS kanalen twee keer zo groot in opstelling 2. (8 i.t.t. 4 in opstelling 1).
Ga ik dit in de praktijk merken?
Is het lood om oud ijzer?
Leg ik de focus teveel op de onboard cache die wellicht geen performance boost zal kunnen geven?
Iemand die hier concrete (of andere) ideeën over heeft?
Budget voor een rackje vol met HP EVA of EMC goodies heb ik helaas niet.
Als laatste de vraag of tweakers.net interesse heeft om een dergelijke setup te gebruiken voor een benchmark sessie? In deze categorie is namelijk bijzonder weinig 'referentiemateriaal' te vinden.
Of is de ziel inmiddels verkocht aan HP met de lopende storage special
Niet alleen voor performance maar ook voor data redundantie zullen er meerdere nodes gebruikt worden. Op een enkel uitgevoerde array van 25TB+ wil je in het kader van rebuild of restore tijd niet al teveel problemen
Voor oplossingen boven de 20TB kom je al snel uit op SAS gebaseerde oplossingen.
Met SATA2 schijven kun je met een verschrikkelijk goede prijs/GB ratio 'redelijk' eenvoudig SAS dozen gaan stapelen. Je hebt dan de keus om de RAID logica op je SAS HBA plaats te laten vinden in een JBOD config of de RAID logica door het SAS chassis af te laten handelen. In het kader van beheersbaarheid en flexibiliteit gaat mijn voorkeur uit naar een high end SAS Host adapter en daar de RAID configuratie af te laten handelen.
Ik weet dat Femme persoonlijk erg gecharmeerd is van Areca hardware en ik heb daar zelf ook erg goede ervaringen mee.
Ik heb zelf inmiddels een redelijk idee wat ik wil maar zit nog met een aantal vragen, daarom hieronder een schets van 2 mogelijke implementaties:


In situatie 1 zijn de SAS JBOD chassis aangesloten in daisy-chain configuratie.
In situatie 2 zijn de SAS JBOD chassis elke aangesloten op een eigen SFF-8088 connector op de SAS HBA.
De Areca 1680ix-12 heeft 1x externe SFF-8088 connector maar wel de mogelijkheid voor een 4GB cache module.
De Adaptec 5058 heeft 2x externe SFF-8088 connectoren maar ondersteunt maar max 512MB cache.
Beide zijn voorzien van de 1200Mhz Intel IOP348.
Een Areca ARC-1680x heeft ook 2 externe SFF-8088 aansluitingen maar heeft slechts 256MB fixed cache en een 800Mhz Intel IOP348 aan boord.
Het is lastig om in te schatten welke keuze het meeste netto performance op gaat leveren.
De bandbreedte van een SAS widelink via SFF-8088 is in theorie 4x3Gbit en dat zou in mijn situatie qua bandbreedte niet snel de bottleneck worden. Wel is het aantal te gebruiken SAS kanalen twee keer zo groot in opstelling 2. (8 i.t.t. 4 in opstelling 1).
Ga ik dit in de praktijk merken?
Is het lood om oud ijzer?
Leg ik de focus teveel op de onboard cache die wellicht geen performance boost zal kunnen geven?
Iemand die hier concrete (of andere) ideeën over heeft?
Budget voor een rackje vol met HP EVA of EMC goodies heb ik helaas niet.
Als laatste de vraag of tweakers.net interesse heeft om een dergelijke setup te gebruiken voor een benchmark sessie? In deze categorie is namelijk bijzonder weinig 'referentiemateriaal' te vinden.
Of is de ziel inmiddels verkocht aan HP met de lopende storage special