-Ankh- Camera Gear: Nikon D7000 | Nikon AF-S DX 16-85mm f3.5-5.6 AF-S DX VR & Tokina AT-X 116 Pro DX AF 11-16mm f2,8
Als je systeem je een beetje lief is, en het beschikbaarheid belangrijk is zou ik sowiezo een systeem van een merk als HP of Dell nemen met een onderhouds contract, maar dat is geheel persoonlijk
Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC
Effectief heb je dan 3,5TB aan diskspace. Meeste ruimte en RAID 5 functionaliteit.
Puur performance nodig dan kun je beter striping doen, maar ja, 1 disk stuk dan is alles weg.
Als je controller niet de performance haalt die je nodig hebt, dan zal je of duurdere controller moeten kopen of richting SAN (MSA reeks van HP bv) moeten gaan.
Bij RAID 6 zoals msteggink aangeeft houd je 3TB over vanwege de extra parity informatie.
Moet je RAID controller ondersteunen en snel genoeg voor zijn.
[ Voor 63% gewijzigd door SpamLame op 18-08-2006 12:01 ]
Ik maak maar een geintje natuurlijk, maar zo zie ik het wel.. Bel gewoon met een professional zoals Dell of HP, en laat ze een goede oplossing voorstellen.. Dit kost wel wat, maar je bedrijfskritieke processen moet je op waarde schatten..
Boeit het je allemaal niet, ga je naar de computerboer op de hoek of de buurjongen, en laat je een servertje bouwen..
Als je het zelf wilt doen, kijk ook eens naar barebones zoals Supermicro dozen.. Heb je een server met bijv 15 hotswap sata bays, hoef je alleen zelf raid controller in te prikken, CPU, en geheugen..
Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!
wat denk je wat we al gedaan hebbenaxis schreef op vrijdag 18 augustus 2006 @ 11:59:
Ik moet 50 ton aan staal verplaatsen van Tilburg naar Rotterdam, en ik heb al het motorblok van een Lada vrachtauto gekocht.. Ik moet zo snel mogelijk alles over hebben.. Wie-o-wie kan mij hierbij helpen?
Ik maak maar een geintje natuurlijk, maar zo zie ik het wel.. Bel gewoon met een professional zoals Dell of HP, en laat ze een goede oplossing voorstellen.. Dit kost wel wat, maar je bedrijfskritieke processen moet je op waarde schatten..
Boeit het je allemaal niet, ga je naar de computerboer op de hoek of de buurjongen, en laat je een servertje bouwen..
Als je het zelf wilt doen, kijk ook eens naar barebones zoals Supermicro dozen.. Heb je een server met bijv 15 hotswap sata bays, hoef je alleen zelf raid controller in te prikken, CPU, en geheugen..
Maar goed dan zal raid 5 wel het makkelijkste zijn inderdaad.
Wanneer we geheugen (hdd) erbij willen plaatsen voor nog meer ruimte. Moeten we dan vanuit gaan dat alles dan opnieuw ingesteld moet worden? of kan je dan gewoon simpel toevoegen en de raid controller voegt het via 1 druk op de knop automatisch toe aan de array?
-Ankh- Camera Gear: Nikon D7000 | Nikon AF-S DX 16-85mm f3.5-5.6 AF-S DX VR & Tokina AT-X 116 Pro DX AF 11-16mm f2,8
Hoeveel doorvoer in MB per sec moet je hebben?
Een goede controller kan een extra schijf in de array bijplaatsen en de LUN laten doorgroeien.Ankh schreef op vrijdag 18 augustus 2006 @ 12:03:
[...]
wat denk je wat we al gedaan hebbenGrote opslag bedrijven al gevraagd voor hun offerte. Enkel nu komt het. Sommige bedrijven geven ons een Raid 0 opstelling en zulke rare dingen die ze er bij plaatsen. Dus we willen eerst nog wat professionele advies hebben
![]()
Maar goed dan zal raid 5 wel het makkelijkste zijn inderdaad.
Wanneer we geheugen (hdd) erbij willen plaatsen voor nog meer ruimte. Moeten we dan vanuit gaan dat alles dan opnieuw ingesteld moet worden? of kan je dan gewoon simpel toevoegen en de raid controller voegt het via 1 druk op de knop automatisch toe aan de array?
Hoe je OS ermee omgaat is ook van belang. Een LVM systeem (Linux of HPUX etc) kan dat online, Bij Windows moet er even niemand gebruik van de disk maken VDS service starten en met diskpart extenden.
Kijk ook eens naar de Areca kaarten zij ondersteunen wat jij wil en hebben ook 12 en 16 poorts kaarten, daarnaast is het geheugen van deze kaarten makkelijk uit te breiden door het dimm slot wat op de kaart zelf zit. Tevens ondersteunen ze BBU's voor het geval je systeem zonder spanning komt te zitten.
Helaas heb ik zelf geen praktijk ervaring met deze kaarten, maar wat ik er van gelezen heb is eigenlijk alleen positief. Ze bieden een zeer goede performance, dat kun je ook terug vinden in de reviews hier op GOT/Tweakers.net.
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
EDIT: ^^^ with stupid ^^^
[ Voor 12% gewijzigd door Snow_King op 18-08-2006 12:12 ]
Dan moet je misschien aan ze vragen waarom ze dat voorstellen.. In elke situatie kan het weer anders zijn.. soms is RAID0 de beste oplossing, soms RAID5, RAID10, etc.. allemaal voor- en nadelen..Ankh schreef op vrijdag 18 augustus 2006 @ 12:03:
[...]
wat denk je wat we al gedaan hebbenGrote opslag bedrijven al gevraagd voor hun offerte. Enkel nu komt het. Sommige bedrijven geven ons een Raid 0 opstelling en zulke rare dingen die ze er bij plaatsen. Dus we willen eerst nog wat professionele advies hebben
Wat is hiervoor je argumentatie? Je moet samen met die vriend van je beslissen WAAROM je kiest voor een RAID level.. Wij kunnen alleen de voor- en nadelen toelichten, jij moet beslissingen nemen..Maar goed dan zal raid 5 wel het makkelijkste zijn inderdaad.
Je zegt niets over wat voor data het is, en of je uberhaupt redundantie wilt.. Mijn glazen bol is stuk..
Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!
reviews: Mega roundup van Serial ATA RAID 5-adapters
reviews: Areca ARC-1280 preview en mini SATA RAID-vergelijking
Misschien wel een hot-spare erbij voor auto-rebuild.
Zie ook 123-3D voor 3D-printer stuff
Dan heb je altijd mooie kans op uitbreiding, want dit zal hoogstwaarschijnlijk toch nodig zijn, hoe groot je je array nu ook maakt. (Ga maar na wat we "veel" vonden zo'n 3 à 4 jaar geleden

We hebben veel Dell, maar ivm met ons Linux gebruik graag een hardware RAID controller ipv die snelle software dingen van Dell. Die hebben we ook en is in ons oog net zo goed als een software RAID set.
Maar goed, wat wij hebben hiero is een RAID6 setup over alle 16 disken en dan via de logical volume manager die in de kast zelf zit zo geconfigureerd dat er 4 partities bestaan. Iedere partitie is aan 1 van de twee SCSI interface toegewezen (twee U320 SCSI aansluitingen). Dat scheelt in de overhead en de linux versie die wij gebruiken kan geen blockdevices groter dan 2TB aansturen. We moeten nog over naar RH4.x daarvoor.
Ow en van die 16 disken is er 1 hotspare.
I've visited the Mothership @ Cupertino
Brupje schreef op vrijdag 18 augustus 2006 @ 12:17:
raid 10 is erg schijfruimte vereisend. Als dat je belangrijkste punt is zou ik toch voor raid 5 gaan.
Misschien wel een hot-spare erbij voor auto-rebuild.

In de praktijk hangt dit allemaal nogal af van de RAID-controller die gebruikt wordt. Er is geen enkele controller die perfect schaalt met zoveel harde schijven. De prestatieverschillen tussen de diverse RAID-controllers zijn erg groot. Een Areca presteert echter erg goed in RAID 5 en RAID 6. Vooral de nieuwe serie met de IOP342 processor is zeer geschikt voor grote arrays die hoge doorvoorsnelheden voor hun kiezen krijgen.
Een zeer flexibele oplossing voor je systeem.
offtopic:
Maar ja... het wordt straks een grotere uitdaging binnenshuis als we hier opschalen naar een multi-Petabyte disk faciliteit.
I've visited the Mothership @ Cupertino
OT: Dat wordt voor jou een EVA of Symmetrix Storage System oidVisionMaster schreef op vrijdag 18 augustus 2006 @ 15:44:
Het scheelt dat wij geen database op onze RAID sets hebben, maar simpelweg grote files. Van een paar meg tot vele gigabytes. Dus gelukkig kan je dan wel de rauwe doorvoersnelheid beter bereiken en in dit geval via twee SCSI porten bij ons.
Een zeer flexibele oplossing voor je systeem.
offtopic:
Maar ja... het wordt straks een grotere uitdaging binnenshuis als we hier opschalen naar een multi-Petabyte disk faciliteit.
Bedankt voor de tips! Ik zal die effe doorsturen. Ja, ik denk dat we zulke systemen nodig zullen hebben ivm: http://www.nikhef.nl/grid/BIG/SpamLame schreef op vrijdag 18 augustus 2006 @ 16:46:
[...]
OT: Dat wordt voor jou een EVA of Symmetrix Storage System oid
Opzich zullen we het wel opdelen in velen TB's per locatie. Want dit gaat om een nationaal e-Science Grid infrastructuur. Dus het idee is dat er veel systemen op diverse locaties komen te staan en verbonden worden met Grid tools. Waarvan wij in Amsterdam (NIKHEF en SARA) veel zullen huisvesten, waarschijnlijk met een hoop losse systemen. http://www.nikhef.nl/grid/
Slight back on topic:
De komende tijd moeten we het dus doen met van die losse storage kasten van 3U.
We hebben een semi-zelfsamenstel ding ooit gekocht. En die werkte prima. 7 disken op de linker SCSI kabel, 7 disken op de rechter (2 hotspare per RAID-5). Daarna nog een paar van gekocht. Daarna een Dell rack gekocht. Met 4TB netto in RAID-5.
Een detail met die was dat je het naar je wens kan configureren, maar in Linux kon je nog iedere RAID-5 disk als apart device in je systeem zien. Dus, als ik me niet vergis kwam het neer op host-based RAID. Erg leuk, maar niet zo dynamix als onze drie nieuwe RAID bakken met 16 disken.
Met die kan je dus aangeven hoe de devices moeten werken, dus wat voor RAID config je neemt en welke hot-spare. (1x RAID-6 in dit geval). Op dat rack kon je via het display (of comport console) aangeven dat je partities wilde maken van je RAID set.
Wij hebben daar dan 4 partities van gemaakt, omdat we onder de 2TB uitmoesten komen ivm Red Hat 3. We moeten nog eens over naar RH4 die wel iig 4TB ondersteunt per blockdevice.
Ow en je moest dus aangeven via welke van de 2 SCSI interfaces de partities kunnen worden aangesproken. In je linux device lijst zien we dus nu 4 blockdevices aan de machine hangen. In je OS merk je dus niet dat je wellicht je configuratie iets wijzigt als je dat wilt.
I've visited the Mothership @ Cupertino
Een beetje goede storage bak zal de aangemaakte LUN's kunnen aanbieden via 2 paden (al dan niet tegelijk). In linux zie je dat terug als elke LUN die 2 maal in ioscan voorkomt. Mbv LVM kun je dan het OS inlichten dat er 2 paden zijn (alternate link, optie die je opgeeft bij een pvcreate commando), heb je hogere beschikbaarheid.VisionMaster schreef op vrijdag 18 augustus 2006 @ 20:13:
[...]
Bedankt voor de tips! Ik zal die effe doorsturen. Ja, ik denk dat we zulke systemen nodig zullen hebben ivm: http://www.nikhef.nl/grid/BIG/
Opzich zullen we het wel opdelen in velen TB's per locatie. Want dit gaat om een nationaal e-Science Grid infrastructuur. Dus het idee is dat er veel systemen op diverse locaties komen te staan en verbonden worden met Grid tools. Waarvan wij in Amsterdam (NIKHEF en SARA) veel zullen huisvesten, waarschijnlijk met een hoop losse systemen. http://www.nikhef.nl/grid/
Slight back on topic:
De komende tijd moeten we het dus doen met van die losse storage kasten van 3U.
We hebben een semi-zelfsamenstel ding ooit gekocht. En die werkte prima. 7 disken op de linker SCSI kabel, 7 disken op de rechter (2 hotspare per RAID-5). Daarna nog een paar van gekocht. Daarna een Dell rack gekocht. Met 4TB netto in RAID-5.
Een detail met die was dat je het naar je wens kan configureren, maar in Linux kon je nog iedere RAID-5 disk als apart device in je systeem zien. Dus, als ik me niet vergis kwam het neer op host-based RAID. Erg leuk, maar niet zo dynamix als onze drie nieuwe RAID bakken met 16 disken.
Met die kan je dus aangeven hoe de devices moeten werken, dus wat voor RAID config je neemt en welke hot-spare. (1x RAID-6 in dit geval). Op dat rack kon je via het display (of comport console) aangeven dat je partities wilde maken van je RAID set.
Wij hebben daar dan 4 partities van gemaakt, omdat we onder de 2TB uitmoesten komen ivm Red Hat 3. We moeten nog eens over naar RH4 die wel iig 4TB ondersteunt per blockdevice.
Ow en je moest dus aangeven via welke van de 2 SCSI interfaces de partities kunnen worden aangesproken. In je linux device lijst zien we dus nu 4 blockdevices aan de machine hangen. In je OS merk je dus niet dat je wellicht je configuratie iets wijzigt als je dat wilt.
Ow cool, zal ik eens vragen of wij dat ook hebben. Dus als ik het goed begrijp is de LUN dus configeerbaar om via beide interfaces aangesproken te worden. Ik denk niet dat het vaak voor zal komen dat er iemand daar een SCSI kabel uit het rack zal halen, maar behalve de cool & abstract factor, wat is het nut ervan? Kan je een toepassing noemen waarvoor iemand dat moet kunnen?SpamLame schreef op vrijdag 18 augustus 2006 @ 22:28:
[...]
Een beetje goede storage bak zal de aangemaakte LUN's kunnen aanbieden via 2 paden (al dan niet tegelijk). In linux zie je dat terug als elke LUN die 2 maal in ioscan voorkomt. Mbv LVM kun je dan het OS inlichten dat er 2 paden zijn (alternate link, optie die je opgeeft bij een pvcreate commando), heb je hogere beschikbaarheid.
I've visited the Mothership @ Cupertino
Clusternodes, loadbalancing en redundancy.VisionMaster schreef op zondag 20 augustus 2006 @ 15:04:
[...]
Kan je een toepassing noemen waarvoor iemand dat moet kunnen?
Enfin, als je naar externe doosjes gaat kijken zou je ook een blik kunnen werpen op producten van o.a. http://www.dothill.com/products/storage.htm of http://www.transtec.de/D/D/products/Storage.html - beiden zijn in Nederland gesupport (ook 24/7) door een Nederlandse vestiging. Met beiden heb ik nu anderhalf jaar ervaring met de FC en SATA doosjes, erg goede prijs/kwaliteit verhouding. Niet vergelijkbaar met IBM/EMC/NetApp enz. natuurlijk, da's een prijsklasse hoger.
Specs ... maar nog twee jaar zes maanden en dan weer 130!