Ik lees al een geruime tijd mee en vind dit echt een geweldige thread. Bij deze mijn bijdrage/inspiratie!
Ik heb ongeveer +/- 3 jaar met een desktop "home" server gedraaid, maar ben kort geleden overgegaan op een MKB setup ;-)
Het begon allemaal in eind 2005 en begin 2006.
Server 1: :LOCHNASSIE - 2005/2006 Server 1: P4 2,66GHz HT
2 Promise TX4 PCI kaartjes erin en Linux Software raid
5x300GB Maxtor Sata2
Deze vervolgens uitgebreid naar 8x 300GB
Prima servertje en voldeed uitstekend.
Men wil echter meer ruimte, dus breder orienteren en naar de toekomst kijken.
Server 2: NASSIEBAL - 2007
Stap 1 was een grotere betaalbare behuizing te vinden.
Mijn keuze was toen gevallen op de Chieftec Mesh CA-01SL-SL-B. In mijn optiek nog steeds een ideale "low-cost" servercase, Ik heb van deze case ruim 2 jaar VEEL plezier van gehad.
Ik zou geen tweaker zijn als de kast niet zou worden gemod!
De spinnenwebben verwijderd om de fans stiller te maken. Ook heb ik filter matjes gemonteerd tegen de stof inname.
Ook heb ik een 4 in 3 bay gemonteerd boven de voeding. Al met al resulterend in een case welke 20 hardeschijven kan huisvesten!
Server 1 vs. Server 2
Vervolgens al het oude materiaal overgeplaatst.
Vervolgens is na +/- 1 jaar de kast uitgebreidt met een zelfgefabriceerde aluminium 12 in 1 casing voor harde schijven, op de plaats waar toen de 4 in 3 zat (heb hier helaas geen foto van). Dit gaf de chieftec een totale capaciteit van 28 schijven! Ook heb ik toen direct een upgrade uitgeveord en een Asus P5e-ws3 bord aangeschaf en eveneens C2D 6300. Als slagroom op de taaart een ARECA 1280ML 24 poorts raid controller aangeschaft incl. 2 GB. Ook werden er 12 x 500 GB Samsung schijven aangeschaft om de 12 in 1 bay op te vullen.
Uiteindelijk is deze server uitgekomen op 10x 1 TB (Raid 6) en 12x 500GB (Raid 6) + 1x 120 GB boot (Raid 1).
Resulterend in 16 TB (13 GB aan bruikbare opslag capaciteit).
Begin 2009 was echt de druppel. Het werd nodig tijd om mijn computer park aan te pakken. Het was op zolder niet meer te doen qua warmte, om alles netjes te managen en de beschikbare ruimte. Ook had ik de nodige problemen met de NAS. Uitvallen van schijven beknelde kabels, gamele voeding. De setup was niet meer betrouwbaar en ik ergerde me groen en geel aan deze situatie.
Inmiddels was mijn serverpark "hobby" uitgegroeid tot extreme proporties. Hieronder staat een overzicht van begin 2009.
- Nas (Openfiler), C2D 6300, 2GB, 12x500GB, 10x 1TB (beide Raid6);
- Firewall / Multiwan (pfSense), Athlon 750MHz, 512 MB, 40GB;
- Gateway (clarkconnect), P4 1,7GHz, 1GB, 2x 120GB (Raid 1);
- Download server, P4 2,66GHz (@2,82 GHz), 2GB, 2x 1TB;
- HTPC, C2D Q6600, 2GB, 300GB;
- Werk PC, X2 4200+, 2GB, 2x 74GB Raptor (Raid 0);
- APC Smart UPS 3000
- Dell 2716, 16 Poort gigabit switch;
- Dell 2724, 24 Poort gigabit switch.
En dan laat ik maar het stroomverbruik achterwegen....
Al met al werd het tijd voor een drastische verandering.
Server 3 - Dreadnought & Razorback - 2009
Ik had de volgende 3 doelstellingen.
1. minder PC's, zelfde functionaliteit;
2. beter management, op de toekomst gericht;
3. verplaatsing van het computerpark van de zolder naar de garage (ruimte).
Dus aanpakken die handel!
Stap 1 orienteren mogelijkheden duurde ongeveer 2 maanden
Stap 2 spullen verzamelen duurde 4 maanden
Stap 3 bouwen en configureren 1 maand (2 weken van mijn vakantie aan opgeofferde)
Ook heb ik geleerd van mijn verleden en had ik besloten om de portomonnae te trekken en het proejct groots aan te pakken. Ik heb gekozen voor A-Merk producten van goede kwaliteit en staat van dienst.
Om doelstelling 1 en 2 te behalen:
Virtualisatie
De bovenstaande machines heb ik gevirtualiseerd op 1 server, (met uizondering van de NAS en Dell 2716 switch). Ik kan zo gemakkelijk het overzicht behouden en waar nodig nieuwe machiens installeren. Gezien de machine een C2Q Q9550 als kern heeft en 8GB werkgeheugen heb ik hier voldoende overcapaciteit.
Om doelstelling 3 te halen heb ik gekozen om de machines samen te voegen in 1 behuizing. Je komt dan automatisch uit op de industriele standaard van een 19 inch rack.
Uiteindelijk is de keus gevallen op als lichaam een 42U HP Serverrack te kiezen.
Ook heb ik een APC PDU aangeschaf om alle voedingsnoeren netjes te monteren.
Voor de virtualisaite van de bovenstaande machines heb ik met een machine samengesteld gericht op de toekomst. Het SuperMicro board is werkelijk fantastich. Ook levert SuperMicro SERVICE! Ik had eerst problemen met ESXi op dit board (VT-x, VMDirectPath). Na een mail richting SuperMicro een Beta BIOS ontvangen welke alle problemen heeft verholpen. En dit alles binnen 24 uur!
Server: Dreadnought
- Supermicro
C2SBX;
- Intel C2Q 9550 (@stock);
- Arctic cooling Freezer 7 Pro;
- 8GB DDR3 ECC Kingston Valueram;
- 4GB USB Bootstick (ESXi 4.0);
- 250GB Samsung Sata2 (Datastore Virtual Machines);
- Corsair CMPSU-850HX, 850 Watt;
-
Codegen 4u-600
- 1x Intel 1000 MT PCI-X 4x 1 GBit;
- 2x Intel 1000 PT PCI-e;
- 1x Intel 1000MT onboard;
- Scythe Flex fans;
- Operating system, VMware ESXi 4.0.
Hier een screenshot van de ESXi console
Gezien mijn problemen met de vorige NAS heb ik ook hier besloten om het professioneel aan te pakken.
De SAN is opnieuw opgebouwd met de volgende componenten:
SAN Razorback 24 TB Raid6:
- Asus Serverclass motherboard
P5BV-C/4L;
- 8 GB DDR2 ECC Kingston Valueram;
- Intel C2D E8400 (heeft zojuist een E6300 vervangen);
- Arctic cooling Freezer 7 Pro;
- Areca 1280 ML, 24 poorts Sata2 controller, 2GB DDR 2 ECC;
Norco 4020 4U 20 bay servercase;
- Samsung slimline DVD brander;
- Corsair CMPSU-750TX, 750 Watt;
- Boot Array: 2x300GB Maxtor Raid 1;
- Array 1: 12x1TB Western Digital RE3 (@ Raid6);
- Array 2: 12x1TB Gemeleerd gezelschap van desktop schijven (@ Raid6);
- Intel 1000VT PCI-e 4 x 1Gbit;
- Marvell Onboard 4 x 1 Gbit;
- Scythe Flex fans;
- Operating system, Windows Storage Server 2008.
De oplettende lezer heeft gezien dat de 1280ML een 24 poort controller is. Echter heeft de Norco behuizing maar plaats voor maximaal 20 schijven. Ik heb deze behuizing dan ook gemodificeerd met een extra interne rail (achter de 4 fans). Op deze rail heb ik 6 extra schijven gemonteerd. Totaal 42 KG, schoon aan de haak. Om deze aanvulling koel te houden heb ik eveneeens een extra 8cm in de linker PCI sloten gemonteerd.
Areca Webmanagement:
Ook heb ik even een bench voor jullie gedraaid, gelet wel dat de SAN hier in gebruik is (fileserving en download) en er dus kleine dipjes zijn waar te nemen
Array 1
Array 2
En een windows copy van array 1 naar array 2:
Om overbelasting op de locale LAN op te vangen heb ik deze aangesloten met 2 lijnen op 802.3e Dynamic Link aggregation. Het hart van de installatie vormt een Dell 6224 switch. Gezien de nogal complexe infrastructuur (5 Wan's en Local Wan) is een geavanceerde switch een musthave! Gezien mijn download server (en alle overige servers) op dreadnought draaien is bandbreedte wel gewenst. Hiervoor heb ik zes Gbit lijnen gebundeld d.m.v. MPIO (Dedicated Vlan met Dreadnought, bandbreedte in totaal 6Gbit). De NAS wordt aangeboden d.m.v. iSCSI aan Dreadnought.
Totaal trekt het geheel op bij vollast 600 Watt en idle rond de 450 Watt.
Backup server (mirror van Dreadnought)
Athlon64 X2 4200+
DFI Lanparty Nforce4
4GB Kingston
250GB Samsung
Om het onderhoud verder te vergemakkelijken heb ik alle 3 de kasten voorzien van Kingslide slidingrails. Zo kan ik gemakkelijk alle kasten uit de kast schuiven en zo onderhoud plegen, upgraden etc.. De UPS is voorzien van een sliding tray om dezelfde bovenstaande reden.
Ik kan nog wel een heel verhaal schijven over de voordelen van virtualisatie, infrastructuur en overige zaken, maar daar zitten wij niet op te wachten, aanschouw het resultaat:
En als laatste twee videos:
Video 1
Video 2
Op dit moment dus 24 TB (20 TB bruikbare capaciiteit).
Volgende stap is de 1 TB's uit te faseren en over te gaan op 2 TB schijven.
Op naar de 48 TB. . . . . .
Dit is het resultaat als bij een N*RD zijn hobby uit de hand loopt..
[
Voor 32% gewijzigd door
lampie1979 op 24-12-2009 04:54
. Reden: Youtube links ]
They call her... c*ck juggeling Thunderc*nt!