RAID en dataintegriteit in thuisservers

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

  • muja
  • Registratie: Juli 2003
  • Laatst online: 14-08 12:52
Modbreak:deze berichten zijn afgesplitst van Nieuwe Zuinige Server (discussie)


@mux

Dat van die Native SATA Power weet ik uit ervaring.
Ik heb vele PC's en Servers gebouwd met zowel onboard Intel, nVidia en AMD als met ARECA RAID Controllers varierend van de ARC1200 tot de ARC1880. Met enkele van die systemen heb ik in het verleden problemenen gehad met uitvallende RAID arrays.
Deze problemen bleken uiteindelijk terug te voeren op Molex naar SATA converters. Van die kabeltjes met 1 molex connector en 2 SATA connectors dus. In verschillende gevallen waren de problemen met de RAID arrays direct opgelost door het gebruik van de converters te vermijden. Dit door een goed backplane toe te passen of door simpelweg elke schijf aan te sluiten op een SATA Power connector met een native 3 Volt lijn. Vroeger had je ook nog schijven met Molex en SATA connectors aan boord. Die aansluiten met de Molex connector gaf ook geen problemen.
Als ik ergens alergisch voor ben is het wel uitvallende RAID arrays met belangrijke data.
Mijn Corsair Obsidian heeft ook een soort van amateuristische backplane oplossing die ik niet helmaal vertrouw. Deze heb ik vorige week weer in gebruik genomen en ik heb al 2 keer 2TB moeten rebuilden.
Er had best een minder krachtige voeding in gekund maar deze had ik liggen.
Het voordeel van de ARECA controller light hem niet alleen in de snelheid maar ook in hoe robuust een en ander is. Als ik er een storing mee heb dan weet ik hoe ik die opgelost kan krijgen.


De keus voor RAID5 ipv Jbod lijkt me duidelijk: Redundancy! 4.5 TB kwijtraken is geen pretje.

Vergeet ook niet dat de Areca Controllers 128MB, 256MB of meer aan onboard geheugen hebben. Deze kaarten profiteren weldegelijk van een groter aantal lanes dan 1. Buiten dat vind ik een moederbord waar ik de kaart gewoon zo in kan prikken wel handig ;) Zagen aan PCI-E sloten schijnt ook je warranty te voiden :z

[ Voor 9% gewijzigd door Verwijderd op 21-01-2011 15:46 ]


Acties:
  • 0 Henk 'm!

  • Erwin1967
  • Registratie: Oktober 2002
  • Laatst online: 11-09 14:54
muja schreef op donderdag 20 januari 2011 @ 22:28:
@mux

De keus voor RAID5 ipv Jbod lijkt me duidelijk: Redundancy! 4.5 TB kwijtraken is geen pretje.
Wellicht offtopic maar maak je hier ook nog een backup van? Dergelijke grote filesystems lijken mij lastig te backuppen zonder een tweede server.

Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Erwin1967 schreef op donderdag 20 januari 2011 @ 23:07:
[...]

Wellicht offtopic maar maak je hier ook nog een backup van? Dergelijke grote filesystems lijken mij lastig te backuppen zonder een tweede server.
Ik mag hopen van wel, omdat RAID != backup. Daarom is de redenering dat redundancy de reden is om geen data kwijt te raken in een RAID5 nogal gevaarlijk. Natuurlijk is het fijn dat als er een schijf uitvalt en je er een nieuwe in propt en het allemaal werkt en er geen andere schijven uitvallen en de controller er niet mee ophoudt of je een power failure krijgt of een virus had of een bestand had overschreven, dan is het fijn dat je al je data nog hebt.

Single point of failure, onthoudt die term.

Maar goed, dit is al heel vaak uitgekauwd.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
-Moondust- schreef op woensdag 19 januari 2011 @ 19:49:
[...]

Ik bedoel de X8SIL-F. Daar zit de Intel® 3420 Chipset op.
Staggered Spinup zit bijna alleen op echte raidcontrollers. Het 'gewone' 3420 chipset ondersteund het naar mijn
weten niet... Mocht je het *echt* heel graag willen weten, moet ik vandeweek even kijken, want ik heb ook een 3420 chipset. Maar dat kost me wat moeite, dus dat moet wel met een goede reden zijn :P

Even niets...


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

remmelt schreef op vrijdag 21 januari 2011 @ 10:02:
[...]


Ik mag hopen van wel, omdat RAID != backup. Daarom is de redenering dat redundancy de reden is om geen data kwijt te raken in een RAID5 nogal gevaarlijk. Natuurlijk is het fijn dat als er een schijf uitvalt en je er een nieuwe in propt en het allemaal werkt en er geen andere schijven uitvallen en de controller er niet mee ophoudt of je een power failure krijgt of een virus had of een bestand had overschreven, dan is het fijn dat je al je data nog hebt.

Single point of failure, onthoudt die term.

Maar goed, dit is al heel vaak uitgekauwd.
En dat is de reden dat ik het élke keer weer vraag. RAID is het laatste artikel op je prioriteitenlijst!

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


Acties:
  • 0 Henk 'm!

  • Jaap-Jan
  • Registratie: Februari 2001
  • Laatst online: 11-09 13:16
mux schreef op vrijdag 21 januari 2011 @ 11:17:
[...]


En dat is de reden dat ik het élke keer weer vraag. RAID is het laatste artikel op je prioriteitenlijst!
Dan ben ik benieuwd hoe jullie dit zouden doen.

Ik heb belangrijke data (homedirectories, foto's, muziekcollectie waar veel werk heeft ingezeten en alles onder /srv (website en subversion) en minder belangrijke data (video, gedownloade programma's, downloadmap).

De belangrijke data wordt elke nacht gebackupt naar een oud bakkie met 2x 250 GB PATA schijven in software RAID 0 die uit mijn vorige server komen. De minder belangrijke data mag weg, maar wil ik wel beschermd hebben tegen hardeschijfuitval.

Ik gebruik 3x 1 TB (WD10EVDS). Van elke schijf gaat 4 GB naar het OS in RAID 1 (driedubbele redundantie dus) en 1 GB naar swap. Alle data op de server staat op drie schijven in een software RAID 5- partitie van 995 GB (1990 GB aan bruikbare ruimte) die met LVM2 is onderverdeeld in data-homes+music+photos (470 GB), data-srv (20GB) en data-shared (1400 GB).

Hoe zouden jullie deze data opslaan en backuppen als je de volgende eisen hebt:
1) Belangrijke data mag niet verloren gaan. Niet door uitval of menselijk falen.
2) Minder belangrijke data mag niet verloren gaan door het uitvallen van 1 schijf.

Als ik nu evenveel data zou willen opslaan zou ik 2x 2 TB schijven aanschaffen en de hele bende in RAID 1 gooien, dan heb ik ongeveer evenveel effectieve opslag en 1 schijf minder.

| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Ik ga het kort herhalen ondanks dat het al vaker is langsgekomen:

Verlies van data in een huisomgeving komt in 90% van de gevallen (figure of speech, de overgrote meerderheid) door een oorzaak anders dan disk failure. Belangrijke oorzaken zijn: menselijk falen, falen van een eigengebouwde computer, externe gedeelde oorzaken (brand, waterschade, elektrisch probleem). Op consumentenelektronica zit bovendien geen enkele kwantificatie van betrouwbaarheid; je hebt een hoop onbekende oorzaken en niet genoeg manieren om oorzaken realtime te analyseren. RAID verhelpt slechts een - klein - aspect van die overgebleven 10% oorzaken van dataverlies. Bovendien geeft RAID je maar heel erg weinig extra zekerheid: je bent beschermd tegen uitval van één schijf (in de meeste gevallen), ten koste van 50% of 33% extra complexiteit. Deze complexiteit (in wiskundige zin) zorgt ervoor dat ook zonder enige fysieke of elektrische schade een RAID-array kapot kan gaan en moet worden gerebuild. Een RAID-1 array van twee schijven geeft je in werkelijkheid niet een verdubbeling van je betrouwbaarheid, maar een paar procent betere betrouwbaarheid door genoemde oorzaken. Het kost echter wel veel meer geld dan simpelweg 1 schijf, zowel in aanschaf als operatie. RAID5 is technisch gezien betrouwbaarder omdat je minder complexiteit toevoegt, en het is goedkoper om te implementeren, maar het beschermt nog steeds slechts zeer beperkt omdat in een ongecontroleerde, ongekwantificeerde omgeving je geen idee hebt van je absolute dataveiligheid.

Backups zijn véél effectiever voor dataveiligheid; zeker als je backups gekwantificeerd betrouwbaar zijn. Een Amazon S3 of EC2 cloud service vertelt jou exact wat de betrouwbaarheid van hun opslag is. Het is bovendien offsite dus onafhankelijk van lokale invloeden. Vergeleken met elke RAID-array win je op zijn minst een orde van grootte aan betrouwbaarheid met een gekwantificeerde offsite backup.

In deze zelfde train of thought kun je ook beter je systeem zoveel mogelijk inrichten op betrouwbaarheid en foolproof-heid: bescherming tegen plotselinge stroomuitval, bescherming tegen oververhitting, ECC geheugen (een significante hoeveelheid van hardware failures zit in geheugen, heb ik me de afgelopen tijd toe laten overtuigen) en vooral reductie van complexiteit (minder en betrouwbaardere componenten->proportioneel minder kans op uitval, wat wederom een veel groter effect kan hebben dan RAID). Pas helemaal aan het einde van de rit kun je RAID overwegen.

RAID is namelijk géén manier om je dataveiligheid te waarborgen. Daar is het nooit voor bedoeld. RAID is zo onbetrouwbaar als de pest, genoeg implementaties zijn heel gevoelig voor het soort schijf en gaan gauw stuk om onduidelijke redenen. Het is bedoeld om het gemakkelijk te maken om snel een drive te vervangen die is gefaald, zonder downtime. Het is convenience, met een marginaal betrouwbaarheidsaspect. Het kost veel meer tijd om je dataschijven te moeten uitwisselen en een hele (paar TB) backup van een offsite locatie te halen dan om een nieuwe schijf erin te ploppen en het ding te laten rebuilden.

Dus:
- Eerst backups regelen
- dan je systeem idiotproof maken
- ...
- ....
- profit
- RAID

edit: TR verstuurd of dit naar z'n eigen topic mag, dus gelieve even te wachten met reageren :)

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


Acties:
  • 0 Henk 'm!

  • iNSaNe-oNe
  • Registratie: Augustus 2000
  • Laatst online: 23:31

iNSaNe-oNe

Ja, ik ben pluizig en blauw!

Zwaar off-topic. Niet doen. Is eerder in dit topic besproken. Gelieve een eigen topic hiervoor te maken en het weer over zuinige servers te gaan hebben...

* iNSaNe-oNe krijgt flashbacks naar nog niet zo lang geleden... :X

[ Voor 1% gewijzigd door iNSaNe-oNe op 22-01-2011 14:02 . Reden: Sja, als we topics gaan afsplitsen is dit natuurlijk opeens overbodig om op te merken. :) ]

... en oranje! :P


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
mux schreef op vrijdag 21 januari 2011 @ 12:37:
...ECC geheugen (een significante hoeveelheid van hardware failures zit in geheugen, heb ik me de afgelopen tijd toe laten overtuigen)...
Graag gedaan, ik sta graag aan het begin van zulke inzichten :P
Maar inderdaad, deze discussie komt wel vaker terug. Misschien handig om dit af te splitsen in een topic en in de waarschuwing te verwijzen naar het topic?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Jaap-Jan
  • Registratie: Februari 2001
  • Laatst online: 11-09 13:16
Je maakt er nou wel een heel, heel, heeeeel algemeen verhaal van. ;)

1) backups zijn geregeld voor noodzakelijke data. Maar jij hebt vast ook wel data die je kunt missen. Wat doe je daarmee? Weg = pech? Of toch backuppen? Want dan heb je al twee keer zoveel geld nodig om genoeg opslag te hebben.

2) Geheugenfouten kunnen ook optreden inderdaad en ook kopiëerfouten tussen schijven of van het netwerk af (CRC-16 is nou niet het meest betrouwbare foutdetectiesysteem op 1500 bytes aan data).

3) Backuppen in de cloud wil ik ook nog automatiseren, voornamelijk voor foto's. Het kan natuurlijk altijd gebeuren, maar ik zie 'mijn' huis nog niet zo snel affikken. Dat zie ik als een laag risico wat ik op dit moment neem.
Dadona schreef op vrijdag 21 januari 2011 @ 12:52:
[...]
Graag gedaan, ik sta graag aan het begin van zulke inzichten :P
Maar inderdaad, deze discussie komt wel vaker terug. Misschien handig om dit af te splitsen in een topic en in de waarschuwing te verwijzen naar het topic?
Ga ik doen. Ik vind het wel een interessante discussie en zou graag op andere gedachten worden gebracht over hoe ik (en anderen) hun data- integriteit beter kunnen aanpakken. :)

[ Voor 23% gewijzigd door Jaap-Jan op 21-01-2011 13:01 ]

| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Je kunt ook hier Thematopic: Backups even kijken.
Misschien moeten we dat topic eens 'kapen'. Door meerdere mensen te laten toevoegen aan de topicstart kunnen we een beetje de 'geloofsstromen' uiteen zetten en dan te verwijzen naar replies die daarbij passen. Maar mijn voorkeur zou ernaar uitgaan om het alleen als inspiratiebron te gebruiken en er een frist topic aan te wagen.
Het lijkt mij verstandig om dan wel met Het grote DIY RAID NAS topic deel 3 samen aan de slag te gaan. Ook daar hikken ze tegen een nieuwe TS aan. Enige probleem dat ik wel voorzie is de beperkte grootte van een topicstart en dat de tweede reply maar van één auteur kan komen.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
Dadona schreef op vrijdag 21 januari 2011 @ 13:35:
Je kunt ook hier Thematopic: Backups even kijken.
Misschien moeten we dat topic eens 'kapen'. Door meerdere mensen te laten toevoegen aan de topicstart kunnen we een beetje de 'geloofsstromen' uiteen zetten en dan te verwijzen naar replies die daarbij passen. Maar mijn voorkeur zou ernaar uitgaan om het alleen als inspiratiebron te gebruiken en er een frist topic aan te wagen.
Het lijkt mij verstandig om dan wel met Het grote DIY RAID NAS topic deel 3 samen aan de slag te gaan. Ook daar hikken ze tegen een nieuwe TS aan. Enige probleem dat ik wel voorzie is de beperkte grootte van een topicstart en dat de tweede reply maar van één auteur kan komen.
Ach, dan spreek je toch gewoon een verdeling af, en je laat elke vervolgpost over een bepaald topic gaan.
Dus 1 reply over RAID, 1 over Backups, 1 over ECC geheugen, 1 over VT-x/VT-d. (die wil ik wel doen :P )

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Het punt is dat je dan met de afhankelijkheid zit. Als jij een stukje gaat schrijven en er dan echt klaar mee bent dan kan ik er niets meer aan toevoegen. Maar als de limieten de komende tijd niet worden weggehaald (ik heb het al aangevraagd) dan moeten we het inderdaad opsplitsen. Maar bepaalde zaken zijn misschien zelfs beter als apart topic. VT-x/VT-d lijkt mij een subtopic in virtualisatie, maar Backup is wel een apart topic waard net als RAID.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
Maar dan krijg je zoveel "Het Grote ** Topic"'s :)

• Het Grote Virtualisatie Topic
• Het Grote RAID Topic
• Het Grote Backup Topic
• Het Grote ECC Geheugen Topic
• Het Grote IkWilEenPownageServer Topic

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Hopelijk ook meteen meer diepgang. Één topic met alles daarin gaat snel een chaos worden, zoals in dit topic al duidelijk is geworden. Uiteindelijk gaan pagina's 27-32 over RAID, 33-34 over een nieuwe samenstelling, 35-38 SB en 39-40 weer over RAID... Wat is 'ontopic' dan nog?
Juist die diepgang mis ik af en toe wel eens. Als je eens een interessant balletje opgooit dan raakt deze al snel weer ondergesneeuwd door een vraagje waar het al heel vaak over is gegaan.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
Mjah, in dat opzicht is het natuurlijk zo dat een DIY RAID NAS een opkomend iets is onder veel tweakers, en dat we dagelijks ' nieuwelingen' erbij krijgen :)

EDIT:

Zij die uit een ander topic geknipt zijn groeten de nieuwelingen!
Laten we het eens over Dataintegriteit hebben!

Allereerst misschien: Wat houdt je data integer en waarom?

[ Voor 37% gewijzigd door FireDrunk op 21-01-2011 16:11 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Het probleem is denk ik vooral dat alle traditionele methoden voor dataopslag vandaag de dag niet veilig genoeg zijn. NTFS en Ext3 kunnen niet beschermen tegen de relatief hoge Bit-Error-Rate van huidige hardeschijven met steeds hogere datadichtheid.

Dat maakt de noodzaak voor meer bescherming steeds nijpender naar mate we de datadichtheid verhogen. Om die reden worden filesystems met bescherming hiertegen: Btrfs en ZFS, steeds populairder. Gek genoeg zie ik nog weinig tweakers hiermee stoeien, maar dat zal vast wel komen zodra het besef groter wordt dat traditioneel RAID geen bescherming biedt tegen BER en dus geen betrouwbaar opslagmedium vormt.

De beste bescherming zou je hebben met een goede combinatie van backups en een veilig filesystem zoals ZFS met gebruik van snapshots; dan heb je zoveel bescherming dat dataverlies tot het verleden behoort. Ook zul je vanaf dat moment nooit meer silent corruption kennen; als er corruptie optreedt kun je dat zien en als het niet automatisch gecorrigeerd wordt dan zie je welke bestanden aangetast zijn. Nu vandaag de dag heeft vrijwel niemand die bescherming, en is een bit flipje hier en daar de normaalste zaak. Al die 'blipjes' in je mp3tjes of .avi's zijn daar een goed voorbeeld van. In dat geval is het ook niet zo erg; een bit flipje in je metadata of firefox profiel etc lijkt me veel kwalijker.

Wat doen jullie tweakers eigenlijk met dit probleem? Iedereen dit hiervan op de hoogte is draait allang ZFS?

Acties:
  • 0 Henk 'm!

  • M2M
  • Registratie: Juli 2006
  • Laatst online: 17:01

M2M

medicijnman

Verwijderd schreef op vrijdag 21 januari 2011 @ 16:11:
Het probleem is denk ik vooral dat alle traditionele methoden voor dataopslag vandaag de dag niet veilig genoeg zijn. NTFS en Ext3 kunnen niet beschermen tegen de relatief hoge Bit-Error-Rate van huidige hardeschijven met steeds hogere datadichtheid.
Bovendien worden schijven steeds groter waardoor mensen veel meer data kwijt raken als ze een harde schijf verliezen.

Verder backup ik belangrijke data extern. En belangrijke data is voor mij enkel data die door mij gegenereerd is. Alle films, muziek, savegames, programma's, downloads, misc files en andere zut zal me een worst wezen. Ik heb nog geen serieuze catastrofe gehad, in de 15 jaar dat ik dingen met een computer doe. Harde schijven zijn wel doodgegaan, maar zolang je de belangrijke data (dat bij momenteel zo'n 30 GB bedraagt) meervoudig opslaat, op externe locatie (bij ouders in dit geval) is er niets aan de hand als er wat stuk gaat.

Tuurlijk ben je een hoop data kwijt als je 6TB array compleet naar de klote gaat door blikseminslag ofzo. En dat kost ook bergen tijd om te vervangen / terughalen. Maar hoeveel van die data gebruik je nu echt? Hoeveel data heb je dat je enkel hebt vanwege een verzameldrift?

Overigens, @ TS: Waarom zie ik eigenlijk bij de meeste harde schijven, powerconsumptie uitgedrukt worden in amperages in 5V en 12V lijnen? Ik zie helemaal niets over 3.3V of andere voltages. Mij lijkt het ook een nutteloos voltage dat toch nauwelijks meer gebruikt wordt. Misschien dat server HD's er wel wat mee doen?

edit: Vermogens vereisten (volgens samsung website) zijn enkel op 5V en 12V lijnen.
Wat doen jullie tweakers eigenlijk met dit probleem? Iedereen dit hiervan op de hoogte is draait allang ZFS?
Over hoeveel procent van de bitjes hebben we het hier? Hoeveel procent valt om in een file systeem? zolang dat ergens in de terabit blijft hangen heb ik er geen problemen mee. Zolang je meerdere backups hebt, en je merkt dat files corrupt zijn, plaats je een kopie weer terug. (uiteraard syncen we additief)

[ Voor 13% gewijzigd door M2M op 21-01-2011 16:30 ]

-_-


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Ah, het ZFS promoteam is er ook, mooi :) :+
ZFS is al lange tijd op mijn radar en ik heb er al wat mee lopen spelen. Voor mij definitieve NAS gaat het zonder meer FreeBSD met ZFS worden, alleen de vorm waarin is nog het punt. Ik vraag mij namelijk af of ik bij een 'bare metal' hypervisor, zonder passthrough, als XenServer niet het data integriteit aspect teniet doe.
XenServer doet nog niet aan passthrough van PCI-e, waardoor een FreeBSD guest niet bij de schijven zelf komt. ProxMox doet er volgens mij ook niet aan. ESXi kan dat wel, maar dan moet ik eerst even kijken of mijn AMD processor uberhaupt aan die passthrough doet.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

M2M schreef op vrijdag 21 januari 2011 @ 16:24:
[...]
Bovendien worden schijven steeds groter waardoor mensen veel meer data kwijt raken als ze een harde schijf verliezen.
Aan de andere kant, backuppen is misschien wel weer makkelijker: een enkele 2TB externe schijf moeten een hele hoop mensen een eind moeten komen.

Zelfs al heb je iets van 10TB totaal, dan nog kunnen de echt belangrijke bestanden veel minder zijn dan dat; vanwege het feit dat sommige bestanden simpelweg niet belangrijk zijn, vaak is wat wél belangrijk is helemaal niet zo groot. Je echt belangrijke documenten wat op een USB stick past moet je minimaal twee keer gebackupt hebben denk ik. Dus goede backups maken is misschien wel iets makkelijker geworden.

Ook biedt ZFS bescherming tegen sommige gevaren waar traditioneel alleen een backup tegen beschermde. Neem bijvoorbeeld een virus dat je bestanden infecteert of een perongeluk verwijderd bestand wat heel belangrijk was; daarvoor heb je snapshots en dat werkt fantastisch.
Overigens, @ TS: Waarom zie ik eigenlijk bij de meeste harde schijven, powerconsumptie uitgedrukt worden in amperages in 5V en 12V lijnen? Ik zie helemaal niets over 3.3V of andere voltages.
Dat komt omdat hardeschijven helemaal geen 3.3V kunnen gebruiken, omdat de kabel dit voltage niet levert. Alleen de originele SATA power connectors en ouderwetse floppy connectors hebben 3.3V. Micro-SATA en andere 1,8" SSDs gebruiken ook 3.3V, maar toch is 5V en 12V de standaard. 3.3V kan denk ik beter worden afgeschaft. 5V en 12V zijn mooie standaard voltages, zo doet USB standaard 5V dus dat als input gebruiken komt heel goed van pas met b.v. een externe SSD met USB 3.0 aansluiting.
Over hoeveel procent van de bitjes hebben we het hier? Hoeveel procent valt om in een file systeem? zolang dat ergens in de terabit blijft hangen heb ik er geen problemen mee. Zolang je meerdere backups hebt, en je merkt dat files corrupt zijn, plaats je een kopie weer terug. (uiteraard syncen we additief)
Kort gezegd: het is niet dat je files zomaar corrupt worden, maar wel dat je hardeschijf onleesbaar gaat worden.

Met 512-byte sectoren hebben we 40-byte ECC voor error detectie en correctie. Voordat we ECC toepassen kunnen we een 'ruwe error rate' oftewel BER (Bit-Error-Rate) veronderstellen die zeer groot is; bijvoorbeeld dat slechts de helft van de hardeschijf gelezen kan worden de andere helft vertoont corruptie. De ECC is dus absoluut nodig om te achterhalen wat je hardeschijf heeft opgeslagen. Normale 512-byte sector hardeschijven gebruiken 40-bytes per sector om die bescherming te bieden. 4K sector hardeschijven bieden 100-bytes wat dus veel betere bescherming biedt. Als de hoeveelheid fouten de error correcting abilities van ECC overschrijdt, dan heb je een bad of weak sector. Dit kan gebeuren zonder dat er enige fysieke schade aan die sector is, en hij kan gewoon nog gebruikt worden in dat specifieke geval alleen heb je een read error als je de onleesbare (niet door ECC corrigeerbare) data wilt lezen in die sector.

Met 4K sectoren krijgen we 100-bytes ECC per sector, wat het aantal gevallen wat niet door de 40-byte ECC 'gedekt' wordt, te verkleinen. Het deel dat toch door de ECC bescherming komt, wordt uBER (Uncorrectable Bit-Error-Rate) genoemd, en wordt geschreven als 10^-14 bijvoorbeeld.

Het probleem is dus dat BER enigszins stabiel is gebleven; per TB een bad sector even kort gezegd. Als de hardeschijven steeds groter worden en BER blijft hetzelfde, gaat je hardeschijf dus relatief gezien steeds vaker bad sectors of onleesbare data tegenkomen, dat is best een groot probleem!

Om deze reden wilde Microsoft met WHS Vail de opvolger van Drive Extender (2.0) uitrusten met een bit-rot protection, een overhead van zo'n 16% die in feite de ECC in de hardeschijf aanvult. Maar iets als ZFS is natuurlijk veel beter, veel geavanceerder, en veel veiliger. Als je bescherming tegen corruptie wilt, is ZFS je (enige) vriend.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
Dadona schreef op vrijdag 21 januari 2011 @ 16:28:
Ah, het ZFS promoteam is er ook, mooi :) :+
ZFS is al lange tijd op mijn radar en ik heb er al wat mee lopen spelen. Voor mij definitieve NAS gaat het zonder meer FreeBSD met ZFS worden, alleen de vorm waarin is nog het punt. Ik vraag mij namelijk af of ik bij een 'bare metal' hypervisor, zonder passthrough, als XenServer niet het data integriteit aspect teniet doe.
XenServer doet nog niet aan passthrough van PCI-e, waardoor een FreeBSD guest niet bij de schijven zelf komt. ProxMox doet er volgens mij ook niet aan. ESXi kan dat wel, maar dan moet ik eerst even kijken of mijn AMD processor uberhaupt aan die passthrough doet.
Uuuh, XEN (dus niet XenServer) kan ook PCIe passthrough hoor.
Dus in XenServer zal het vast ook wel kunnen (met wat vieze hacks :P )

http://wiki.xensource.com/xenwiki/VTdHowTo

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Verwijderd schreef op vrijdag 21 januari 2011 @ 17:02:
[...]
Ook biedt ZFS bescherming tegen sommige gevaren waar traditioneel alleen een backup tegen beschermde. Neem bijvoorbeeld een virus dat je bestanden infecteert of een perongeluk verwijderd bestand wat heel belangrijk was; daarvoor heb je snapshots en dat werkt fantastisch.
Volgens mij klopt dat niet. Snapshots zijn ideaal om een state vast te leggen en zo rustig daar een backup van te maken, maar snapshots zijn geen alternatief voor een backup. Als ik het mij goed herinner is het namelijk zo dat na verloop van tijd er gewoon over de oude, verwijderde, bestanden wordt heengeschreven, ook als die onderdeel uitmaken van een (oude) snapshot. (Dit is dus iets anders dan simpelweg over niet verwijderde bestanden heenschrijven ;) )
FireDrunk schreef op vrijdag 21 januari 2011 @ 17:08:
[...]
Uuuh, XEN (dus niet XenServer) kan ook PCIe passthrough hoor.
Dus in XenServer zal het vast ook wel kunnen (met wat vieze hacks :P )

http://wiki.xensource.com/xenwiki/VTdHowTo
Ja, als je aan hacks doet misschien wel, maar out of the box niet volgens mij. Maar dan nog moet je wel hardware hebben die ermee overweg kan en mijn huidige hardware kan dat niet. Xen is op termijn wel interessant, maar dan wil ik echt rustig de tijd hebben om een goede web interface uit te zoeken. Ik heb er al mee gespeeld maar dat viel nogal tegen.

Dus de vraag blijft nog wel staan, wat als je nu geen passthrough hebt, gaat je integriteit er dan wel of niet aan? Of anders gezegd, moet ZFS raw disk access hebben of kun je bij wijze van spreken een FreeBSD / FreeNAS met ZFS in virtualbox draaien op een Windows bak waarbij de image op een NTFS paritie staat?

[ Voor 46% gewijzigd door Dadona op 21-01-2011 17:26 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Dadona schreef op vrijdag 21 januari 2011 @ 17:18:
[...]
Volgens mij klopt dat niet. Snapshots zijn ideaal om een state vast te leggen en zo rustig daar een backup van te maken, maar snapshots zijn geen alternatief voor een backup. Als ik het mij goed herinner is het namelijk zo dat na verloop van tijd er gewoon over de oude, verwijderde, bestanden wordt heengeschreven, ook als die onderdeel uitmaken van een (oude) snapshot. (Dit is dus iets anders dan simpelweg over niet verwijderde bestanden heenschrijven ;) )
Dat is dus absoluut niet zo. ZFS is een copy-on-write filesystem, wat betekent dat het in principe nooit bestaande data overschrijft. Als je een bestand wijzigt, worden die wijzigingen elders geschreven en de originele data blijft behouden.

Als je geen snapshot hebt aangemaakt, worden de 'oude locaties' met 'stale data' inderdaad overschreven. Maar met snapshots zeker niet. Snapshots houden effectief die oude locaties gereserveerd en toegankelijk, zodat je ten alle tijde de data kunt zien zoals hij destijds was.

Een bijkomend effect van snapshots is, dat als je een bestand verwijdert, je geen free space erbij krijgt. De snapshot zal dan in 'used space' stijgen. Pas als je de snapshot verwijdert krijg je de ruimte terug.

ZFS snapshot zijn heel 'zuinig', waarmee ik bedoel dat ze in principe geen ruimte innemen, alleen de wijzigingen worden opgeslagen. ZFS snapshots zijn zo zuinig dat je in principe ze elke seconde kunt (laten) maken, zodat je elke seconde terug in de tijd kunt gaan om je data te zien zoals het toen was. Best wel tof dacht ik zo!
Dus de vraag blijft nog wel staan, wat als je nu geen passthrough hebt, gaat je integriteit er dan wel of niet aan? Of anders gezegd, moet ZFS raw disk access hebben of kun je bij wijze van spreken een FreeBSD / FreeNAS met ZFS in virtualbox draaien op een Windows bak waarbij de image op een NTFS paritie staat?
Hoe minder schakels die 'stuk' kunnen gaan hoe beter denk ik, je kunt een hoop problemen in compatibiliteit, bugs, mogelijk zelfs corruptie en zeker ook performance problemen vermijden door gewoon een normale installatie te maken op een dedicated server systeem. Omdat ZFS geheugen slurpt is dat ook nog wel zo handig. VM is leuk voor offloaden van servertjes maar voor je centrale data opslag (NAS/SAN) zou ik toch voor een apart systeem gaan. Betere performance en minder gezeik, ietsje meer geld.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Verwijderd schreef op vrijdag 21 januari 2011 @ 17:34:
[...]

Dat is dus absoluut niet zo. ZFS is een copy-on-write filesystem, wat betekent dat het in principe nooit bestaande data overschrijft. Als je een bestand wijzigt, worden die wijzigingen elders geschreven en de originele data blijft behouden.

Als je geen snapshot hebt aangemaakt, worden de 'oude locaties' met 'stale data' inderdaad overschreven. Maar met snapshots zeker niet. Snapshots houden effectief die oude locaties gereserveerd en toegankelijk, zodat je ten alle tijde de data kunt zien zoals hij destijds was.
Zo begreep ik het ook in eerste instantie, totdat ik dus ergens las dat dit niet het geval zou zijn. Maar op deze manier is het wel erg lief ja. Ik ben alleen wel benieuwd of je geen issues krijgt met databases, maar goed, dat moet ik gewoon eens testen.
Hoe minder schakels die 'stuk' kunnen gaan hoe beter denk ik, je kunt een hoop problemen in compatibiliteit, bugs, mogelijk zelfs corruptie en zeker ook performance problemen vermijden door gewoon een normale installatie te maken op een dedicated server systeem. Omdat ZFS geheugen slurpt is dat ook nog wel zo handig. VM is leuk voor offloaden van servertjes maar voor je centrale data opslag (NAS/SAN) zou ik toch voor een apart systeem gaan. Betere performance en minder gezeik, ietsje meer geld.
Dat gevoel deel ik. Maar het voordeel zou zijn dat ik een VM tijdelijk kan overdragen van de server naar de nas om iets van onderhoud te kunnen doen aan de server.
Dat het veel geheugen zou vragen is geen punt. Je wijst gewoon een lading aan geheugen toe aan de VM waarin FreeBSD draait. Ook dat de prestaties minder zijn bij non-passthrough maakt mij minder uit. Het gaat om de data-integriteit (ja ik blijf ontopic..), maar die zou dan wel zeker moeten zijn.
Misschien maar eens kijken of ik op de één of andere manier een bitflip kan veroorzaken om te zien wat FreeBSD ervan denkt.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Ik kan je echt verzekeren dat snapshots niet zomaar overschreven worden hoor; wat heb je er anders aan? Je kunt er ook te alle tijde bij, nadat je de snapshots zichtbaar hebt gemaakt krijg je een .zfs directory met daarin de namen van alle snapshots en daarin staat alle data voor die dataset op het moment waarop de snapshot werd aangemaakt.

En over VM, is het niet een idee om FreeBSD standaard te installeren en dan Virtualbox met phpvirtualbox GUI te installeren? Zo kun je ook dingen offloaden, maar niet echt geschikt als workstation denk ik, maar zou zelfs ook wel kunnen. Weet niet of Virtualbox 3D dingen doet onder BSD; dat werkt wel onder Linux dacht ik.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Snapshots zijn op zich al waardevol om echt de toestand van een OS op een bepaald moment vast te leggen. Niet dat bestand X van 20.15 is en bestand Y van 20.17. Maar goed, als (extra) backup zou het natuurlijk helemaal mooi zijn. :)

Ik heb zeker over die route nagedacht, temeer ik geen GUI nodig heb. Ik moet dan alleen wel zeker weten dat het netwerkdeel is opgelost. In het verleden ben ik gewisseld van Virtualbox naar VMWare Server omdat een rsync actie er voortdurend uitschoot.

[ Voor 4% gewijzigd door Dadona op 22-01-2011 00:02 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Als je met een virtueel-os met zfs wil stoeien.
Kan ik alleen maar aanraden:
Kleine schijf(usb stick flash, ssd, laptopschijf) gebruiken voor je host/hypervisor.
Dan je nas-zfs-os al je raw data schijven geven.
En die als iscsi weer aan je hypervisor doneren voor de rest van je virtuele ossen.

Beetje heen en weer gedoe, vandaar dat je ook beter je host ook als nas kan gebruiken in kleine setups.

Waarom je nas raw disk toegang geven .... 1 zfs werkt zo lekker, 2 weet je zeker dat het onderliggende os niet loopt te knoeien met je o zo belangrijke data. 3 mocht je ooit een grotere setup met aparte nas maken kan je je raw zfs schijven direct overhangen.

m2€cents

p.s. als je met virtualbox werkt gebruik dan lekker een solaris derivaat.

[ Voor 5% gewijzigd door Mafketel op 22-01-2011 13:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Houden jullie er rekening mee dat je VM oplossing absoluut de 'buffer flush' commando's moet ondersteunen. Virtualbox doet dat standaard niet maar kan wel zo worden geconfigureerd. Zelfde zal wel gelden voor VMware.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
Persistant disk gebruiken in VMWare? Ik heb er nog niet echt over nagedacht :P Zal het binnenkort eens testen...

Even niets...


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
mux schreef op vrijdag 21 januari 2011 @ 12:37:
[RAID] is convenience, met een marginaal betrouwbaarheidsaspect. Het kost veel meer tijd om je dataschijven te moeten uitwisselen en een hele (paar TB) backup van een offsite locatie te halen dan om een nieuwe schijf erin te ploppen en het ding te laten rebuilden.
En met de huidige schijfgrootte duurt een rebuild zo lang dat de convenience ook daalt. De lange rebuild is allemaal downtime.
Bovendien is het kritieke downtime; als er tijdens de rebuild iets fout gaat, heb je echt de poppen aan het dansen. Bedenk dat je veel IO doet op minstens drie schijven die je waarschijnlijk tegelijkertijd hebt gekocht, waarvan er net eentje kassie wijlen is gegaan.
Jaap-Jan schreef op vrijdag 21 januari 2011 @ 12:19:
Ik gebruik 3x 1 TB (WD10EVDS). Van elke schijf gaat 4 GB naar het OS in RAID 1
Ouch. En dat durf jij toe te geven in het zuinige server topic? Waar iedereen of een 2,5" HDD of een SSD of een USB stick heeft als OS schijf? ;)
Waarom moet je OS überhaupt zo redundant? Dat zou toch het minst interessante deel van je setup moeten zijn. Verandert bovendien maar weinig aan, na configuratie maak je een backup op je storage schijf/array en klaar.

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Een rebuild hoeft niet persé offline te gebeuren. Dat kan ook online, en dat is min of meer waarom je RAID hebt. Als dat al niet kan, zie ik helemaal geen reden om RAID te nemen. Doe dan een in-situ backup elk uur ofzo.

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Ik geloof dat we het roerend met elkaar eens zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Als dat al niet kan, zie ik helemaal geen reden om RAID te nemen.
Niet helemaal mee eens; ik zie RAID eerder als een stuk gereedschap, dat voor vele doeleinden toegepast kan worden.

Visie vanuit bedrijvensector: "RAID is er voor uptime, als een schijf zich niet gedraagt flikkeren we hem gelijk in de prullenbak en schuiven zo snel mogelijk een nieuwe in; uptime equals God!"

Visie vanuit home users: "RAID geeft me extra snelheid, één groot volume met alle vrije ruimte gedeeld in één grote pool en beschermt tegen schijfuitval"

Het verschil is dat bedrijven netjes backups maken maar dat thuisgebruikers ("tweakers") veelal veel minder goed backups maken en de bescherming van RAID overschatten. Als je het "één schijf mag uitvallen zonder gegevensverlies" letterlijk neemt als consument dan ben je dus bezig je data in gevaar te brengen, door te veronderstellen dat je data beschermd wordt. Dit terwijl de meeste consumenten FakeRAIDs onveiliger zijn dan een enkele disk zonder RAID.

ZFS is een apart geval, omdat het als enig project (dat ik ken) een filesystem en RAID engine combineert in één pakket, wat mogelijkheden creëert die anders onmogelijk waren. Variabele stripesize, het opslaan van metadata op verschillende schijven en RAID-Z zijn cruciale onderdelen waarbij de RAID engine en Filesystem logica moeten delen en dus één geheel moeten vormen om dit mogelijk te maken.

Bij ZFS is het bijvoorbeeld zo dat het beschermt tegen meerdere gevaren waar een conventionele NTFS + Hardware RAID niet tegen beschermt, zoals:
  • stroomuitval blijft de dataintegriteit van je filesystem garanderen, zonder gebruik van Battery Backup Unit of UPS.
  • Bit-Error-Rate op je HDDs (bij rebuilden van hardware RAID5 mag je bidden dat je geen BER tegenkomt op de bestaande disk members!)
  • detecteren van corruptie (een Hardware RAID5 weet nooit of de parity of juist de data nu corrupt is, en gaat er altijd vanuit dat de parity corrupt is; als het andersom zou zijn dan vernietigt de controller de enige oncorrupte kopie die je nog hebt).
  • gebruiken van redundancy om de corruptie te repareren zonder tussenkomst van de gebruiker (enigszins mogelijk met Hardware RAID maar zeer zeldzaam).
  • een virus die je bestanden killt, of perongeluk deleten van grote mapjes; daar kunnen snapshots je tegen beschermen.
Dus ZFS en Backups hebben veel dingen in gemeen; ze hebben beide een behoorlijke overlap aan bescherming die ze bieden. Normaal RAID beschermt alleen tegen diskuitval en in veel gevallen veroorzaakt het zelfs schijfuitval (Windows onboard RAID) dus eigenlijk maakt het helemaal niet waar waar RAID voor bedacht is: een betrouwbaar opslagmedium creëren met gebruik van goedkope hardware.
Waarom moet je OS überhaupt zo redundant? Dat zou toch het minst interessante deel van je setup moeten zijn.
Daar ben ik het wel mee eens. :)

Als je al je persoonlijke data niet op je C zet, kun je de OS disk als 'onbelangrijk' beschouwen. In de praktijk betekent dat je My Documents naar een andere schijf verplaatsen/linken.

Dat betekent ook dat je rustig met RAID0 kunt kloten als je dat wilt, alhoewel dat voor je OS disk niet zo heel spannend is denk ik. Voor SSDs die intern al RAID0 gebruiken is dit echter wel een redelijke keuze; maar die zijn eigenlijk al snel zat zonder RAID en onder Windows verlies je dan ook nog TRIM, waardoor het per saldo weer niet zo interessant is.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Dit is op basis van het type en de theorie, niet hoe goed het in de praktijk echt werkt, nog niet
Als je nu ZFS in bedrijfsomgeving als een extra backuplinie ziet dan ben ik het met je eens. Bedrijven hebben - doorgaans - netjes een echte backup. Maar ik zou het nog niet echt als een volwaardige backup zien, maar een instap backup.
Met ZFS kun je dus verwijderde bestanden ongedaan maken en daarmee pak je het grootste motivatie voor een backup aan. Maar mensen verprutsen veel meer dan dat. Zo kan ik mij indenken dat mensen niet oefenen met snapshots en zo de zaak verknallen. (De simpelste dingen kunnen fout gaan, zeker als er wat druk op staat.) Ook op hardware matig vlak kan de boel simpelweg falen. Juist het setup and forget principe zorgt daarvoor. Een oude degraded RAIDZ array die aan een restore mag beginnen. En daarnaast heb je natuurlijk de externe factoren zoals diefstal of brand/water/...
Dus ZFS is in mijn ogen zeker een backuplinie en voor wat minder belangrijke data kun je het ook als enige inzetten. Maar voor de belangrijke data zou ik nooit vertrouwen op ZFS als enige backup, maar meer als een eerste linie.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Hoewel er gebabbeld word over on-topic dingen en Het Grote X topics is het toch wel verstandig om voor de mensen die storage willen virtualiseren te weten dat dat op veel (gratis) manieren kan, als je de juiste hardware maar koopt. Hierboven staat iets onduidelijks over Vt-x/Vt-d; wat verschillende technieken zijn.
Ook lijkt het niet duidelijk te zijn wat Xen/XenServer is/doet.. Daar worden mensen niet mee geholpen ;)

Dus, stel dat je RAID en ZFS samen wil doen en daar leuke safe storage mee wil bouwen, maar niet puur BSD wil draaien, dan moet je dus Linux en BSD of Windows en BSD combineren. Nu is windows dan niet zo'n beste keuze door de bekende beperkingen, dus blijf je met Linux en BSD over.

Nu kan je BSD kernels en Linux/Gnu userland combineren, zoals Debian/kfreebsd toont, een zeer volwassen distro (Debian) die een versie aanbiedt met de FreeBSD kernel (en dus ook ZFS). Gnu/Hurd komt er ook aan, wat mogelijk ook ZFS gaat doen, maar dat is toekomst.

Stel dat je een Debian/kfreebsd oplossing niet ziet zitten, moet je gaan virtualiseren. En om dat je performance wil ga je natuurlijk niet alles zitten emuleren, dus wil je echte virtualisatie. Dan kom je bij intel's VT-d uit, wat directed-io geeft. Dan kan je met Xen of KVM echte hardware aan Guests geven.

Nu is dat nog problematisch met USB, maar stel dat je dat links laat liggen (wat je waarschijnlijk als performance zoekende tweaker doet) kom je snel bij volledige controllers terecht. Dus als je dan een ding van Highpoint of een Areca in je kast hebt hangen, kan je als je Xen en Linux gebruikt, bij het opstarten je kernel het appraat aan pciback laten 'geven'. Dat betekent dat een 'driver' met de naam 'pciback' het appraat overneemt van de 'echte' driver. Op dat moment kan je host het appraat niet meer benaderen.

Daarna start je je VM (DomU) en configureer je die zo dat het appraat dat pciback zojuist gekaapt heeft aan die DomU gegeven wordt. Daar zal dan een systeem dat pcifront heet, of xenpci, een 'device' maken wat door de 'echte' driver opgepakt wordt en gewoon gebruikt wordt als ware het fysiek op die DomU aangesloten (wat in de praktijk ook zo is - hoewel het een virtuele machine betreft). Daar kan je dan met zpools spelen en raid en allemaal andere dingen. Doet er niet toe.

Om dat allemaal mogelijk te maken, moet je een moederbord met VT-x EN VT-d hebben, en de firmware moet dat ook beide ondersteunen. Dan is er je CPU, die dat ook beide aan boord moet hebben. Nu is het vrij lastig om VT-d zonder VT-x te krijgen, maar VT-x zonder VT-d is vrij makkelijk te krijgen. Daar heb je dus nik s aan, want dan kan je je hardware niet doorspelen aan DomU's.

Op het moment zijn combinaties zoals een DQ45CB en een X3230 of X3220 dan niet heel duur en toch zeer goed qua prestaties. Dat is slechts een voorbeeld. Zoals je op ark.intel.com dan kan zien hebben beide onderdelen (CPU en bord) een VT-x en VT-d ondersteuning. Bovendien kan Xen hier prima mee overweg.

Virtualbox, Qemu en Vmware kunnen dit allemaal niet. Die rommelen wat aan, kloten hier en daar een beetje met leuke GUI's en teksten, en that's is. Slechte performance en slechte ondersteuning (in verhouding tot Xen). Om het even grofweg zo te zeggen.


Een voorbeeld setup voor RAID + ZFS is dan bijv. (als je RAID + ZFS wil natuurlijk; ZFS zonder raid kan ook op een snelle SATA controller heel leuk zijn):

DQ45CB + X3230 + 8GB RAM @ Debian Linux 6 (squeeze) met xen4.
Daar draai je dan een FreeBSD domU op.

Dan heb je daarna 2 opties:

1. RAID in Dom0/Debian en de md of raid device als xvdb (xen virtual block device) aan domU geven
2. RAID Controller [PCIe] hardware aan domU geven, en alles in FreeBSD afhandelen

Optie 1 zal waarschijnlijk in een VT-x only situatie zelfs goed werken.

Dan krijg je in FreeBSD hoe dan ook je storage device. RAID Controller of xvdb device, allebei leuk. Allebei snel (op VT-d), en daar kan je dan ZFS een flinke pool data mee laten draaien.

Nu zit je alleen nog met het 'en hoe benader ik nu mijn data snel'-probleem. Vrij simpel, 1GbE of 10GbE PCIe kaartje er in prikken, met VT-d & Xen aan DomU toewijzen, en BAM, dedicated netwerk op full speed.

Dan heb je:

- Linux drivers/stabiliteit/support
- Xen veiligheid & virtualisatie + performance
- FreeBSD storage capabilities & ZFS

Lijkt me een zeer krachtige situatie. Bovendien kan je dat allemaal lekker headless/GPU-less draaien, kan je bij bijvoorbeeld die DQ45CB met de recendere EFI firmwares gewoon je RAID controller in de PCIe slot die voor de GPU bedoeld was steken, en is het allemaal met webGUI's en SSH te beheren. Bovendien kan je gebruik maken van Intel AMT, daarmee heb je een Serial-over-LAN en IPMI/LOM-opties (Dus je kan dan zelfs je BIOS, GRUB, Linux login via Ethernet/Serial benaderen vanaf bijv. Internet, en via HTTPS kan je je server aan zetten, uit zetten, resetten, events bekijken met standard management van intel - helemaal gratis! - je hebt gewoon bijna een IPKVM en Remote power voor nop! Dat is nog eens full remote management).

Daar naast heb je een ander voordeel. Je kan meerdere DomU's/VM's met verschillende functies op die ene server draaien. Ik heb door heel nederland diverse setups draaien met FreeBSD als storage server, Linux als virtualisation server, Windows 2008R2 als Domain server, en nog een Debian Linux server als webserver/appserver, plus een pFsense server als router&firewall. Goedkope oplossing, veel toepassingen. Wel een single point of failure zou je zeggen, maar al die VM's kan je probleemloos naar een ander systeem kopieren dat ook VT-d heeft en een intel chipset, en je draait meteen weer. Dus stel dat je je backups goed bijhoudt, kan je binnen een paar minuten online zijn als bijv. je server in de fik staat. Of als je twee servers hebt en een even offline moet, dan migreer je gewoon je VM.

Acties:
  • 0 Henk 'm!

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Als je ZFS gebruikt.
GEEN RAID GEBRUIKEN !

Maar ZFS de schijven direct laten benaderen.

Heb je overigens via intel amt ipmi, lom en kvm al aan de praat? Ik heb hier namelijk naar gezocht en kon buiten de marketing weinig echt nuttige info vinden. Alleen maar uitspraken het kan, het is prachtig etc etc. Ik moet er wel bijzeggen dat ik dit met een asus bord(pricewatch: Asus P7H57D-V EVO) naar heb zitten kijken en dus de amt niet in het bios kan instellen.
En heb je iets meer info over een echte headless server, dus zonder enige gpu.

[ Voor 22% gewijzigd door Mafketel op 30-01-2011 13:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

johnkeates: waar ik zelf nog naar benieuwd ben is of ik die gigabit grens makkelijk kan omzeilen door een linux/BSD workstation/server hybrid te maken, waarbij er dus niks over 'gigabit netwerk' gaat maar door een virtuele adapter van BSD naar Linux op dezelfde PC. Dat zou in theorie boven de 1Gbps uit moeten kunnen, hier enig idee over?

Virtualisatie betekent vaak CPU bottlenecks naar mijn ervaring, maar Xen is wel stoer en moet ik wat meer mee gaan spelen. :)

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
johnkeates, op zich een aardig verhaal, voor als VT-d een optie is. Je bent alleen nog wel wat slordig met termen, waardoor het nog niet helemaal correct is.
Zo heeft VMware een Xen(Server) equivalent, in de vorm van ESXi. Jij doelt op VMware Server waarschijnlijk, dat net als VirtualBox geen bare metal virtualisatie is.
Daarnaast zijn Xen en XenServer verschillend, waardoor de slash niet echt klopt. Xen kun je namelijk op een draaiende Debian(-derivative) installatie aan de praat krijgen door de Xen kernel te installeren en gebruiken. XenServer daarentegen heeft een gelimiteerde CentOS kernel. Deze kun je niet op Debian installeren omdat dit niet opensource is. De 'XenServer' die je mogelijk tegenkomt onder Debian is de opensource variant, Xen. Maar ook wat features betreft zijn de twee wat verschillend. Xen is namelijk verder met passthrough dan XenServer (, maar nog altijd minder ver dan ESXi). XenServer zou een bare metal virtualisatie oplossing zijn, Xen daarentegen paravirtualisatie*.

* Er is nogal wat discussie over wat nu echt bare metal, para, ... is. In theorie is het verschil helder, maar in de praktijk zijn er vele tussenvormen omdat er bepaalde aspecten toch weer net niet voldoen aan zus of zo.

[ Voor 14% gewijzigd door Dadona op 30-01-2011 16:35 . Reden: Wat meer verschillen tussen de twee ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
Virtualisatie van IO zonder VT-d kost je een hoop latency, en zoals we weten is een lage latency toch een van de belangrijkste dingen om hoge doorvoersnelheden te halen ;)

Ik zou nooit (tenzij het moet natuurlijk :P ) IO virtualiseren zonder VT-d...

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Niet iedereen wil een i3 vervangen door een i5 (of meteen een Xeon, zoals jij deed). ;)
Mij gaat het om de integriteit en ik wil dat in een gevirtualiseerde omgeving bereiken, liefst met de huidige hardware, die geen VT-d ondersteuning heeft.

[ Voor 3% gewijzigd door Dadona op 30-01-2011 15:42 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-09 13:48
Dan is paravirtualisatie je vriend :) Dat geeft de minste overhead t.o.v. VT-d.

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Dat soort discussies, over performance gaan (weer) op de rand van het topic zitten. Virtualisatie is een onderwerp op zich. Want paravirtualisatie op zich is in de praktijk niet echt een duidelijk kader. Wel interessant, maar niet echt iets voor hier lijkt mij?

Ik denk dat ik gewoon voor FreeBSD als host ga en daar bovenop Virtualbox zet. Het alternatief is een Linux distro met daarboven op Virtualbox dat ik raw disk access geef. Volgens mij heb ik op die manieren nog altijd de integriteit.
In beide vormen kun je dan gewoon werken met een RAID oplossing (in mijn geval RAIDZ) die bij de schijven kan, niet één die met virtuele schijven werkt.

Maar heeft er iemand om de integriteit te testen? Want we kunnen het er lang over blijven hebben, maar iets kan op papier goed werken, de praktijk is een ander, veel belangrijker, verhaal.

[ Voor 13% gewijzigd door Dadona op 30-01-2011 16:54 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

ZFS is makkelijk om dat te testen: gebruik het intensief of kopiëer een heleboel data, en doe dan een scrub; de ZFS-term voor een rebuild. Je kunt ook een van de vele checksum-achtige synchronisatie programma's gebruiken, zoals rsync. Idee is dat je corruptie kunt meten.

Ik heb nu toch al aardig wat corrupte blokjes gezien in ZFS, die gelukkig allemaal gecorrigeerd werden. En als dat niet mogelijk is dan is alleen de file stuk en nooit de gevoelige metadata. Beste vind ik tot nu toe dat je nu weer meester over je eigen data bent: je kunt de corruptie nu echt meten. En als dat nul is, geeft dat een fijn gevoel. Dan weet je dat alles prima draait.
Pagina: 1