Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Er zijn zelfs al servers waar gewoon een 4GB SD kaartje onboard zit :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Laat de setup voorlopig wel op de SSD staan, neemt ook amper ruimte in :)

Acties:
  • 0 Henk 'm!

  • mrgoolie
  • Registratie: Februari 2005
  • Laatst online: 26-07-2023
Bedankt voor alle informatie die jullie me gaven, het eindresultaat mag er zijn ;)

Wegens geen tijd verkoop ik mijn ESXI whitebox -> V&A aangeboden: ESXi whitebox - desktop

Acties:
  • 0 Henk 'm!

  • DaBeast.net
  • Registratie: Februari 2009
  • Laatst online: 01-01 12:44
#ProductPrijsSubtotaal
1Intel Core i5 4440 Boxed€ 154,90€ 154,90
1ASRock Q87M vPro€ 96,80€ 96,80
1Scythe Big Shuriken 2 Rev. B€ 30,04€ 30,04
1Corsair XMS3 CMX32GX3M4A1333C9€ 264,-€ 264,-
1be quiet! System Power 7 300W€ 32,-€ 32,-
1Crucial 2.5" M500 240GB€ 108,60€ 108,60
1SilverStone SUGO SG02-F€ 71,83€ 71,83
1Dell YT674 - Quad port ethernet adapter€ ~110€ ~110
Bekijk collectie
Importeer producten
Totaal€ 910 (shipping incl.)


Uiteindelijk deze besteld. Nu nog wachten tot alles aankomt :D ..

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Ziet er goed uit!

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Als ESXI server wilde ik de volgende samenstelling bestellen, maar wil toch even checken of er nog aanmerking zijn op de configuratie.

Doel van de server is het voornamelijk nas door het draaien van freenas maar daarnaast ook nog wel andere vm's.

#ProductPrijsSubtotaal
1Intel Core i5 4570 Boxed€ 167,-€ 167,-
1ASRock H87M Pro4€ 65,90€ 65,90
3WD Green WD30EZRX, 3TB€ 92,-€ 276,-
1Cooler Master Silencio 550 (zonder voeding)€ 69,20€ 69,20
1Intel PRO/1000 GT€ 21,96€ 21,96
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 114,99€ 114,99
1Seasonic G-Serie 550Watt€ 79,95€ 79,95
Bekijk collectie
Importeer producten
Totaal€ 795,-


Later zou ik deze configuratie uit willen bereiden naar:

#ProductPrijsSubtotaal
1Intel Core i5 4570 Boxed€ 167,-€ 167,-
1ASRock H87M Pro4€ 65,90€ 65,90
1WD Blue WD7500BPVX, 750GB€ 46,90€ 46,90
5WD Green WD30EZRX, 3TB€ 92,-€ 460,-
1Cooler Master Silencio 550 (zonder voeding)€ 69,20€ 69,20
2Intel PRO/1000 GT€ 21,96€ 43,92
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 114,99€ 114,99
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 127,05€ 127,05
1Seasonic G-Serie 550Watt€ 79,95€ 79,95
Bekijk collectie
Importeer producten
Totaal€ 1.174,91



Iemand nog advies over eventuele aanpassingen of tips.... :?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Waarom een 2.5" schijfje voor ESXi en niet een SSD?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

vanwege de opslag ruimte en toch zuinig. en prijs natuurlijk

[ Voor 20% gewijzigd door Verwijderd op 05-02-2014 14:42 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Voor die setup heb je geen 550W voeding nodig :)

Ik draai een Xeon E5 met 6 schijven op een 360, inschakelpiek is 140 W...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 12:11

thof

FP ProMod
Paul schreef op woensdag 05 februari 2014 @ 14:45:
Voor die setup heb je geen 550W voeding nodig :)

Ik draai een Xeon E5 met 6 schijven op een 360, inschakelpiek is 140 W...
Is het de E5-1620 V2 met de X9SRL-F die je gebruikt? Oftewel de setup in je wenslijst? Zou je eens de verbruik cijfers kunnen posten, ik zit naar een vergelijkbare setup te kijken maar ben huiverig voor het stroomverbruik van de E5.

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


Acties:
  • 0 Henk 'm!

Verwijderd

Snap dat ik niet de 550w nodig heb alleen kwa aansluiting heetf bijvoorbeeld de Seasonic G-Serie 360Watt

1x PCI-E 6 pin
4x SATA
3x Peripheral 4-pin
1x 20+4pin
1x 4+4pin (ATX)
1x floppy

Hier kan je uiteindelijk maar totaal 7 schijven aan hangen of zie ik dat verkeerd

ik wil de mogelijkheid to eventuele uitbedreiding van schijven houden tot bijvoorbeeld 10

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Ja, dat is die setup :) Ik ben nog aan het meten, en momenteel ben ik al een tijdje memtest aan het draaien omdat het met 128 GB in FreeNAS een honderden / duizenden single bit errors genereert.

Heb alle reepjes afzonderlijk al getest (5+ runs), ben toen 32 / 48 / 64 / 80 en nu 96 GB aan het testen.

Ik heb de aantekeningen thuis liggen, je zit al snel aan 70 Watt... Ik zal vanavond dat wat ik al heb (BIOS, FreeNAS, Windows 7) posten, ESXi heb ik nog niet geprobeerd (dat wordt het uiteindelijke OS).

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
@vincent1986, en je wil daar niet gewoon een kabeltje voor kopen..? :)

Even niets...


Acties:
  • 0 Henk 'm!

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 12:11

thof

FP ProMod
Verwijderd schreef op woensdag 05 februari 2014 @ 15:07:
Snap dat ik niet de 550w nodig heb alleen kwa aansluiting heetf bijvoorbeeld de Seasonic G-Serie 360Watt

1x PCI-E 6 pin
4x SATA
3x Peripheral 4-pin
1x 20+4pin
1x 4+4pin (ATX)
1x floppy

Hier kan je uiteindelijk maar totaal 7 schijven aan hangen of zie ik dat verkeerd

ik wil de mogelijkheid to eventuele uitbedreiding van schijven houden tot bijvoorbeeld 10
Er zijn splitter kabeltjes waarmee je extra aansluiten kan creëren.
Paul schreef op woensdag 05 februari 2014 @ 15:25:
Ja, dat is die setup :) Ik ben nog aan het meten, en momenteel ben ik al een tijdje memtest aan het draaien omdat het met 128 GB in FreeNAS een honderden / duizenden single bit errors genereert.

Heb alle reepjes afzonderlijk al getest (5+ runs), ben toen 32 / 48 / 64 / 80 en nu 96 GB aan het testen.

Ik heb de aantekeningen thuis liggen, je zit al snel aan 70 Watt... Ik zal vanavond dat wat ik al heb (BIOS, FreeNAS, Windows 7) posten, ESXi heb ik nog niet geprobeerd (dat wordt het uiteindelijke OS).
Doe rustig aan, ook ik zit te kijken met uiteindelijk doel een all-in-one ESXI setup. Ben zeer benieuwd naar je resultaten :)

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


Acties:
  • 0 Henk 'm!

  • infernix
  • Registratie: Maart 2000
  • Laatst online: 16-09 22:27
Paul schreef op woensdag 05 februari 2014 @ 15:25:
Ja, dat is die setup :) Ik ben nog aan het meten, en momenteel ben ik al een tijdje memtest aan het draaien omdat het met 128 GB in FreeNAS een honderden / duizenden single bit errors genereert.

Heb alle reepjes afzonderlijk al getest (5+ runs), ben toen 32 / 48 / 64 / 80 en nu 96 GB aan het testen.

Ik heb de aantekeningen thuis liggen, je zit al snel aan 70 Watt... Ik zal vanavond dat wat ik al heb (BIOS, FreeNAS, Windows 7) posten, ESXi heb ik nog niet geprobeerd (dat wordt het uiteindelijke OS).
Ik heb zo'n zelfde server in de planning. Heb je het hier over 70 watt totaal :? dat ken toch nooit met 5 schijven + board + ram + cpu?

En die DIMMS, zijn dat Kingston ValueRAM (pricewatch: Kingston ValueRAM KVR18R13D4/16) toevallig?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Waarom zou dat niet kunnen? Mijn Dual Xeon met 96GB geheugen deed ook 'maar' 80-90W idle.

Even niets...


Acties:
  • 0 Henk 'm!

  • infernix
  • Registratie: Maart 2000
  • Laatst online: 16-09 22:27
Hmm, dan is mijn oude server dus gewoon een stroomvreter. E6550 met 10 HDs doet zo'n 175-200W volgens plugwise.

Acties:
  • 0 Henk 'm!

  • abusimbal
  • Registratie: Augustus 2003
  • Laatst online: 06-09 19:45
thof schreef op woensdag 05 februari 2014 @ 15:45:
Er zijn splitter kabeltjes waarmee je extra aansluiten kan creëren.
Inderdaad, ik gebruik een 4 sata power connector van Silverstone:
http://www.silverstonetek...oduct.php?pid=304&area=en

Als ook: http://www.silverstonetek...oduct.php?pid=454&area=en

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
infernix schreef op woensdag 05 februari 2014 @ 16:01:
Hmm, dan is mijn oude server dus gewoon een stroomvreter. E6550 met 10 HDs doet zo'n 175-200W volgens plugwise.
Dan heb je waarschijnlijk 10 oude en/of 7200RPM schijven... Die vreten nogal (8W per stuk).

Even niets...


Acties:
  • 0 Henk 'm!

  • .phoz
  • Registratie: Januari 2006
  • Laatst online: 21-09 21:57
Na wat onderzoek heb ik volgende build gemaakt. Ik had ook een AMD FX build gemaakt met ECC geheugen maar het is slechts 80 euro duurder met onderstaande samenstelling en je hebt een Xeon (minder verbruik). De 4 interfaces ga ik nodig hebben om tussen 3 lans & 1 wan te routen.

De server zal voornamelijk het volgende draaien
  • pfSense (routing, firewall, captive portal en openVPN)
  • mySQL
  • apache+php
  • RADIUS
Ik dacht eerst ZFS te gebruiken om mijn data bij te houden maar ik vind het eerder prijzig. Ik ben nog op zoek naar een goede oplossing voor data backup met een beperkt budget. Ik zal de 2 WD schijven in RAID1 gebruiken.

Heeft iemand nog opmerkingen/tips?
Kan iemand in de richting sturen naar een correcte manier van data backup?

#ProductPrijsSubtotaal
1Intel Xeon E3-1230V2 Boxed€ 189,99€ 189,99
1Supermicro X9SCI-LN4F (Retail Pack)€ 210,23€ 210,23
2WD Black SATA 6 Gb/s WD1003FZEX, 1TB€ 66,-€ 132,-
1Antec Three Hundred€ 55,50€ 55,50
1Scythe Mugen 4 PCGH Edition€ 36,30€ 36,30
1Kingston ValueRAM KVR16E11/8EF€ 77,95€ 77,95
1Seasonic G-Serie 450Watt€ 67,04€ 67,04
Bekijk collectie
Importeer producten
Totaal€ 769,01

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
ZFS is gratis? Waarom denk je dat ZFS extra geld kost? Omdat je een controllertje nodig hebt?
Je kan ook gewoon een 2 poorts AHCI controllertje kopen en die via VT-d doorgeven. Kost je 15,- ofzo.

Even niets...


Acties:
  • 0 Henk 'm!

  • .phoz
  • Registratie: Januari 2006
  • Laatst online: 21-09 21:57
FireDrunk schreef op donderdag 06 februari 2014 @ 11:12:
ZFS is gratis? Waarom denk je dat ZFS extra geld kost? Omdat je een controllertje nodig hebt?
Je kan ook gewoon een 2 poorts AHCI controllertje kopen en die via VT-d doorgeven. Kost je 15,- ofzo.
Mocht ik ZFS steken, zou ik RAID-Z of RAID-Z2 kiezen (3 of 4 schijven).
Waarschijnlijk neem ik dan best nog een lat van 8Gb erbij.

Ik zal rond de 300,- betalen voor ZFS (WDC Blue's). Ik vraag mij af of ik geen betere backup kan vinden?

Ik zat ook nog te denken aan Dropbox of iets dergelijks te gebruiken en gewoon geëncrypte pakketten te uploaden.

Acties:
  • 0 Henk 'm!

  • DaBeast.net
  • Registratie: Februari 2009
  • Laatst online: 01-01 12:44
Waarom geen WD Red? Deze zijn namelijk gemaakt voor NAS storage, en zijn niet zo heel veel duurder..

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Dat ligt helemaal aan hoeveel data je verwacht te moeten backuppen.. het is een groot verschil tussen 5g aan backups en 500g...

Also, waarom de blacks? reds zijn al een tientje per stuk goedkoper, en zijn ook gemaakt om 24/7 aan te staan... (of 2 tientjes duurder voor 2TB reds)

Acties:
  • 0 Henk 'm!

  • tsjoender
  • Registratie: April 2005
  • Laatst online: 12:30
.phoz schreef op donderdag 06 februari 2014 @ 11:10:
Ik dacht eerst ZFS te gebruiken om mijn data bij te houden maar ik vind het eerder prijzig. Ik ben nog op zoek naar een goede oplossing voor data backup met een beperkt budget. Ik zal de 2 WD schijven in RAID1 gebruiken.
Met ZFS snapshots kun je al een basis backup maken. Dit beschermt je tegen een file die corrupt raakt of een per ongeluk verwijderde file. Je kunt zelf instellen hoeveel versies je terug wilt kunnen gaan. Met een tweede ZFS systeem erbij (liefst op een andere locatie) ZFS replicatie naar fysiek een andere host en andere schijven kunnen sturen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Neem sowieso geen Blue's of Blacks, die verbruiken nodeloos veel energie. Neem Green's of Red's.

Even niets...


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
tsjoender schreef op donderdag 06 februari 2014 @ 11:31:
[...]


Met ZFS snapshots kun je al een basis backup maken. Dit beschermt je tegen een file die corrupt raakt of een per ongeluk verwijderde file. Je kunt zelf installen hoeveel versies je terug wilt kunnen gaan. Met een tweede ZFS systeem erbij (liefst op een andere locatie) ZFS replicatie naar fysiek een andere host en andere schijven kunnen sturen.
Snapshots zijn snapshots, snapshots zijn zeker geen backups.

Backups neem je in het geval dat je dataverlies hebt.. zodra dat gebeurt heb je helemaal niks aan een snapshot.. het enige waar die wel voor werken als het een PEBKAC probleem is.

Acties:
  • 0 Henk 'm!

  • .phoz
  • Registratie: Januari 2006
  • Laatst online: 21-09 21:57
DaBeast.net schreef op donderdag 06 februari 2014 @ 11:30:
Waarom geen WD Red? Deze zijn namelijk gemaakt voor NAS storage, en zijn niet zo heel veel duurder..
Ik had enkel de Blacks gekozen omdat ze 5 jaar garantie hebben.
DXaroth schreef op donderdag 06 februari 2014 @ 11:31:
Dat ligt helemaal aan hoeveel data je verwacht te moeten backuppen.. het is een groot verschil tussen 5g aan backups en 500g...
De enigste wat ik moet backuppen is mijn SQL server (logs ed gaan hier ook op). Ik kan niet inschatten hoeveel data dat zal zijn maar ik denk eerder tegen de 5G dan 500G.
tsjoender schreef op donderdag 06 februari 2014 @ 11:31:
[...]
Met ZFS snapshots kun je al een basis backup maken. Dit beschermt je tegen een file die corrupt raakt of een per ongeluk verwijderde file. Je kunt zelf instellen hoeveel versies je terug wilt kunnen gaan. Met een tweede ZFS systeem erbij (liefst op een andere locatie) ZFS replicatie naar fysiek een andere host en andere schijven kunnen sturen.
Zou ik dan niet eerder geen ZFS in mn server steken en een apart ZFS systeem bouwen? De goedkoopste oplossing zou ik hebben met non-ECC bordje of is dat niet aan te raden(ZFS + non-ECC)?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
.phoz schreef op donderdag 06 februari 2014 @ 11:42:
Ik had enkel de Blacks gekozen omdat ze 5 jaar garantie hebben.
Dat is op zich wel een goede reden maar de Blacks verbruiken een stuk meer stroom. Ik denk dat je dat geld beter in je zak kan steken en die laatste 2 jaar garantie 'zelf te betalen' met het verschil.
De enigste enige wat ik moet backuppen is mijn SQL server (logs ed gaan hier ook op). Ik kan niet inschatten hoeveel data dat zal zijn maar ik denk eerder tegen de 5G dan 500G.
Pak dan gewoon een externe schijf (USB2/USB3). Daar kan je eventueel ook zelfs ZFS op zetten.
Zou ik dan niet eerder geen ZFS in mn server steken en een apart ZFS systeem bouwen? De goedkoopste oplossing zou ik hebben met non-ECC bordje of is dat niet aan te raden(ZFS + non-ECC)?
Kan, maar het hoeft niet. ESXi icm VT-d is een prima oplossing.

Even niets...


Acties:
  • 0 Henk 'm!

  • .phoz
  • Registratie: Januari 2006
  • Laatst online: 21-09 21:57
Is een externe USB schijf veilig genoeg als backup?
Is dat niet zowat hetzelfde als een RAID1 qua falingskans?

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
.phoz schreef op donderdag 06 februari 2014 @ 11:53:
Is een externe USB schijf veilig genoeg als backup?
Is dat niet zowat hetzelfde als een RAID1 qua falingskans?
In theorie wel ja, afgezien dat je externe disk niet constant beschreven wordt met alle kleine wijzigingen (en dus minder wear&tear heeft dan de 'live' disks)... hierdoor is het onwaarschijnlijker dat alle disks tegelijk falen..

Acties:
  • 0 Henk 'm!

  • .phoz
  • Registratie: Januari 2006
  • Laatst online: 21-09 21:57
Een extra interne schijf zou dus hetzelfde bereiken.

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
.phoz schreef op donderdag 06 februari 2014 @ 12:05:
Een extra interne schijf zou dus hetzelfde bereiken.
Correct

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Als jij die extra interne schijf inderdaad elke avond in de kluis legt heeft dat hetzelfde effect ja, maar ik gok niet dat je dat gaat doen.

Wat ik bedoel: Gebruik een externe USB schijf, backup er naar, en koppel het ding los, en berg hem op op/in een andere lokatie (ouders / kennissen, liefst in een kluis).

Dan is de kans van falen een stuk lager dan met een 'gewone' extra interne schijf.

Even niets...


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
DXaroth schreef op donderdag 06 februari 2014 @ 11:32:
Snapshots zijn snapshots, snapshots zijn zeker geen backups.
Jawel, kun je ze prima voor gebruiken.
Backups neem je in het geval dat je dataverlies hebt..
Als je backups gaat nemen als je dataverlies hebt ben je te laat. Je neemt de backups om dataverlies te voorkomen. Dat kan prima met snapshots.
zodra dat gebeurt heb je helemaal niks aan een snapshot..
Hoezo zou je niks hebben aan een snapshot? Met zowel UFS2 en ZFS kun je snapshots elders opslaan. Dit is niet zoals de snapshotting mogelijkheid die je in ESXi van een vm zelf hebt. Dit is snapshotting op filesystem niveau. In FreeBSD is het gebruikelijk om per jail een eigen stukje ZFS aan te maken. Men maakt daar gebruik van omdat snapshotting met ZFS net even wat mooier kan dan met UFS2. Ze gebruiken dit om te backuppen maar ook om een jail naar een compleet andere host te kunnen migreren.

Snapshots die je met ESXi maakt of die je maakt alvorens je een config wijziging of stukje software installeert zijn net zo hard backups. Je maakt ze om bij problemen weer terug te kunnen naar een werkende situatie. Het is niet meer dan een vorm van backup maken. Het hoeft niet altijd met dedicated backup software als Bacula.
het enige waar die wel voor werken als het een PEBKAC probleem is.
Backups/snapshots werken niet voor ieder PEBKAC probleem. Mensen zijn prima in staat om hun data zo toe te takelen dat de toetakeling doodleuk in de backup terecht komt. Komen ze dan een half jaar later achter. Het aantal bedrijven/mensen die zo lang of langer backups hebben is miniem, meesten gaan tot een maand terug. Bij sommigen is er nog een archief maar daarin zitten alleen items die voor x jaar bewaard moeten worden vanwege bepaalde wetgeving. Besides, beheerders maken ook wel eens fouten, dat is dus ook PEBKAC. Zijn wel hele hele dure fouten trouwens.

Een echte backup is overigens een complete strategie waarbij je gebruik maakt van dingen als snapshots maar ook offline kopietjes e.d.

[ Voor 24% gewijzigd door ppl op 06-02-2014 21:29 ]


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
ppl schreef op donderdag 06 februari 2014 @ 21:22:
[...]

Jawel, kun je ze prima voor gebruiken.
Dat je een auto kan gebruiken om 20 ton aarde te vervoeren wil nog niet zeggen dat het er geschikt voor is.
Als je backups gaat nemen als je dataverlies hebt ben je te laat. Je neemt de backups om dataverlies te voorkomen. Dat kan prima met snapshots.
Neen, backups gebruik je om te herstellen van het verlies van data, je voorkomt dataverlies door redundantie aan te brengen in je systemen (zowel storage als daarbuiten).. maar zodra dat niet meer helpt, heb je een oplossing nodig. Dat is waar backups voor zijn.
Hoezo zou je niks hebben aan een snapshot? Met zowel UFS2 en ZFS kun je snapshots elders opslaan. Dit is niet zoals de snapshotting mogelijkheid die je in ESXi van een vm zelf hebt. Dit is snapshotting op filesystem niveau. In FreeBSD is het gebruikelijk om per jail een eigen stukje ZFS aan te maken. Men maakt daar gebruik van omdat snapshotting met ZFS net even wat mooier kan dan met UFS2. Ze gebruiken dit om te backuppen maar ook om een jail naar een compleet andere host te kunnen migreren.
Het feit dat je iets kan gebruiken om een doel te bereiken wil niet zeggen dat het een oplossing ervoor is. Ja, snapshots zijn handig om rollbacks uit te kunnen voeren van je systeem mocht er wat mis gaan, en ja, je kan snapshots gebruiken om differentiële data te versturen naar off-site, maar dat maakt het nog geen backup.

Het concept van snapshots vs backups is simpel:

1) voor elke 'grote' wijziging maak je een snapshot, dit betekend dat mocht er iets finaal mis gaan, dan kan je snel recoveren terug naar het moment van aanmaken. dit gaat er van uit dat genoemde wijziging verder geen negatieve impact heeft op je omgeving (lees: je server is niet afgefikt)
2) Voor 'oeps' momenten neem je regelmatig snapshots, dit betekend dat zodra er iemand per ongeluk iets verkeerds doet (je verwijderd een bestand wat niet verwijderd hoefde te worden, of erger, je porno collectie).. in zo'n geval kan je terug gaan naar een punt in tijd die daarvoor ligt.. dit is niet 100% optimaal, want je verliest de vooruitgang tussen dat moment en nu, maar dat is in veel gevallen te overzien.

Nu is je systeem redelijk veilig, je data kan je terug halen.. behalve!

3) Je server vliegt in de fik.. letterlijk, gesmolten metaal en whatever... je opslag is compleet kapot, en niet meer te herstellen... dit is waarom je elke X tijd een complete backup maakt van je systeem, die je off-site opslaat (letterlijk, een externe harde schijf die je bij je (schoon) ouders neer legt)... Nu kan je je dataset terug halen op een ander (vervangend) systeem.. waarbij je wel enige vorm van data kwijt bent, maar niet compleet.

Om het kort samen te vatten:

Snapshots gebruik je om data-verlies tegen te gaan, Backups gebruik je om te herstellen ervan.
Backups/snapshots werken niet voor ieder PEBKAC probleem. Mensen zijn prima in staat om hun data zo toe te takelen dat de toetakeling doodleuk in de backup terecht komt. Komen ze dan een half jaar later achter. Het aantal bedrijven/mensen die zo lang of langer backups hebben is miniem, meesten gaan tot een maand terug. Bij sommigen is er nog een archief maar daarin zitten alleen items die voor x jaar bewaard moeten worden vanwege bepaalde wetgeving. Besides, beheerders maken ook wel eens fouten, dat is dus ook PEBKAC. Zijn wel hele hele dure fouten trouwens.
Het feit dat gebruikers dingen kunnen verkloten is de hoofdreden dat systeembeheerders graag hun hoofd met enige snelheid tegen een muur aan willen rammen, maak een systeem dat idiot-proof is, en je zult een grotere idioot vinden.. simpel als dat.

Dat wil niet zeggen dat het -veel- gebruikers fouten kan oplossen; in 90% van de recovery requests die wij krijgen zal de data in een dataset van <3 maanden geleden zitten... met een >50% die in de snapshot array zal zitten (die bevat 5 weken aan incremental snapshots).
ppl schreef op donderdag 06 februari 2014 @ 21:22:

Als je backups gaat nemen als je dataverlies hebt ben je te laat. Je neemt de backups om dataverlies te voorkomen. Dat kan prima met snapshots.

[...]

Een echte backup is overigens een complete strategie waarbij je gebruik maakt van dingen als snapshots maar ook offline kopietjes e.d.
? Spreek je jezelf nu tegen of snap ik je U-bocht niet helemaal?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Nee, je loopt moeilijk te doen. Snapshots zijn een vorm van backup, en inderdaad, het is (wat jullie beiden zeggen) in zijn eentje geen strategie waarmee je alles afdekt.

Is mijn klant minder goed geholpen omdat ik het restore-verzoek van zijn bestandje heb voldaan uit een snapshot in plaats vanuit CommVault / Backup Exec / ntbackup ?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Paul schreef op vrijdag 07 februari 2014 @ 00:18:
Nee, je loopt moeilijk te doen. Snapshots zijn een vorm van backup, en inderdaad, het is (wat jullie beiden zeggen) in zijn eentje geen strategie waarmee je alles afdekt.

Is mijn klant minder goed geholpen omdat ik het restore-verzoek van zijn bestandje heb voldaan uit een snapshot in plaats vanuit CommVault / Backup Exec / ntbackup ?
Om maar de definitie van een backup aan te houden:
Een back-up of reservekopie is een kopie van gegevens die zich op een gegevensdrager of binnen een applicatie bevinden om deze te kunnen herstellen moesten ze beschadigd raken.
of, in engelse vorm:
In information technology, a backup, or the process of backing up, refers to the copying and archiving of computer data so it may be used to restore the original after a data loss event.
Snapshots, per definitie, zijn geen kopieen van de data, en daarmee, niet -direct- een vorm van Backup.

Backups gaan niet -enkel- om het geval je een bestandje kwijt bent, de hoofd reden om een backup te nemen is als het medium waar de data normaal op staat, beschadigd is in een dusdanige manier dat deze niet meer bruikbaar is.

Je klant gaat voor die specifieke case geholpen zijn met een snapshot, maar dat is niet het -hele- verhaal, je klant gaat namelijk enorm geirriteerd zijn als jij hem moet vertellen dat zijn data kwijt is, omdat er 4 schijven zijn uitgevallen.. al je snapshots staan daar tussen, en zijn daarmee dus ook kwijt.

Zodra je een snapshot kopieert spreek je over een backup, daarvoor niet.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Zoals ik al zei, je bent moeilijk aan het doen.
Snapshots, per definitie, zijn geen kopieen van de data
Maar wel van de data die veranderd is, en in 99% van de restores is dat voldoende. Net zoals dat RAID geen afdoende backup is, maar in 99% van onze disk failures voldoende is... Het draait allemaal om de kosten, de availability, de RTO en de RPO. Snapshots zijn een hele goede manier om een ontzettend lage RPO en RTO te realiseren voor erg weinig kosten, bij een bepekt aantal maar veel voorkomende scenario's.

Dat jij zulke über-gebruikers hebt die nooit een foutje maken en tegelijkertijd zo'n pruts-inkoopafdeling dat ze alleen maar brakke meuk-hardeschijven kopen zorgt er nog niet voor dat de rest van de wereld wel te maken heeft met een realiteit die precies andersom is...
[q]Backups gaan niet -enkel- om het geval je een bestandje kwijt bent[q]
ppl schreef op donderdag 06 februari 2014 @ 21:22:
Een echte backup is overigens een complete strategie waarbij je gebruik maakt van dingen als snapshots maar ook offline kopietjes e.d.
Paul schreef op vrijdag 07 februari 2014 @ 00:18:
Snapshots zijn [..] in zijn eentje geen strategie waarmee je alles afdekt.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Als ik een fatsoenlijk Backup van een snapshot maak met zfs send & receive. Backup ik wel degelijk het hele filesysteem. ZFS snapshots zijn zoveel meer dan alleen maar gewone snapshots. En ik denk dat dat is waar jullie de mist in gaan.

Je kan van een snapshot een Backup maken, hij is het by default niet.

Een snapshot wordt pas een fatsoenlijke Backup als hij off premise geplaatst wordt. En dat kan met ZFS Snapshots.
(En dan is het gewoon een full Backup, niet een incrementele...)

[ Voor 7% gewijzigd door FireDrunk op 07-02-2014 08:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
FireDrunk schreef op vrijdag 07 februari 2014 @ 08:11:
Als ik een fatsoenlijk Backup van een snapshot maak met zfs send & receive. Backup ik wel degelijk het hele filesysteem. ZFS snapshots zijn zoveel meer dan alleen maar gewone snapshots. En ik denk dat dat is waar jullie de mist in gaan.

Je kan van een snapshot een Backup maken, hij is het by default niet.

Een snapshot wordt pas een fatsoenlijke Backup als hij off premise geplaatst wordt. En dat kan met ZFS Snapshots.
(En dan is het gewoon een full Backup, niet een incrementele...)
Zoals ik zei:
DXaroth schreef op vrijdag 07 februari 2014 @ 00:47:
Zodra je een snapshot kopieert spreek je over een backup, daarvoor niet.
Ik snap zijn punt ook wel; als je meer in de richting van de IT wereld bent waar je te maken hebt met honderden gebruikers, dan zijn snapshots een verademing om de gemiddelde PEBKAC problemen de wereld uit te helpen.

Maar als je een omgeving draaiende te houden hebt waar systemen op draaien die per dag meer inkomsten genereren dan dat ze kosten, dan gaat je hoofd-IT persoon niet helemaal te spreken zijn als je met je staart tussen je benen naar hem toe loopt om te vertellen dat het systeem onherstelbaar stuk is.

Begrijp me niet verkeerd, ik ga niet zeggen dat snapshots niet deel moet zijn van je data-recovery systemen, mijn standpunt is enkel dat snapshots niet je gehele data-recovery systeem moet zijn; want je hebt geen backup.. en dat heeft niets te maken met pruts-inkopers die verkeerde schijven inkopen, of met hoe veel recovery vragen je gebruikers hebben, dat heeft te maken met hoe zeker je wilt zijn dat je data nog beschikbaar is.

Overigens, onze inkopers doen het prima qua disks, in de afgelopen 2 jaar zijn er 5 disks vervangen, 3 daarvan waren disks die kapot zijn, en de 2 andere waren disks uit eenzelfde serie als 2 van de 3 gefaalde disks (als 2 disks het begeven binnen 72 uur van elkaar, dan ga je niet vertrouwen op de andere 2 disks uit dezelfde serie dat die de raid array in leven houden)...

Daarnaast heb ik ook pas 1x een systeem meegemaakt waarvan de opslag compleet onherstelbaar was, hiervoor was gelukkig geen backup nodig, want het was een redundant systeem... maar dat wilt niet zeggen dat die backup er niet was.

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
DXaroth schreef op vrijdag 07 februari 2014 @ 00:06:
Neen, backups gebruik je om te herstellen van het verlies van data, je voorkomt dataverlies door redundantie aan te brengen in je systemen (zowel storage als daarbuiten).. maar zodra dat niet meer helpt, heb je een oplossing nodig. Dat is waar backups voor zijn.
Ik hoopte er al op dat je dit bedoelde, het stond er niet zo lekker verwoord :)
Het feit dat je iets kan gebruiken om een doel te bereiken wil niet zeggen dat het een oplossing ervoor is. Ja, snapshots zijn handig om rollbacks uit te kunnen voeren van je systeem mocht er wat mis gaan, en ja, je kan snapshots gebruiken om differentiële data te versturen naar off-site, maar dat maakt het nog geen backup.
Het probleem is alleen dat je het doel en het middel op gelijke voet stelt. Backup is het doel, snapshot, handmatige copy-paste, enz. zijn het middel om dat doel te bereiken. Een backup maak je om volledig dataverlies te voorkomen maar ook om oeps-momentjes op te vangen. Er zijn verschillende soorten backups: tijdelijke, volledige, incrementele, offline, online, enz. Iedere vorm van backup vereist weer zijn eigen middel.

Snapshots an sich worden voor meer gebruikt dan alleen backup en oeps-momenten. Je maakt er ook gebruik van als je een bepaalde staat wil vastleggen. Een principe die in packaging wordt toegepast (snapshot aan het begin en aan het eind van de sessie; het verschil is dan wat er in de package gaat). Dat is alleen van een totaal andere orde dan snapshot functionaliteit van een filesystem. Dat beperkt zich vooral tot het veilig stellen van data. Snapshotting in iets als ZFS is van een geheel andere orde als die in VMware ESXi en die in Novell Zenworks. Jij lijkt dat op gelijke voet te trekken.
Het concept van snapshots vs backups is simpel:

1) voor elke 'grote' wijziging maak je een snapshot, dit betekend dat mocht er iets finaal mis gaan, dan kan je snel recoveren terug naar het moment van aanmaken. dit gaat er van uit dat genoemde wijziging verder geen negatieve impact heeft op je omgeving (lees: je server is niet afgefikt)
2) Voor 'oeps' momenten neem je regelmatig snapshots, dit betekend dat zodra er iemand per ongeluk iets verkeerds doet (je verwijderd een bestand wat niet verwijderd hoefde te worden, of erger, je porno collectie).. in zo'n geval kan je terug gaan naar een punt in tijd die daarvoor ligt.. dit is niet 100% optimaal, want je verliest de vooruitgang tussen dat moment en nu, maar dat is in veel gevallen te overzien.
Bovenstaande heeft alleen helemaal niets met snapshots te maken. Dit gebeurd even goed met dedicated backup software.
Nu is je systeem redelijk veilig, je data kan je terug halen.. behalve!

3) Je server vliegt in de fik.. letterlijk, gesmolten metaal en whatever... je opslag is compleet kapot, en niet meer te herstellen... dit is waarom je elke X tijd een complete backup maakt van je systeem, die je off-site opslaat (letterlijk, een externe harde schijf die je bij je (schoon) ouders neer legt)... Nu kan je je dataset terug halen op een ander (vervangend) systeem.. waarbij je wel enige vorm van data kwijt bent, maar niet compleet.
Ook dit gaat op voor iedere vorm van backup. Je doet dit bij snapshots maar ook bij handmatige copy-paste en dedicated backup software. Wat je hier neerzet heeft niets te maken met techniek of technologie. Hetgeen je hier beschrijft is een kwestie van je backup strategie niet goed uit hebben gedacht.
Snapshots gebruik je om data-verlies tegen te gaan, Backups gebruik je om te herstellen ervan.
Fout! Backups zijn het doel, snapshots maar 1 van de middelen die je tot je beschikking hebt om tot dat doel te komen. Het gaat erom dat je juist gebruik maakt van die middelen.
Het feit dat gebruikers dingen kunnen verkloten is de hoofdreden dat systeembeheerders graag hun hoofd met enige snelheid tegen een muur aan willen rammen, maak een systeem dat idiot-proof is, en je zult een grotere idioot vinden.. simpel als dat.
Geen enkele behoefte om dat te doen en wij weten heel erg goed hoe gebruikers werken. Daarom spreken wij ze ook aan op hun eigen verantwoordelijkheid. Het is niet onze data, het is HUN data. Het enige wat wij kunnen doen is ze hierin assisteren, adviseren en in zekere mate ook faciliteren. Het is net als tieners die uit huis gaan. Zodra ze ineens zelf voor alles moeten betalen gaan ze ineens wel overal zuinig mee om. We ondersteunen bedrijfsprocessen door IT in te zetten, niet andersom.
? Spreek je jezelf nu tegen of snap ik je U-bocht niet helemaal?
Klaarblijkelijk dat laatste. En met de volgende reactie wordt eigenlijk wel duidelijk dat je het hele snapshot principe van ZFS ook totaal niet lijkt te snappen:
DXaroth schreef op vrijdag 07 februari 2014 @ 00:47:
Snapshots, per definitie, zijn geen kopieen van de data, en daarmee, niet -direct- een vorm van Backup.
Dan heb je het niet alleen niet begrepen maar je hebt ook duidelijk niet mijn post gelezen: snapshots in ZFS zijn wel degelijk kopieën van data. Daarom worden ze ook gebruikt voor jails. Door deze snapshots op een andere machine weer te restoren kun je een migratie uitvoeren. Ze worden ook gebruikt om een jail te clonen/dupliceren op dezelfde machine of een andere (denk aan test scenario's, uitbreiding van capaciteit, enz.).
Je klant gaat voor die specifieke case geholpen zijn met een snapshot, maar dat is niet het -hele- verhaal, je klant gaat namelijk enorm geirriteerd zijn als jij hem moet vertellen dat zijn data kwijt is, omdat er 4 schijven zijn uitgevallen.. al je snapshots staan daar tussen, en zijn daarmee dus ook kwijt.
Nogmaals, dat is dus pertinent onjuist en kent een klant ook zijn eigen verantwoordelijkheid. Dat zijn zaken die altijd keurig netjes contractueel worden afgesproken (dat moet je ook doen want anders ben je volledig aansprakelijk voor de data).
FireDrunk schreef op vrijdag 07 februari 2014 @ 08:11:
Als ik een fatsoenlijk Backup van een snapshot maak met zfs send & receive. Backup ik wel degelijk het hele filesysteem. ZFS snapshots zijn zoveel meer dan alleen maar gewone snapshots. En ik denk dat dat is waar jullie de mist in gaan.
Ik niet want ik zit nou al de hele tijd te wijzen op het feit dat snapshotting vaak meer is dan alleen maar iets lokaals. Snapshotting in filesystems, zoals bij ZFS, is meer dan alleen maar iets lokaals. Nogmaals, het gaat er om hoe je het allemaal toepast. Je kunt namelijk met backup software ook lokale backups maken wat veelvuldig wordt toegepast. Waarom? Omdat dit je een quick restore mogelijkheid biedt. Daarnaast heeft men nog een tweede job of voeren ze een sync uit zodat er ook elders de data staat.

Snapshotting is een middel om tot een doel (backup) te komen. Het gaat er dan ook geheel om hoe je dat middel in zet. Je kunt dan ook niet gaan lopen brullen dat een snapshot geen backup is. Als beheerder bepaal je of het een backup wordt en welk soort backup. De techniek die je gebruikt doet dat niet.

Besides, een backup is pas daadwerkelijk een backup als je een succesvolle restore hebt kunnen uitvoeren (en dat betekent dat de data daarna niet alleen teruggezet is maar dat deze daarna ook weer intact is!). Met name dat laatste deel wordt in 99% van de gevallen compleet vergeten. Sta er maar eens bij stil: hoe vaak voer je een restore uit om alleen maar te testen of het werkt?

@Paul hieronder: ah, jij spreekt vast uit ervaring :P

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
>:) En nu ontopic

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Backup is dan ook de verkeerde naam. De juiste naam is: "Voorbereiden op een restore" :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Afwezig
  • Registratie: Maart 2002
  • Laatst online: 17-09 23:25
Net prachtige casing gevonden voor een ESXi server.

http://www.silverstonetek...oduct.php?pid=452&area=en

Stop dit moederbord er in

http://www.asrock.com/server/overview.asp?Model=E3C226D2I

En je hebt wel een mooie basis om mee te beginnen. Do want 32GB RAM though.

Acties:
  • 0 Henk 'm!

  • ik222
  • Registratie: Maart 2007
  • Niet online
Zelf ben ik momenteel ook aan het kijken voor een forse upgrade van mijn huidige ESXi server. Mijn huidige ESXi server is namelijk een Core 2 Duo E6550 met 4GB geheugen, 2 oude 250GB harddisks en één recent aangeschafte 2TB schijf. Van deze huidige server neem ik enkel het volgende mee:
  • Behuizing (is gewoon een nette zwarte ATX behuizing, niks mis mee en staat toch in de meterkast)
  • Voeding (Corsair 550W, is tijdens de levensduur van de huidige server al een keer vervangen en dit is een degelijke en behoorlijk efficiënte voeding)
  • 1 x 2TB harddisk (pas een paar maanden oud)
  • 2 x Intel Pro 1000GT PCI netwerkkaart (die worden namelijk native ondersteund door ESXi)
De rest wordt dus nieuw en op zich ga ik daar wat betreft de hardware wel uit komen (32 of misschien zelfs 64GB geheugen en een midrange CPU met ondersteund moederbord).

Het enige waar ik nog niet helemaal uit ben is hoe de storage er op de nieuwe server uit moet komen te zien. Waar ik al wel uit ben is dat er één SSD in komt voor de OS disks van alle VM's (240 - 256GB), dat moet voldoende zijn aangezien mijn VM's vijwel allemaal Ubuntu Server als OS zullen krijgen en dat gaat prima met een 8GB OS disk per VM. Bovendien is een extra SSD later altijd makkelijk toegevoegd indien nodig.

Voor de data storage zat ik zelf te denken om 2 extra 3TB disks erbij te kopen. Vervolgens op alle 3 de disks een 1,5TB VMDK aanmaken en die dan met software raid (eventueel ZFS) tot een 3TB volume maken voor films, series en muziek. Voor mijn overige bestanden (wat foto's en documenten) maak ik dan op de 2 nieuwe disks beide een 500GB VMDK aan die ik in mirror zet op een VM. Daarna is er op alle disks nog wat ruimte over voor data van overige VM's (bijvoorbeeld een paar VMDK's voor een ceph cluster)

Nu is mijn vraag vooral of het een goed idee is om ZFS te gaan draaien op virtuele schijven? Natuurlijk begrijp ik dat het wat performance zal kosten t.o.v. van het direct doorgeven van een hele SATA controller met daaraan disks maar dat hoeft voor mij geen probleem te zijn. Het grote voordeel van deze setup voor mij is flexibiliteit in de vorm van een beperkt aantal fysieke schijven netjes gescheiden voor meerdere doelen te kunnen inzetten. Bovendien is mijn data in principe beschermt tegen uitval een enkele schijf (ook al worden er uiteraard ook gewoon elke nacht automatisch externe backups gemaakt van de belangrijke data). De grootste zorg die ik zelf heb is of het risico op datacorruptie binnen ZFS groter wordt wanneer gebruik gemaakt wordt van virtuele disks?

Acties:
  • 0 Henk 'm!

  • abusimbal
  • Registratie: Augustus 2003
  • Laatst online: 06-09 19:45
Gisteren mijn nieuwe ESXi bak in elkaar gestoken, vandaag ESXi erop gezet.
#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v3 Boxed€ 240,75€ 240,75
1Supermicro X10SLH-F€ 205,01€ 205,01
1Lian Li PC-A04 (Zwart)€ 87,50€ 87,50
1HP NC360T PCI-E twee-poorts Gigabit serveradapter (412648-B21)€ 72,48€ 72,48
1Kingston ValueRAM KVR16E11K4/32€ 305,-€ 305,-
1Cooler Master VS V450S€ 70,90€ 70,90
1Intel 330 180GB€ 189,-€ 189,-
2Samsung 840 series Pro 512GB€ 344,99€ 689,98
Bekijk collectie
Importeer producten
Totaal€ 1.860,62

De 3 SSD's had ik al.
Heb er ook nog een Areca 1882i SAS controller in om straks storage aan te hangen.

[ Voor 7% gewijzigd door abusimbal op 09-02-2014 21:58 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
ik222 schreef op zondag 09 februari 2014 @ 17:44:
Zelf ben ik momenteel ook aan het kijken voor een forse upgrade van mijn huidige ESXi server. Mijn huidige ESXi server is namelijk een Core 2 Duo E6550 met 4GB geheugen, 2 oude 250GB harddisks en één recent aangeschafte 2TB schijf. Van deze huidige server neem ik enkel het volgende mee:
  • Behuizing (is gewoon een nette zwarte ATX behuizing, niks mis mee en staat toch in de meterkast)
  • Voeding (Corsair 550W, is tijdens de levensduur van de huidige server al een keer vervangen en dit is een degelijke en behoorlijk efficiënte voeding)
  • 1 x 2TB harddisk (pas een paar maanden oud)
  • 2 x Intel Pro 1000GT PCI netwerkkaart (die worden namelijk native ondersteund door ESXi)
De rest wordt dus nieuw en op zich ga ik daar wat betreft de hardware wel uit komen (32 of misschien zelfs 64GB geheugen en een midrange CPU met ondersteund moederbord).

Het enige waar ik nog niet helemaal uit ben is hoe de storage er op de nieuwe server uit moet komen te zien. Waar ik al wel uit ben is dat er één SSD in komt voor de OS disks van alle VM's (240 - 256GB), dat moet voldoende zijn aangezien mijn VM's vijwel allemaal Ubuntu Server als OS zullen krijgen en dat gaat prima met een 8GB OS disk per VM. Bovendien is een extra SSD later altijd makkelijk toegevoegd indien nodig.

Voor de data storage zat ik zelf te denken om 2 extra 3TB disks erbij te kopen. Vervolgens op alle 3 de disks een 1,5TB VMDK aanmaken en die dan met software raid (eventueel ZFS) tot een 3TB volume maken voor films, series en muziek. Voor mijn overige bestanden (wat foto's en documenten) maak ik dan op de 2 nieuwe disks beide een 500GB VMDK aan die ik in mirror zet op een VM. Daarna is er op alle disks nog wat ruimte over voor data van overige VM's (bijvoorbeeld een paar VMDK's voor een ceph cluster)

Nu is mijn vraag vooral of het een goed idee is om ZFS te gaan draaien op virtuele schijven? Natuurlijk begrijp ik dat het wat performance zal kosten t.o.v. van het direct doorgeven van een hele SATA controller met daaraan disks maar dat hoeft voor mij geen probleem te zijn. Het grote voordeel van deze setup voor mij is flexibiliteit in de vorm van een beperkt aantal fysieke schijven netjes gescheiden voor meerdere doelen te kunnen inzetten. Bovendien is mijn data in principe beschermt tegen uitval een enkele schijf (ook al worden er uiteraard ook gewoon elke nacht automatisch externe backups gemaakt van de belangrijke data). De grootste zorg die ik zelf heb is of het risico op datacorruptie binnen ZFS groter wordt wanneer gebruik gemaakt wordt van virtuele disks?
Of het risico er echt groter op word is niet te zeggen. Het is iig sterk af te raden om ZFS op VMDK's te draaien. Vooral vanwege het feit dat ZFS geen direct contact heeft met je schijven.

@Abusimbal, Ik ben vooral benieuwd naar het verbruik! Kan je eens meten wat het kale verbruik is van alleen moederbord, cpu en geheugen (en eventueel 1 SSD ofzo)

Even niets...


Acties:
  • 0 Henk 'm!

  • asing
  • Registratie: Oktober 2001
  • Laatst online: 12:17
ik222 schreef op zondag 09 februari 2014 @ 17:44:
Zelf ben ik momenteel ook aan het kijken voor een forse upgrade van mijn huidige ESXi server. Mijn huidige ESXi server is namelijk een Core 2 Duo E6550 met 4GB geheugen, 2 oude 250GB harddisks en één recent aangeschafte 2TB schijf. Van deze huidige server neem ik enkel het volgende mee:
  • Behuizing (is gewoon een nette zwarte ATX behuizing, niks mis mee en staat toch in de meterkast)
  • Voeding (Corsair 550W, is tijdens de levensduur van de huidige server al een keer vervangen en dit is een degelijke en behoorlijk efficiënte voeding)
  • 1 x 2TB harddisk (pas een paar maanden oud)
  • 2 x Intel Pro 1000GT PCI netwerkkaart (die worden namelijk native ondersteund door ESXi)
De rest wordt dus nieuw en op zich ga ik daar wat betreft de hardware wel uit komen (32 of misschien zelfs 64GB geheugen en een midrange CPU met ondersteund moederbord).

Het enige waar ik nog niet helemaal uit ben is hoe de storage er op de nieuwe server uit moet komen te zien. Waar ik al wel uit ben is dat er één SSD in komt voor de OS disks van alle VM's (240 - 256GB), dat moet voldoende zijn aangezien mijn VM's vijwel allemaal Ubuntu Server als OS zullen krijgen en dat gaat prima met een 8GB OS disk per VM. Bovendien is een extra SSD later altijd makkelijk toegevoegd indien nodig.

Voor de data storage zat ik zelf te denken om 2 extra 3TB disks erbij te kopen. Vervolgens op alle 3 de disks een 1,5TB VMDK aanmaken en die dan met software raid (eventueel ZFS) tot een 3TB volume maken voor films, series en muziek. Voor mijn overige bestanden (wat foto's en documenten) maak ik dan op de 2 nieuwe disks beide een 500GB VMDK aan die ik in mirror zet op een VM. Daarna is er op alle disks nog wat ruimte over voor data van overige VM's (bijvoorbeeld een paar VMDK's voor een ceph cluster)

Nu is mijn vraag vooral of het een goed idee is om ZFS te gaan draaien op virtuele schijven? Natuurlijk begrijp ik dat het wat performance zal kosten t.o.v. van het direct doorgeven van een hele SATA controller met daaraan disks maar dat hoeft voor mij geen probleem te zijn. Het grote voordeel van deze setup voor mij is flexibiliteit in de vorm van een beperkt aantal fysieke schijven netjes gescheiden voor meerdere doelen te kunnen inzetten. Bovendien is mijn data in principe beschermt tegen uitval een enkele schijf (ook al worden er uiteraard ook gewoon elke nacht automatisch externe backups gemaakt van de belangrijke data). De grootste zorg die ik zelf heb is of het risico op datacorruptie binnen ZFS groter wordt wanneer gebruik gemaakt wordt van virtuele disks?
Ik kan je maar één ding aanraden nu je toch een vers mobo en cpu moet hebben... NIET gaan voor RDM icm ZFS (Freenas etc). Ik heb het, maar af en toe staat het ding toch degraded te knipperen. Wat er aan de hand was, geen idee. Verder kom je niet verder dan Freenas 8.3.1, 9.x ziet je ZFS pool niet meer.

Dus.... neem Vt-d!!!!!!! :X Scheelt je een hoop hoofdpijn!

Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
asing schreef op zondag 09 februari 2014 @ 22:35:
[...]


Ik kan je maar één ding aanraden nu je toch een vers mobo en cpu moet hebben... NIET gaan voor RDM icm ZFS (Freenas etc). Ik heb het, maar af en toe staat het ding toch degraded te knipperen. Wat er aan de hand was, geen idee. Verder kom je niet verder dan Freenas 8.3.1, 9.x ziet je ZFS pool niet meer.

Dus.... neem Vt-d!!!!!!! :X Scheelt je een hoop hoofdpijn!
Mijn backup/test esx5.5 heeft toch echt FN 9.x draaien via rdm.

Mijn hij wil zelfs geen rdm doen volgens mij. 3 losse disks in esx daar een vmdk file op. Die vdisks toevoegen aan freenas om er een raidz pool van te maken. Ooh the horror.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • abusimbal
  • Registratie: Augustus 2003
  • Laatst online: 06-09 19:45
@FireDrunk: is moeilijk, al een deel geconfigureerd. Kan wel verbruik "as is" nu doen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Graag! Als je alle apparaten erbij noemt die aangesloten zitten op dat moment, kunnen we misschien destilleren hoeveel de 'core' verbruikt. Ben benieuwd!

Even niets...


Acties:
  • 0 Henk 'm!

  • thesystem
  • Registratie: Mei 2003
  • Laatst online: 30-07 22:33
Weet iemand of er usb nics zijn die werken met ESXi? In de behuizing die ik heb past helaas geen pci kaart.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Nope, geen enkele.

[ Voor 15% gewijzigd door FireDrunk op 10-02-2014 15:23 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Wat is de reden om voor een WD red of Green te kiezen en welke werkt het best met ESXI en VM Freenas?

Acties:
  • 0 Henk 'm!

  • abusimbal
  • Registratie: Augustus 2003
  • Laatst online: 06-09 19:45
Over dat stroomverbruik.
Dus met onderstaande setup:
#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v3 Boxed€ 245,-€ 245,-
1Supermicro X10SLH-F€ 205,01€ 205,01
1Lian Li PC-A04 (Zwart)€ 87,50€ 87,50
1HP NC360T PCI-E twee-poorts Gigabit serveradapter (412648-B21)€ 72,48€ 72,48
1Kingston ValueRAM KVR16E11K4/32€ 305,-€ 305,-
1Cooler Master VS V450S€ 70,90€ 70,90
1Intel 330 180GB€ 189,-€ 189,-
2Samsung 840 series Pro 512GB€ 344,99€ 689,98
Bekijk collectie
Importeer producten
Totaal€ 1.864,87

Gemeten met een Voltcraft energy checker 3000
Uit verbruik tussen 5 en 6W (door IPMI zeker)
Zet ik hem aan dan piekt hij heel even bij 77W om rond 64W gemiddeld te blijven.
Eens opgestart gemiddels 42W (zonder host gestart te hebben)
Heb dan 1 Win7 en 1 Win8.1 (test VM) gestart, verbruik met deze VM's op inlogscherm 46W

Heb nog geen optimalisaties gedaan in ESXi.
Areca kaart steekt in, maar heb nog geen driver in ESXi geïnstalleerd, maar zal wel natuurlijk ook al stroom vreten.

BTW: weet iemand een goedkope redelijk accuraat apparaat waar ik het stroomverbruik van 1 stopcontact kan monitoren via LAN ?

EDIT, gevonden:
http://energenie.com/item.aspx?id=6736

Acties:
  • 0 Henk 'm!

  • ik222
  • Registratie: Maart 2007
  • Niet online
Oke ik begrijp dus dat RDM i.c.m. met ZFS in elk geval geen goed idee is. Maar RDM is voor zover ik weet toch nog net iets anders dan gebruik maken van volledig virtuele disks of een VMFS bestandssysteem? Of is dat laatste ook geen goed idee omdat er dan nog steeds geen contact is tussen ZFS en de fysieke disks?

Overigens zit ik absoluut niet vast aan ZFS, ik zou ook gewoon een software raid met virtuele disks kunnen bouwen op een VM met ubuntu server. Het lijkt me dat daarmee sowieso betrouwbare storage gemaakt kan worden op virtuele disks.

Wat betreft VT-D ben ik sowieso van plan een setup te nemen die dat ondersteund. Alleen om dat voor storage in te kunnen zetten heb ik ook een moederbord met twee losse storage controllers nodig of een storage controller om door te geven. Als ik dit topic goed gelezen heb is er een Supermicro moederbord met twee losse storage controllers maar dat moet dan wel eerst geflashed worden?

Voorlopige boodschappenlijst:

#ProductPrijsSubtotaal
1Intel Xeon E5-1620 v2 Tray€ 272,29€ 272,29
1Supermicro X9SRL-F€ 265,33€ 265,33
3WD Green WD20EZRX, 2TB€ 70,95€ 212,85
6Kingston KTH-PL310Q8/8G€ 45,99€ 275,94
1Crucial 2.5" M500 240GB€ 105,20€ 105,20
Bekijk collectie
Importeer producten
Totaal€ 1.131,61


Moederborden en bijbehorende CPU's die meer dan 32GB geheugen ondersteunen zijn wel erg duur zie ik nu, toch nog maar eens heroverwegen of 32GB niet genoeg is...

[ Voor 54% gewijzigd door ik222 op 10-02-2014 18:45 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Dat bord (en die proc) heb ik.

1) houdt rekening met het feit dat je een 'Narrow ILM' processorkoeler nodig hebt :) Bij de proc wordt GEEN cooler geleverd
2) Deze heeft al '2 controllers'. De 2x SATA-600 + 4x SATA-300 kun je doorgeven (in zijn geheel, 'kost' je dus 6 SATA-sloten voor VMware, levert er wel 6 op voor je NAS), de 4 op de SCU niet (die zit, als ik het goed gevolgd heb, een (PCI-e) brug te ver.
3) Overweeg pricewatch: Samsung M393B2G70BH0-YH909 (of een van de andere [in NL helaas schaarse] types die op de 'Tested Memory List' staan op de site van het moederbord.

Het is iets duurder maar het voorkomt dat je (mogelijk!) net als ik al 2 weken aan het memtesten bent waarom het toevoegen van de 7e DIMM allemaal errors geeft op DIMM 1 en 5...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • ik222
  • Registratie: Maart 2007
  • Niet online
Bedankt voor de tips, dat geheugen is sowieso een goede alleen jammer inderdaad dat er zo weinig ondersteund geheugen fatsoenlijk leverbaar is in Nederland. Een geschikte CPU cooler van Supermicro zelf kost slechts 4 tientjes dus dat is het probleem niet

Dat dit moederbord al 2 controllers heeft is wel ideaal, dan is daar verder niks meer voor nodig en 4 SATA aansluitingen voor de hypervisor zelf is ruim voldoende aangezien er voorlopig maar 1 SSD + 1 HDD aan komt te hangen, de rest van de HDD's moeten aan de NAS komen dan.

Nog een vraag, heb je inmiddels het verbruik van jou setup kunnen meten?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Ja en nee... Ik ben nog aan het meten, heb dus nog niks vanuit VMware omdat ik in FreeNAS zo'n bult 1-bit ECC errors kreeg. (Edit: Met nieuwe BIOS-versie geen enkele ECC-error meer. Heb hierna geen tests meer gedraaid).

Alle metingen zijn met 128 GB, behalve Windows 7. Windows 7 kreeg ik niet geïnstalleerd met 128 GB, met 96 GB klapte het er regelmatig uit, met 64 GB was het stabiel.

Tevens zijn alle metingen met 6x Seagate NAS 4 TB, 1x WD Green 1 TB EARS en 1x Intel Postville 40 GB, tenzij anders vermeld.

De afwijkende cos.phi bij de eerste meting (en dan vooral de discrepantie met de Watt/VA's die weergegeven werden) kan ik niet verklaren, ik heb er nog wat kolommen naast staan en van de rest van de getallen is het verschil tussen Watt/VA en de gemeten cos.phi max 0,01...

Afbeeldingslocatie: http://tweakers.net/ext/f/bL4p5OdHyXeZSd6G5MfMWl8y/full.png

Iedere DIMM extra kost in mijn geval 1,425 Watt, als ik dan doorreken wat Windows met 128 GB zou verbruiken dan verbruikt FreeNAS 8,5 Watt meer dan Windows.

Oh ja, Memtest86+ draait momenteel met alle 8 cores bezig en 80 GB ram, 150 Watt @ 0.98 cos.phi

[ Voor 4% gewijzigd door Paul op 21-07-2014 09:54 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • ik222
  • Registratie: Maart 2007
  • Niet online
Oke dat valt reuze mee, ik heb zelf mijn lijstje nog even bijgewerkt:

#ProductPrijsSubtotaal
1Intel Xeon E5-1620 v2 Tray€ 272,29€ 272,29
1Supermicro X9SRL-F€ 265,04€ 265,04
2Seagate Barracuda 7200.14 ST2000DM001, 2TB€ 71,95€ 143,90
1Supermicro SNK-P0050AP4€ 34,99€ 34,99
2Samsung M393B2G70BH0-YH909€ 115,66€ 231,32
1Crucial 2.5" M500 240GB€ 105,20€ 105,20
Bekijk collectie
Importeer producten
Totaal€ 1.052,74


De Seagate scbijven kies is vooral omdat dit het type is waar ik er al een van heb, ik neem aan dat allemaal dezelfde schijven het handigste is in een ZFS setup?

[ Voor 3% gewijzigd door ik222 op 10-02-2014 20:32 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
De 7200.14 is wel de slechte serie harde schijven die je momenteel kan kopen. Hebben de beroerdste betrouwbaarheid... Liever WD Red's of als geld echt een probleem is Seagate HDD.15's.

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Ik ben begonnen met mijn setup en heb op dit moment ESXi 5.5 draaien + pfSense. Mijn setup is zoals het volgende plaatje (met WAN connected offcourse). LAN gaat vanuit de ESXi bak naar een TP-Link die als switch dient. Hoe kan ik vanuit mijn laptop (die dus een dhcp 10.10.0.100 krijgt van pfSense via de switch) nu mijn esxi host benaderen?

pfsense = 10.10.0.1
esx host = 10.10.0.10 (met 10.10.0.1 als gateway)

Afbeeldingslocatie: http://imageshack.com/a/img844/5328/cwq1.png

Ik weet trouwens niet of dit het juiste draadje is om dit te posten, maar naar mijn weten kijken genoeg pfsense/esxi guru's in dit draadje, dus vond ik het een beetje onzin om er een apart topic voor aan te maken.

[ Voor 25% gewijzigd door FREAKJAM op 11-02-2014 22:45 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Als dat IP-adres van je management network klopt heb je 2 opties:

- Je laptop een fixed adres te geven in de range waar je management network in zit
of
- Je management interface van VMware een IP-adres geven in de range die je LAN heeft.

Andere opties zijn moeilijk gaan doen met routes en interfaces en aliasen etc etc maar die twee zijn de simpelste :) Waarom zit de management interface in zo'n afwijkende range?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Sorry, plaatje was van docs.pfsense.org. Inmiddels vervangen met een plaatje van de daadwerkelijke configuratie, hoewel je in mijn vorige post kunt lezen dat het ip-adres van de esxi-host 10.10.0.10 is.

Ik kan vanaf de esxi-host ook niet pingen naar 10.10.0.1 (prolly blocked door pfSense?) en ik zie de esxi-host ook niet in de arp tabel staan in pfsense.

edit:
ik zie wel dat ik geen dmz (opt1) configged heb in pfsense zelf. Moet dit nog gedaan worden wellicht?

[ Voor 83% gewijzigd door FREAKJAM op 11-02-2014 23:02 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Niet per se nodig. Weet je wel zeker dat de juiste interfaces aan de juiste netwerkkaarten hangen? Als je laptop via DHCP een adres krijgt dan neem ik aan van wel, maar controleren kan geen kwaad :)

Klopt het subnetmasker overal? 255.255.255.0 op VMware, /24 in pfSense (komt op hetzelfde neer). Wat geeft VMware aan als IP-adres van pfSense? Hoe maak je überhaupt dit plaatje; je zit met de viclient dus wel ingelogd?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Als ik mijn laptop in dezelfde range instel (statisch) en vervolgens in mijn modem van upc plug (die dus tevens verbonden is met de wanpoort van mijn esx-host), dan mag ik wel inloggen op mijn esx-host met de vsphere client.

Ik ga er vanuit dat ik alles goed heb ingesteld, ik krijg netjes een dhcp van pfsense (10.10.0.100).
De dhcp staat in pfsense ook netjes ingesteld vanaf 10.10.0.100, dus dat klopt ook (zodat ik dus het eerste gedeelte van het subnet kan vrijhouden voor mijn VM's, zodat ik daar statische ip-adressen op kan instellen).

[ Voor 43% gewijzigd door FREAKJAM op 11-02-2014 23:45 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
ja en nee, je hebt nu wat in VMware 'LAN' heet aan de WAN-poort van je pfSense en andersom :) Kijk in VMware maar wat de MAC-adressen zijn van de interfaces en in welk netwerk deze zitten, en wat de MAC-adressen van je interfaces in pfSense zijn :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Uiteindelijk kon ik pfsense via de webgui benaderen en tevens werkte mijn vpshere client, maar ik denk dat de modem van upc het vele geconfigureer in esxi niet zo leuk vond, want mijn internet liet me in de steek. Na een reboot van het modem werkt nu gelukkig alles.

Ik had ze dus omgedraaid inderdaad. :X Je raakt snel van slag door de verschillende mac-adressen. Het WAN mac-adres van pfsense eindige dan ook op eb, en het WAN mac-adres van ESXi (vmnic1) eindigde op be. Denk dat dat voor de verwarring zorgde.

Goed opletten dus :)

edit:
vanmorgen was mijn internet weer down en moest ik pfSense weer rebooten. Ik draai nu de VM met E1000 nics en de open-vm-tools package. Vanmiddag eens spelen met VMXNET3 en de officiele vmware tools. Ik haal ook maar ~20mbit down, terwijl ik een 200mbit abo heb. Nog genoeg te tweaken dus.

[ Voor 71% gewijzigd door FREAKJAM op 12-02-2014 08:18 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • DaBeast.net
  • Registratie: Februari 2009
  • Laatst online: 01-01 12:44
#ProductPrijsSubtotaal
1Intel Core i5 4440 Boxed€ 154,90€ 154,90
1ASRock Q87M vPro€ 96,80€ 96,80
1Scythe Big Shuriken 2 Rev. B€ 30,04€ 30,04
1Corsair XMS3 CMX32GX3M4A1333C9€ 264,-€ 264,-
1be quiet! System Power 7 300W€ 32,-€ 32,-
1Crucial 2.5" M500 240GB€ 108,60€ 108,60
1SilverStone SUGO SG02-F€ 71,83€ 71,83
1Dell YT674 - Quad port ethernet adapter€ ~110€ ~110
Bekijk collectie
Importeer producten
Totaal€ 910 (shipping incl.)


Is dus een werkende config. Alle onderdelen zijn binnen (wel nog even wachten op de nic) , eergisteren in elkaar gestoken, en via Hiren's boot cd even Prime95 laten lopen. Na 20 min loopt hij op naar 43° C - als zou ik hem ook eens langer moeten laten testen. De on-board nic werkt - met deze driver (ESXi 5.1). Binnenkort eens kijken hoeveel hij verbruikt met een watt meter :9 .

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
FREAKJAM schreef op woensdag 12 februari 2014 @ 01:33:
vanmorgen was mijn internet weer down en moest ik pfSense weer rebooten. Ik draai nu de VM met E1000 nics en de open-vm-tools package. Vanmiddag eens spelen met VMXNET3 en de officiele vmware tools. Ik haal ook maar ~20mbit down, terwijl ik een 200mbit abo heb. Nog genoeg te tweaken dus.
Hmm, heb pfSense productie gedraaid op 4.1 met e1000 en zonder tools, nooit problemen, nette performance... alleen als je een CARP-cluster bouwt moet je met de promiscuous-settings in VMware aan de slag.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
@FreakJam, ik zou geen VMXNET3 gebruiken, helemaal niet nodig voor pfSense. Ik heb het hier geprobeerd, maar je moet met de hand die .ko files gaan kopieren volgens mij, want de open-vm-tools bevatten geen VMXNET3 drivers voor zover ik getest had.

E1000 kan ook gewoon > 1Gb lokaal hoor :)

PS: Dat omdraaien van WAN/LAN heb ik ook al eens gedaan hoor :P
Het word pas leuk als je vriendin ineens begint te klagen dat ze geen internet heeft, omdat je DHCP server ipv op een prive LAN, op je gewone LAN adressen in een andere range uit staat te delen :P

[ Voor 31% gewijzigd door FireDrunk op 12-02-2014 09:00 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

@FireDrunk, Paul,

Klopt, de laatste open-vm-tools heeft idd geen ondersteuning voor VMXNET3. Ik vond gisteravond nog wel dit artikel, en volgens dat artikel moet het wel te doen zijn (maar het is inderdaad wel complex).

Wellicht handmatig proberen de Intel driver te updaten in pfSense? Ik kon vanmorgen in ieder geval niet meer op internet en niet meer de pfsense console benaderen (10.10.0.1), terwijl ik mijn tp-link/esxihost wel kon benaderen. Nadat ik de pfSense vm had gereboot, werkte alles weer. Wellicht een crash van pfSense. (ik had te weinig tijd om de logs te bekijken, ben nu ook iets te laat op mijn werk omdat ik het perse wou uitzoeken natuurlijk).

Ik draai trouwens de 64bits versie van pfsense 2.1 onder ESXi 5.5 met 2x een intel i210 nic. Moet niets uitmaken lijkt me, maar blijkbaar is de driver in 2.1 niet "nieuw" genoeg. Wellicht een custom-iso proberen of de 2.1.1 snapshot. Het ziet er naar uit dat pfsense met mijn i210 nic's niet zo stabiel draait.

[ Voor 22% gewijzigd door FREAKJAM op 12-02-2014 09:12 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Heb je wel de nieuwste versie van pfSense (2.1 geloof ik momenteel). En die drivers moet je niet aan willen komen, die zijn recent genoeg.

Ik heb hier pfSense al maanden draaien onder ESXi5.5 werkt prima.

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Nou, volgens dat topic is de driver niet aanwezig in versie 2.1 (welke ik draai), omdat het ALTQ "stuk" maakt.

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
uh? Je geeft het ding E1000... Dat is gewoon een reguliere driver? Of zit je ook nog met VT-d te pielen?

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
pfSense ziet die hele i210 niet, die ziet alleen de e1000 die je in VMware aan de VM aanbiedt ;) Probeer het maar op een VMware-host met Broadcom-NICs, je interface in pfSense heet nog steeds em0 ipv bge0 :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
My point exactly :+

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Goedemorgen :F Tijd voor koffie.
Gelukkig hoef ik maar een half dagje te werken vandaag, vanmiddag even de logs bekijken dan maar.

[ Voor 97% gewijzigd door FREAKJAM op 12-02-2014 09:16 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 00:37

Zenix

BOE!

Gebruikt iemand op zijn ESXi al de virtualisatie opties SR-IOV of VMDq, van diverse nieuwe Intel netwerkkaarten bijvoorbeeld: Intel 82576 of de allerlaatste i350. Verder zijn deze kaarten ook een stuk zuiniger volgens Intel, ben weleens benieuwd of dat uberhaupt wel rendabel is met een NIC...

Heb trouwens nu de pricewatch: HP NC360T PCI-E twee-poorts Gigabit serveradapter (412648-B21) gekocht met Intel 82571EB. Bij ESXi 5.5 staat deze chip op http://kb.vmware.com/self...playKC&externalId=2056935 maar de HP NC360T staat wel op de HCL bij 5.5? Ben benieuwd hoelang die dan nog echt supported blijft.

[ Voor 16% gewijzigd door Zenix op 12-02-2014 19:33 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Mja, dat is inderdaad vaag... Ik heb het eerlijk gezegd nog niet geprobeerd, VMDq met Virtual Functions lijkt mij wel lekker snel, maar of het voor thuis nut heeft vraag ik mij af.

Even niets...


  • OsiriS.nl
  • Registratie: April 2005
  • Laatst online: 12-09 14:10
Is het mogelijk om met zo'n C2750 CPU moederbord een ESXI/ZFS/All-in-One machine te maken ondanks het missen van VT-d support?

Lijkt mij namelijk wel een mooie basis voor zo'n systeem...

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Het *kan* wel... Maar dan moet je met RDM werken. En dat is niet echt aan te raden. Met de nieuwe AHCI controller in ESXi 5.5 heb ik er al wel meer vertrouwen in, maar of het echt werkt (en blijft werken) is altijd maar de vraag.

Even niets...


  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 12:34

_Arthur

blub

OsiriS.nl schreef op donderdag 13 februari 2014 @ 16:21:
Is het mogelijk om met zo'n C2750 CPU moederbord een ESXI/ZFS/All-in-One machine te maken ondanks het missen van VT-d support?

Lijkt mij namelijk wel een mooie basis voor zo'n systeem...
Dan zou ik iets als een IBM M1015 / M1115 er in zetten; http://www.ebay.nl/itm/IB...n_123&hash=item4ad04581eb

Tenzij je maar 6 disks wilt aansluiten. Dat kan prima met de Intel poorten. De Marvells zou ik lekker links laten liggen.

[ Voor 9% gewijzigd door _Arthur op 13-02-2014 22:31 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
FireDrunk schreef op donderdag 13 februari 2014 @ 17:32:
Het *kan* wel... Maar dan moet je met RDM werken. En dat is niet echt aan te raden. Met de nieuwe AHCI controller in ESXi 5.5 heb ik er al wel meer vertrouwen in, maar of het echt werkt (en blijft werken) is altijd maar de vraag.
Wat hij zegt :)

Ik denk dat ik hier de enige ben die momenteel over een langere periode een RDM setup heeft draaien iswm 5.5.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • citruspers
  • Registratie: December 2009
  • Laatst online: 12:08
Wat is iedereens ervaring met de WD RED drives?

Ik heb laatst een WD RED 2TB drive gekocht en in mijn server (whitebox, esxi HCL) geplaatst en ESXi werkt er prima mee (start er zelfs van op), tot ik een Unitrends Enterprise Backup VM er op zet en laat backuppen. De VMs op de RED crashen dan op een gegeven moment hard en zijn niet meer toegankelijk, en de vsphere client geeft een HA error als ik ze probeer te selecteren.

De schijf zelf geeft geen vreemde SMART data en komt prima door zijn self-test (kort) heen. Het enige merkwaardige wat ik zie is dat de spin-up time zo'n 4,5 sec. is.

Met een XP VM op dezelfde schijf heb ik geen problemen, evenals mijn VMs op een SSD.

Anyone?

[ Voor 7% gewijzigd door citruspers op 14-02-2014 13:13 ]

I'm a photographer, not a terrorist


Acties:
  • 0 Henk 'm!

  • manmetdehamer
  • Registratie: Juni 2011
  • Laatst online: 10:37
Hallo Allemaal.

Ik zit te denken om mijn nas te gaan vervangen door een zuinig systeem waarop ik ook nog wat virtualisatie wil draaien als test bak. Nu heb ik aan de hand van het zuinige server topic onderstaande systeem uitgezocht:

1. gaat dit werken met ESXI?
2. Zal deze cpu voldoende zijn om wat testmachines op te draaien + een download bak?

#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 32,46€ 32,46
1ASRock B75 Pro3-M€ 50,90€ 50,90
1Gigabyte GZ-X7€ 36,97€ 36,97
1Corsair CMV16GX3M2A1333C9€ 124,99€ 124,99
1Seasonic G-Serie 360Watt€ 51,-€ 51,-
Bekijk collectie
Importeer producten
Totaal€ 296,32

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
Ja hoor, dat werkt uitstekend :) Mogelijk moet je de driver toevoegen aan de installer van ESXi om het te kunnen installeren maar dat is zo gepiept.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Misschien een hele domme vraag, maar hoe geef je nu daadwerkelijk iSCSI terug aan in mijn geval mijn standalone HTPC? Ik heb in FreeNAS iSCSI gedefineerd en in ESXi met behulp van de software-adapter een datastore gemaakt.

Nu wil ik mijn media beschikbaar stellen aan mijn standalone HTPC (die dus geen deel uit maakt van ESXi), dan moet ik dus met de iscsi iniatiator in Windows 8.1 verbinding maken met laten deze store? De store mounten, formatten als NTFS etc en hier vervolgens mijn mkv's opslaan?

Ik heb deze guide gevolgd, en dus verder niks gedaan met vswitches/vmkernels etc. Puur in FreeNAS de iSCSI initiator aangemaakt en in ESXi de datastore aangemaakt en verwezen naar de portal in FreeNAS.

Ik heb in FreeNAS 9.2.0 trouwens wel VMXNET3 aan de praat gekregen.

[ Voor 25% gewijzigd door FREAKJAM op 16-02-2014 18:33 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
FREAKJAM schreef op zondag 16 februari 2014 @ 18:29:
Nu wil ik mijn media beschikbaar stellen aan mijn standalone HTPC (die dus geen deel uit maakt van ESXi), dan moet ik dus met de iscsi iniatiator in Windows 8.1 verbinding maken met laten deze store? De store mounten, formatten als NTFS etc en hier vervolgens mijn mkv's opslaan?
Via CIFS?? Waarom moeilijk doen met iSCSI, je hebt niet eens een physieke NIC gekoppeld aan je iSCSI LAN dacht ik.

Je koppeld je storage via iSCSI aan ESX omdat dit performanter is. Voor windows gebruik je toch gewoon het SAMBA protocol zeker.

[ Voor 11% gewijzigd door A1AD op 16-02-2014 18:45 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

A1AD schreef op zondag 16 februari 2014 @ 18:43:
[...]


Via CIFS?? Waarom moeilijk doen met iSCSI, je hebt niet eens een physieke NIC gekoppeld aan je iSCSI LAN dacht ik.

Je koppeld je storage via iSCSI aan ESX omdat dit performanter is. Voor windows gebruik je toch gewoon het SAMBA protocol zeker.
Ik denk dat ik de logica dan niet helemaal snap. Hoe ga je met de storage om nadat je die via iscsi hebt gekoppeld aan ESXi? Je schakelt dus zowel CIFS als iSCSI in? Je doet eigenlijk niets met de datastore zelf nadat deze verschijnt in ESXi als ik het dus goed begrijp. Gewoon in FreeNAS beiden services inschakelen en gewoon CIFS shares maken zoals normaal (alleen op de achtergrond is er de koppeling tussen esxi/freenas via iscsi).

[ Voor 92% gewijzigd door FREAKJAM op 16-02-2014 20:44 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Waarom zou je zoveel moeite doen voor een HTPC?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Ik ben dit moment gewoon aan het testen/finetunen en dit is mijn eerste ervaring met de combinatie FreeNAS/ESXi. Ik wil gewoon weten wat het maximale is wat ik kan halen uit mijn setup.

Intel Xeon 1230V3 + X10SL7 moederbord + 32GB ram.

[ Voor 86% gewijzigd door FREAKJAM op 16-02-2014 19:40 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • citruspers
  • Registratie: December 2009
  • Laatst online: 12:08
citruspers schreef op vrijdag 14 februari 2014 @ 13:11:
Wat is iedereens ervaring met de WD RED drives?

Ik heb laatst een WD RED 2TB drive gekocht en in mijn server (whitebox, esxi HCL) geplaatst en ESXi werkt er prima mee (start er zelfs van op), tot ik een Unitrends Enterprise Backup VM er op zet en laat backuppen. De VMs op de RED crashen dan op een gegeven moment hard en zijn niet meer toegankelijk, en de vsphere client geeft een HA error als ik ze probeer te selecteren.

De schijf zelf geeft geen vreemde SMART data en komt prima door zijn self-test (kort) heen. Het enige merkwaardige wat ik zie is dat de spin-up time zo'n 4,5 sec. is.

Met een XP VM op dezelfde schijf heb ik geen problemen, evenals mijn VMs op een SSD.

Anyone?
Helemaal niemand heeft ervaring met de WD RED schijven i.c.m. ESXi?

I'm a photographer, not a terrorist


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
FREAKJAM schreef op zondag 16 februari 2014 @ 19:40:
Ik ben dit moment gewoon aan het testen/finetunen en dit is mijn eerste ervaring met de combinatie FreeNAS/ESXi. Ik wil gewoon weten wat het maximale is wat ik kan halen uit mijn setup.

Intel Xeon 1230V3 + X10SL7 moederbord + 32GB ram.
Wacht...
je htpc, is dat een virtuele machine op je ESX host?

iSCSI gebruik je om datastores te creëren op je host machine.
Samba gebruik je om gedeelde storage aan te bieden aan verschillende OSen (al dan niet virtueel)

Misschien moet je je eerst nog wat beter inlezen?

[ Voor 21% gewijzigd door A1AD op 17-02-2014 06:54 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

A1AD schreef op maandag 17 februari 2014 @ 06:49:
[...]


Wacht...
je htpc, is dat een virtuele machine op je ESX host?

iSCSI gebruik je om datastores te creëren op je host machine.
Samba gebruik je om gedeelde storage aan te bieden aan verschillende OSen (al dan niet virtueel)

Misschien moet je je eerst nog wat beter inlezen?
Nee, dan snap ik het wel degelijk. Mijn HTPC betreft alleen een standalone PC een maakt geen deel uit van ESXi. Ik zou dus in mijn geval een Windows 8 VM kunnen maken, de d-schijf kunnen koppelen aan de iscsi datastore (en die formatten als NTFS, wat bij mij voor de verwarring zorgt) en die vervolgens kunnen delen op de VM zelf zodat ik die kan benaderen vanaf mijn standalone HTPC.

Ik vind het gewoon een beetje vreemd als ik een datastore ga mounten en vervolgens ga formatten in in mijn geval NTFS omdat mijn harde schijven in FreeNAS zfs als filesystem hanteren. NTFS in een datastore op ZFS kan dus gewoon.

is everything cool?


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:08
FREAKJAM schreef op zondag 16 februari 2014 @ 19:06:
Ik denk dat ik de logica dan niet helemaal snap. Hoe ga je met de storage om nadat je die via iscsi hebt gekoppeld aan ESXi? Je schakelt dus zowel CIFS als iSCSI in?
Ze dienen beiden een compleet ander doel. iSCSI biedt een block device aan die compleet door één machine wordt ingezet, het is net of er een harde schijf in de initiator-machine bij komt. Tenzij je daar speciale dingen voor doet kun je dat ook maar met één machine aanspreken. ESXi doet dat, maar dat werkt alleen samen met andere ESXi-machines.

CIFS daarentegen biedt op file level storage aan. Dit is wel door meerdere machines tegelijk te gebruiken (zoals bijvoorbeeld je HTPC en je werkstation). Als je de films voor je HTPC via iSCSI aanbiedt dan kun je er met je werkstation niet bij.

Wat je dus doet is een bepaald stuk van je storage (zeg, 500 GB) aanbieden via iSCSI aan ESXi om VM's op te zetten, en de rest via CIFS voor je films / backups / etc. CIFS is de standaard, iSCSI doe je wanneer je iets speciaals wilt. Jij lijkt het nu andersom te doen :>

Wat je NIET moet doen is de iSCSI-datastore van VMware OOK aan jet HTPC koppelen en als NTFS formatteren, op dat moment raak je je datastore en alles wat daarop staat kwijt. Als je dan in VMware kijkt dan zegt deze dat de datastore corrupt is (want ineens NTFS ipv VMFS). Ga je daar weer een datastore aanmaken dan is Windows de D:-schijf kwijt :)

Je moet een paar dingen los van elkaar zien. Ja, je FreeNAS is een VM, maar omdat je de storage controller met VT-d doorgeeft (toch?) kun je dit als losse machine zien:

Bestanden delen met je netwerkn:
Harddisks -> FreeNAS / ZFS -> CIFS -> Windows

Datastore voor ESXi:
Harddisks -> FreeNAS / ZFS -> groot bestand (iSCSI) -> ESXi-host -> VMFS -> ESXi

iSCSI-target voor Windows (niet doen, tenzij je daar een specifiek doel mee hebt wat met CIFS niet werkt!)
Harddisks -> FreeNAS / ZFS -> groot bestand (iSCSI) -> HTPC -> NTFS -> Windows

En voor de volledigheid de harde schijven die een VM gebruikt:
Harddisks -> FreeNAS / ZFS -> groot bestand (iSCSI) -> ESXi-host -> VMFS -> groot bestand (VMDK) -> NTFS -> Windows

[ Voor 32% gewijzigd door Paul op 17-02-2014 08:48 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
@Paul: ik was net hetzelfde aan het typen :D

FREAKJAM: Volgens mij heb jij geen reden om iSCSI te gebruiken. Wat is momenteel je datastore?

[ Voor 23% gewijzigd door A1AD op 17-02-2014 08:51 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

@Paul, @A1AD

Dan snap ik de logica dus wel. Ik snap hoe je iscsi opzet in FreeNAS/ESXi maar ik vond het ook niet echt logisch klinken om een datastore aan te maken in ESXi/FreeNAS en om deze vervolgens te koppelen aan welk systeem dan ook. De enige reden dat ik iSCSI wil proberen, is omdat ik hoor dat het "sneller" is dan CIFS. Nu had ik inderdaad bijna het volgende opgezet: Harddisks -> FreeNAS / ZFS -> groot bestand (iSCSI aka extent) -> HTPC -> NTFS -> Windows

Ik ga nu gewoon lekker shares maken met behulp van CIFS en hier lekker mijn data op zetten. (media, snapshots en vmdk backups etc). Rest nu nog het volledig tweaken van mijn ZFS.

Op dit moment haal ik ~650 mb/s read en ~230 mb/s write in een VM met CrystalMark (16GB aan ram en 2 cpu's toegewezen aan de FreeNAS VM). Ik gebruik trouwens een SSD als datastore, en ik geef via de LSI2308 de harde schijven door aan de FreeNAS VM (via passthrough).

[ Voor 7% gewijzigd door FREAKJAM op 17-02-2014 09:03 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Die snelheden haal je lokaal inderdaad, maar remote (tussen je HTPC en ZFS) zal dat natuurlijk veel lager zijn. iSCSI zou in theorie veel sneller kunnen, maar geeft je het gigantische nadeel dat *alleen* je HTPC bij die data kan (omdat FreeBSD nou eenmaal niet tegelijkertijd bij dat iSCSI volume kan).

Blijf lekker bij CIFS / SMB, en neem de iets lagere performance voor lief.

Ik lees hier en daar ook al dat Samba 4.1 veel performance winst oplevert vanwege SMB2/3.

Even niets...

Pagina: 1 ... 67 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.