Acties:
  • 0 Henk 'm!

  • nagasy
  • Registratie: Mei 2008
  • Laatst online: 29-11-2024

nagasy

Duck Duck Duck Goose

Ik besef dat de vraag niet helemaal thuis hoort in dit topic.
Maar er bestaat blijkbaar geen Freenas topic (of ik heb erover gekeken in de zoekfunctie)

Gezien het gros van de configuraties freenas/<anders OS> draait met ZFS als bestandssysteem was mijn vraag eigenlijk als volgt:

Hoe nemen jullie een back-up van de zaken die je absoluut niet kwijt wilt?
Ik heb zelf al wat zitten googlen.
Een 2e kopie naar een externe USB schijf geeft vaak euvels en verloopt stroef als ik de vele posts lees.
en snapshots kan je moeilijk back-up noemen.
rsync is ook niet het van het zo blijkt.

Ik kan mij inbeelden dat er tweakers zijn die bvb hun foto's liever niet kwijt willen als je pool het toch plots zou begeven.

alvast dank

Battle.net: NagaByrd#2844


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • yeehaw
  • Registratie: Juli 2007
  • Laatst online: 20:09
Tsjah, meerdere opties.

ZFS snapshots send/receive naar een tweede ZFS doos ergens, misschien bij een bekende ofzo.
Encrypted backups op crashplan of een andere cloud provider.
Externe schijf.

Acties:
  • 0 Henk 'm!

  • nagasy
  • Registratie: Mei 2008
  • Laatst online: 29-11-2024

nagasy

Duck Duck Duck Goose

Inderdaad. Meest logische plek om het daar te posten 8)7

Battle.net: NagaByrd#2844


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
Beste Tweakers,

Eerst en vooral ben een beginneling in het opzetten van ESX(I), als iemand een guide of blog heeft voor het opzetten van ZFS en ESXI is meer dan welkom.

Enkelke hardware vraagjes. Ik heb momenteel de volgende built:

- CPU: Intel celeron g1610
- MB: Asrock b75 pro3-m
- RAM: 16 GB DDR3
- OPSLAG: 3X WD20ERX + hier gaan waarschijnlijk 3x 4TB schijven bijkomen + 256 GB SSD voor aan de RAIDZ ZFS hdd pool toe te voegen.

Mijn huidige server is een linux Ubuntu server met 3 schijven software RAID5 (MDADM).

Nu, ik wou graag een esxi server maken met ZFS en liefst zo zuinig mogelijk vandaar deze post. Wat ik begrepen heb in de begin post is dat ik een VT-d capabele CPU nodig heb, hebben jullie voor mijn huidige setup een goede CPU als vervanger? I3 of i5?

Als ik VT-d functie heb wordt dan mijn SATA controller doorgemapt? en is dit dan voldoende voor ZFS of heb ik toch nog een aparte hba controller nodig die in de begin post staat? (IBM M1015)

Daarnaast heb ik ook begrepen dat ik een Intel nic nodig heb, want onboard nics worden standaard niet ondersteunt of moet ik geen zorgen maken met mijn moederbord?

Als jullie nog aanraders hebben voor bepaalde hardware of andere ideeën is dit altijd welkom, alvast bedankt voor het beantwoorden van mijn vragen.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

Je hebt in elk geval een aparte controller nodig voor de datastore van ESXi. Je hebt twee controllers op je moederbord zitten maar als je de TS hebt gelezen staat daar ook in dat de ASM1061 helaas niet werkt bij het doorgeven van de Pantherpoint ;)

Er staan ook een aantal alternatieven bij, alleen weet ik niet meer of het stukje over RDM nog actueel is. Dit leverde een tijdje geleden problemen op met FreeBSD 9.2, maar ik weet niet of dat met FreeBSD 10.1 nog steeds het geval is.

Je hebt voor ESXi in principe geen speciale NIC nodig, alleen is het zo dat in de latere versies van ESXi de drivers voor bepaalde populaire onboard NICs (zoals de Realtek 8111E) verwijderd zijn. Je kunt deze echter nog wel toevoegen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 17:29
Nu, ik wou graag een esxi server maken met ZFS en liefst zo zuinig mogelijk vandaar deze post. Wat ik begrepen heb in de begin post is dat ik een VT-d capabele CPU nodig heb, hebben jullie voor mijn huidige setup een goede CPU als vervanger? I3 of i5?
http://tweakers.net/categ...Rrji6wePWDFxn_Z_709Crt_YB :) De 1610 is de langzaamste / goedkoopste, dus alles in die lijst is goed genoeg :)

Ik lees hier: Het grote DIY RAID NAS topic deel 3 dat de SATA-configuratie op je meoderbord zich maar lastig door laat geven; het is vooral alles of niets. Aan niets heb je niets, en bij alles heb je geen SATA-poorten vrij om je 1e datastore (en dus je ZFS-VM) op te zetten.

Ik denk dat je voor de prijs van die processor hierboven al een heel eind op weg bent naar een 2e machine ernaast waar je dedicated ESXi op draait. Nieuwe CPU + extra SATA-controller versus 2x zoveel geheugen (en dus meer VM's kunnen draaien) en geen trucs uit hoeven halen om een ZFS-machine te virtualiseren. Iets wat, ondanks dat het in dit topic best veel wordt gedaan, toch nog altijd stevig wordt afgeraden.

Eventueel kun je, als je iets als FreeNAS neemt, ook een aantal plugins / jails draaien met zaken die je anders in een VM had gedaan (zoals bijvoorbeeld Plex of Owncloud), scheelt je weer een (paar) VM's.

Twee machines gebruiken wel iets meer stroom dat één, maar heeft wel als voordeel dat je met ESXi kunt prutsen en klooien en testen wat je wilt (je geeft aan beginneling te zijn) zonder ook maar één seconde bang te hoeven zijn voor je data :)

Ik heb snel even iets in elkaar geklikt, het is half 4 's nachts dus mogelijk zitten er foutjes in :+
#ProductPrijsSubtotaal
1Intel Celeron G1820 Boxed€ 33,50€ 33,50
1ASRock B85M Pro4€ 64,51€ 64,51
1Zalman ZM-T3€ 21,61€ 21,61
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 101,-€ 101,-
1Mini-box picoPSU 90 + 80W Adapter Power Kit€ 66,95€ 66,95
Bekijk collectie
Importeer producten
Totaal€ 287,57

De keuze voor het moederbord is geïnspireerd op de Intel netwerkchip die er op zit, en sowieso zijn alle keuzes gebaseerd op prijs :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
Bedankt voor de reacties. Ik ga opteren voor een 2de machine dan zoals Paul zegt, zeker aangezien de prijs van een VT-d CPU blijkbaar bijna een heel systeem is en de SATA-controller problemen geeft zoals je aan gaf.

Nu, ik vind je built zeker goed zeker qua prijs, maar heb je ook een compactere oplossing? Aangezien dit toch een dedicated ESXI toestel gaat zijn, gaan hier dus geen schijven insteken, toch? (ESXI op USB) Je hebt dus sowieso die intel nic nodig als ik me niet vergis? Heb je ook een ITX moederbord met intel NIC dat kan werken onder ESXI, ik had al wat gezocht, maar precies is hier weinig keuze.

Wat voor mij het belangrijkste is, is zeker de prijs en ook om het zo compact mogelijk te houden, aangezien het 2 machines gaan zijn. Ik ga namelijk de case van mijn huidige machine ook veranderen, want momenteel is dit een Antec NSK-3480, die niet echt geschikt is om als ZFS box te gebruiken, wegens HDD/SSD ruimte. Dus als er echt geen goedkope ITX oplossing is kan ik deze case wel nog gebruiken als dedicated ESXI box, dan moet ik enkel nog een goede µATX ZFS box case vinden (als iemand tips heeft :) )

Nog een extra vraagje, ik heb wat gegoogled over die picoPSU, blijkbaar moet je dus die adapter aansluiten op dat aansluitstukje dat op de voedingsconnector vastzit, maar hoe kan je dit aansluiten in die case om het proper af te werken? Steek je deze dan gewoon door de opening waar de voeding zou moeten komen?

Mijn excuses voor de beginneling vragen die er tussen zitten, maar het is om een beter idee te krijgen van de gekozen built die Paul voorstelt.

Nogmaals bedankt om verder te helpen.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

cooLopke schreef op zondag 24 mei 2015 @ 14:41:
Bedankt voor de reacties. Ik ga opteren voor een 2de machine dan zoals Paul zegt, zeker aangezien de prijs van een VT-d CPU blijkbaar bijna een heel systeem is en de SATA-controller problemen geeft zoals je aan gaf.
Je zou natuurlijk kunnen kijken hoe RDM werkt vandaag de dag. Ik weet niet welk besturingssysteem je van plan was om ZFS op te draaien, maar als dat sowieso al iets anders was dan FreeBSD, heb je überhaupt geen last van het probleem.
Nu, ik vind je built zeker goed zeker qua prijs, maar heb je ook een compactere oplossing? Aangezien dit toch een dedicated ESXI toestel gaat zijn, gaan hier dus geen schijven insteken, toch? (ESXI op USB)
Je hebt minimaal 1 schijf nodig voor de datastore. ESXi laat geen datastores op USB toe.
Je hebt dus sowieso die intel nic nodig als ik me niet vergis?
Nee, Realtek-NICs werken ook als je wat moeite doet om de driver in de ESXi ISO te stoppen.




offtopic:
Waarom ben ik eigenlijk Karmakoning in Supermicro? Ik weet helemaal niets van Supermicro en heb er ook geen ervaring mee :P

[ Voor 6% gewijzigd door Compizfox op 24-05-2015 14:48 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
Bedankt, voor de snelle reactie. Oké, ik dacht dat ZFS enkel onder freebsd werkte? Het originele plan was om NAS4Free of FreeNAS te gebruiken als OS voor ZFS. Ik ben er nog niet uit welke van de 2. Als Debian ook mogelijk is voor ZFS, zou dit ook goed zijn, aangezien ik nu momenteel een headless ubuntu server heb draaien met owncloud, mysql, apache2, transmission, vsftpd, ssh... Met andere woorden ik vind er mijn weg wel in.

Dus je gebruikt de USB-schijf om ESXI op te draaien, zover kan ik mee. De datastore in ESXi dient dan om de data van de VM's op te slaan, klopt dit of ben ik mis? Hoe groot moet deze schijf dan zijn voor de in de ESXI machine te steken?

Oké, dan zal ik zoeken voor een guide om dit te doen, dit zal wel vindbaar zijn :). Dan ga ik inderdaad het huidige moederbord gebruiken en een extra ITX moederbordje bij aanschaffen voor de ZFS-box.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 17:29
cooLopke schreef op zondag 24 mei 2015 @ 14:41:
Nu, ik vind je built zeker goed zeker qua prijs, maar heb je ook een compactere oplossing?
Die zijn er wel, maar die zijn vaak een stukje duurder :)
Aangezien dit toch een dedicated ESXI toestel gaat zijn, gaan hier dus geen schijven insteken, toch? (ESXI op USB)
Klopt. Je kunt via NFS of iSCSI over het netwerk een stukje storage van je ZFS-machine aanbieden aan ESXi-host. Wanneer je ZFS gebruikt in een VM dan heb je wel een harde schijf nodig, omdat de VM die je gebruikt om storage aan te bieden niet op zichzelf kan staan.

Hoe groot je die datastore maakt moet je helemaal zelf weten, dat hangt natuurlijk ook af van hoeveel en welke VM's je wilt gaan draaien. Waar je wel op moet letten zijn de synced writes. Als je een datastore over NFS aan gaat bieden dan zal ESXi voor alle writes afdwingen dat ze synchroon moeten lopen, waardoor je transaction group iedere keer geforceerd geflushed wordt in plaats van dat er een seconde of 5 aan writes wordt gebufferd. Dit kun je op meerdere manieren 'oplossen': Sync writes uitzetten, maar dat is gevaarlijk en kan er voor zorgen dat bij een stroomstoring al je VM's stuk zijn; een SSD inzetten als SLOG voor je ZIL, dit wordt vrij veel gedaan maar je moet wel weten welke SSD je er voor inzet, en je moet flink overprovisionen om te zorgen dat je de SSD niet binnen een paar maanden sloopt, of je biedt het aan over iSCSI; over iSCSI worden alleen de writes die synchroon moeten, synchroon gedaan.
Je hebt dus sowieso die intel nic nodig als ik me niet vergis?
Die NIC is sowieso niet de enige, maar het hoeft ook niet per se Intel te zijn; je kunt ook zelf extra drivers toevoegen.
Nog een extra vraagje, ik heb wat gegoogled over die picoPSU, blijkbaar moet je dus die adapter aansluiten op dat aansluitstukje dat op de voedingsconnector vastzit, maar hoe kan je dit aansluiten in die case om het proper af te werken?
De DC-in op deze foto kun je in een gat in je case schroeven :)

[ Voor 26% gewijzigd door Paul op 24-05-2015 15:13 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

cooLopke schreef op zondag 24 mei 2015 @ 15:04:
Bedankt, voor de snelle reactie. Oké, ik dacht dat ZFS enkel onder freebsd werkte? Het originele plan was om NAS4Free of FreeNAS te gebruiken als OS voor ZFS. Ik ben er nog niet uit welke van de 2. Als Debian ook mogelijk is voor ZFS, zou dit ook goed zijn, aangezien ik nu momenteel een headless ubuntu server heb draaien met owncloud, mysql, apache2, transmission, vsftpd, ssh... Met andere woorden ik vind er mijn weg wel in.
Voor ZFS is eigenlijk illumos of FreeBSD wel aan te raden. ZFS on Linux bestaat ook, maar is toch net wat minder 'volwassen' dan op bijv. FreeBSD. Zover ik weet zijn er ook geen distributies gericht op ZFS voor Linux zoals die voor FreeBSD er wel zijn (zoals FreeNAS, Nas4Free, ZFSGuru).

Toen ik een paar jaar geleden met hetzelfde dilemma zat als jij, had ik problemen met RDM icm FreeBSD 9.2. We zitten echter ondertussen al weer op FreeBSD 10.1, dus misschien werkt het nu wel goed. Dat zou je eens kunnen proberen.

Ik heb ook iets meegekregen over een nieuwe virtuele AHCI-controller in ESXi 5.5. Iemand die daar ervaring mee heeft icm RDM? Is die überhaupt te gebruiken zonder vCenter?
Dus je gebruikt de USB-schijf om ESXI op te draaien, zover kan ik mee. De datastore in ESXi dient dan om de data van de VM's op te slaan, klopt dit of ben ik mis? Hoe groot moet deze schijf dan zijn voor de in de ESXI machine te steken?
Dat klopt. Die schijf moet zo groot zijn als jij nodig denkt te hebben voor de VMs.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
Bedankt voor de reacties.

@CompizFox Dan ga ik toch opteren voor een FreeBSD distributie dus NAS4Free of FreeNAS. Ik ben niet echt de persoon om RDM uit te gaan testen :D.

Dus ik ben toch van plan om 2x aparte machines te plaatsen. Nu, om een misverstand te voor komen als ik dus 2x aparte machines (beide 16 GB RAM geheugen) heb (1x ZFS box (FreeNAS, Nas4Free) + 1x ESXI-server), heb ik dus sowieso een aparte harde schijf (datastore) nodig in de ESXI machine ter grootte van de systeem drive van elke VM? Is dit dan best een SSD of is een HDD voldoende hiervoor? Ik denk dat ik uiteindelijk rond de 10 VM's ga draaien, wat wil zeggen dat als ik elke host gemiddeld 50 GB systeemschijf geef een schijf ga nodig hebben van +/- 500 GB.

Ik vind het wel vreemd dat je nog een extra schijf als datastore nodig hebt in de dedicated ESXI machine, aangezien we op het werk, we momenteel 6 hosts hebben die gekoppeld zijn op de 3-PAR en in geen enkele host een disk zit. Alle datastores zitten op de 3-PAR via Fiber Channel.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

Volgens mij kun je ook een datastore over iSCSI aanbieden. Je zou hier je ZFS-machine voor kunnen gebruiken, maar ik vraag me af of dat handig is. Immers betekent dat: ZFS-machine rebooten? Al je VMs plat.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Dat is de reden dat ik mijn VM's ook gewoon op mijn SSD heb staan. Je kunt het natuurlijk op ZFS plaatsen, maar als je ZFS bak wordt gereboot ben je ook de rest van je VM's inderdaad kwijt.

edit:
Blijkbaar ben ik ook Supermicro karmakoning :D

[ Voor 13% gewijzigd door FREAKJAM op 24-05-2015 16:42 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
@FreakJam hoe groot is jou SSD als ik vragen mag en hoeveel VM's heb je?

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Ik heb een SSD van 256GB en op dit moment ~113GB vrij

Ik heb 6 VM's draaien:
CentOS 7 (Couchpotato, Sonarr, NZBGet, VHD van 16GB)
CentOS 7 (ZFS, VHD van 16GB)
CentOS 7 (MySQL, Spotweb, LibreNMS, VHD van 16GB)
CentOS 7 (Plex Media Server, VHD van 16GB, Plexdata draait op ZFS)
vCenter 5.5 (125GB thin provisioned)
pfSense (VHD van 2GB)

is everything cool?


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
Ok, 256GB moet inderdaad wel voldoende zijn dan voor de system disks, bedankt voor het voorbeeld :). Je hebt wel geen Windows Servers draaien, vandaar de ruimte besparing.

Nu, vraag ik me af waarom zoveel schijfruimte voor vCenter en waarom heb je dit nodig? vCenter heb je toch enkel nodig als je meerdere hosts hebt? Voor vCenter is ook een licentie vereist, dacht ik?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
@FREAKJAM draai jij Hyper-v tegenwoordig?
Laat maar, ik zie vcenter er tussen staan. Ik was in de war omdat je vhd gebruikt.

[ Voor 52% gewijzigd door A1AD op 24-05-2015 18:32 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

A1AD schreef op zondag 24 mei 2015 @ 18:30:
@FREAKJAM draai jij Hyper-v tegenwoordig?
Laat maar, ik zie vcenter er tussen staan. Ik was in de war omdat je vhd gebruikt.
Oops vhd moet natuurlijk vmdk zijn in dit geval. Ik wil graag iets anders proberen nog steeds, maar durf een overstap nog niet aan. Weet ook niet zo goed wat to be honest.

@cooLopke thin provisioning neemt minder in beslag dan normaal. Er is wel x GB gereserveerd, maar hij neemt alleen maar het aantal GB in beslag wat hij op dat moment echt nodig heeft.

Voor vCenter is inderdaad een licentie vereist maar je mag het 90 dagen gratis proberen. Ik gebruik het eigenlijk amper nu de boel draait. Een beperking is het wel met al die vm levels. Een van de redenen dat ik iets anders wil proberen.

[ Voor 16% gewijzigd door FREAKJAM op 24-05-2015 18:45 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
Mijn vraag was eerder waarom je zoveel ruimte gereserveerd had voor vcenter.

Nu, ik zit nog met 1 ding in mijn hoofd. Dus je hebt een lokale ssd schijf als datastore voor de VM's, hoe presenteren jullie dan de extra virtuele schijven aan de VM's of hoe doen jullie het want daar ben ik niet mee, jullie benaderen de ZFS machine altijd via een netwerkshare dan? Aangezien men zegt dat men de ZFS machine op ieder moment wil kunnen booten.

Op de 3-par presenteren we namelijk een stukje storage aan VMWare om dan vervolgens toe te kennen aan een VM als virtuele disk, maar ik veronderstel dat jullie anders werken?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

cooLopke schreef op maandag 25 mei 2015 @ 01:55:
Op de 3-par presenteren we namelijk een stukje storage aan VMWare om dan vervolgens toe te kennen aan een VM als virtuele disk, maar ik veronderstel dat jullie anders werken?
Dat is inderdaad dat iSCSI-verhaal waar ik het over had. Het kan wel, maar het lijkt mij niet handig.

De systeemschijven van de VMs (onder Linux/FreeBSD bedoel ik daarmee /, onder Windows C:\) staan op de datastore, die een HDD is in de ESXi-host.

Mijn ZFS-machine (die overigens gevisualiseerd is, niet apart) biedt geen VHDs voor VMs aan. Het is echt puur storage voor mijn eigen data.

Als ik vanuit een andere VM bij die data moet, dan doe ik dat inderdaad via NFS of SMB/CIFS.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

cooLopke schreef op maandag 25 mei 2015 @ 01:55:
Mijn vraag was eerder waarom je zoveel ruimte gereserveerd had voor vcenter.

Nu, ik zit nog met 1 ding in mijn hoofd. Dus je hebt een lokale ssd schijf als datastore voor de VM's, hoe presenteren jullie dan de extra virtuele schijven aan de VM's of hoe doen jullie het want daar ben ik niet mee, jullie benaderen de ZFS machine altijd via een netwerkshare dan? Aangezien men zegt dat men de ZFS machine op ieder moment wil kunnen booten.

Op de 3-par presenteren we namelijk een stukje storage aan VMWare om dan vervolgens toe te kennen aan een VM als virtuele disk, maar ik veronderstel dat jullie anders werken?
Ik heb niet zoveel gereserveerd voor vCenter, dat is min of meer afgedwongen. Versie 5.5 van vCenter kun je deployen via een ova bestand. In dit bestand staat al voor gedefinieerd hoeveel vcpu, geheugen en schijfruimte deze vm nodig heeft.

Het presenteren van mijn ZFS disks aan mijn ZFS VM gaat op basis van passthrough (VT-d). Mijn moederbord heeft een LSI 2308 controller die ik in zn geheel doorgeef aan mijn ZFS machine. Mocht je niet beschikken over een moederbord met zo een losse controller dan kun je nog altijd zo een kaart los gebruiken. (De M1015 is een veel gebruikte kaart). Zie trouwens ook het kopje "hardware" en "PCI-e passthrough van een complete HBA" in de allereerste post van dit topic, daar wordt het ook uitgelegd. (Lees sowieso de eerste post en dit topic goed door, er is veel info te vinden namelijk).

[ Voor 17% gewijzigd door FREAKJAM op 25-05-2015 07:57 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
Ok, ik heb dan toch maar beslist om een M1115 aan te schaffen en te gaan voor de ZFS machine als vm, 2 aparte machines gaat niet echt prettig worden, aangezien ik ga verhuizen naar een appartement.

Nu nog een CPU vervanger vinden voor de intel g1610 zodat VT-d werkt, en alles zou moeten werken veronderstel ik? Moet er voor de rest nog iets aangepast worden op de IBM M1115 of gewoon inpluggen en alle bestaande schijven op de HBA inpluggen?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

cooLopke schreef op maandag 25 mei 2015 @ 16:21:
Ok, ik heb dan toch maar beslist om een M1115 aan te schaffen en te gaan voor de ZFS machine als vm, 2 aparte machines gaat niet echt prettig worden, aangezien ik ga verhuizen naar een appartement.

Nu nog een CPU vervanger vinden voor de intel g1610 zodat VT-d werkt, en alles zou moeten werken veronderstel ik?
Je moederbord (B75 Pro3-m) ondersteunt VT-d dus dat moet goedkomen.
Moet er voor de rest nog iets aangepast worden op de IBM M1115 of gewoon inpluggen en alle bestaande schijven op de HBA inpluggen?
Ik ken de IBM M1115 niet, is dit een typo van de M1015 of is het een bestaande variant van die kaart?

Zover ik weet moet de M1015 eerst naar IT-mode geflasht worden voordat hij met ZFS gebruikt kan worden.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Eerst naar IT-mode flashen inderdaad en dan markeren voor passthrough in ESXi.

is everything cool?


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

let wel dat als je de kaart voor freenas wil gaan gebruiken, je firmware versie 16 pakt, de meest recente (20 ofz) zit nog niet in freenas ingebakken

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Compizfox schreef op maandag 25 mei 2015 @ 16:26:
Ik ken de IBM M1115 niet, is dit een typo van de M1015 of is het een bestaande variant van die kaart?

Zover ik weet moet de M1015 eerst naar IT-mode geflasht worden voordat hij met ZFS gebruikt kan worden.
Toevallig ben ik ook net aan het kijken naar de M1115 volgens mij is dit gewoon LSI SAS2008 based? En dus ook te flashen naar IT mode. Voor 82 euro kan ik hem nieuw kopen! Iemand hem al in een werkende setup draaien?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

SAS2008 based inderdaad. Firmware P19 moest je volgens mij nemen omdat de nieuwere buggy (P20) was, niet zozeer dat het niet met FreeNAS werkt.

[ Voor 46% gewijzigd door FREAKJAM op 26-05-2015 16:12 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

Kek schreef op maandag 25 mei 2015 @ 16:39:
let wel dat als je de kaart voor freenas wil gaan gebruiken, je firmware versie 16 pakt, de meest recente (20 ofz) zit nog niet in freenas ingebakken
FreeNAS is dan ook nog blijven steken op FreeBSD 9.3-STABLE :')

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

de m1115 is eigelijk (bijna)exact een m1015, zelfde firmware iets andere layout, hij is alleen goedkoper te vinden op ebay :D

[ Voor 4% gewijzigd door Kek op 25-05-2015 17:05 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

Aha. Iets voor in de TS?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • jjust
  • Registratie: April 2005
  • Laatst online: 21:05

jjust

Het leven is een strijd

Ik heb de m1115 draaien met ZFSGuru. Nog wel in een testopstelling maar toch. Let op bij de IT firmware. Uit mijn hoofd zijn ze nu bij versie 20 maar daar schijnen wat problemen mee te zijn. Ik heb hem naar versie 19 geflashed en so far so good.


Zie ook deze link voor how to. In de comments zijn meerdere personen met een M1115. Tevens staat daar ook dat er problemen waren met de versie 20 firmware.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

jjust schreef op dinsdag 26 mei 2015 @ 15:55:
Ik heb de m1115 draaien met ZFSGuru. Nog wel in een testopstelling maar toch. Let op bij de IT firmware. Uit mijn hoofd zijn ze nu bij versie 20 maar daar schijnen wat problemen mee te zijn. Ik heb hem naar versie 19 geflashed en so far so good.


Zie ook deze link voor how to. In de comments zijn meerdere personen met een M1115. Tevens staat daar ook dat er problemen waren met de versie 20 firmware.
Zowel de M1015 als de M1115, voorzien van de P19 firmware, werken beiden zonder problemen te veroorzaken. De P20 firmware is af te raden.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Deveon
  • Registratie: December 2007
  • Niet online
cooLopke schreef op maandag 25 mei 2015 @ 16:21:
Ok, ik heb dan toch maar beslist om een M1115 aan te schaffen en te gaan voor de ZFS machine als vm, 2 aparte machines gaat niet echt prettig worden, aangezien ik ga verhuizen naar een appartement.

Nu nog een CPU vervanger vinden voor de intel g1610 zodat VT-d werkt, en alles zou moeten werken veronderstel ik? Moet er voor de rest nog iets aangepast worden op de IBM M1115 of gewoon inpluggen en alle bestaande schijven op de HBA inpluggen?
Als je met ZFS aan de slag gaat moet je ECC geheugen eigenlijk wel overwegen...

Tekst en uitleg

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Voor ECC heb je dan weer een i3 of Xeon + correcte chipset nodig. Ook wil je eigenlijk SAS schijven vanwege de hogere queuedepth (32>254) als je ZFS ook wil tunen. Ook wil je de IT mode firmware flashen (queue depth 25>600).

[ Voor 12% gewijzigd door |sWORDs| op 27-05-2015 14:22 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Deveon schreef op woensdag 27 mei 2015 @ 14:09:
[...]

Als je met ZFS aan de slag gaat moet je ECC geheugen eigenlijk wel overwegen...

Tekst en uitleg
De discussie rondom ZFS en 'noodzaak'van ECC is uitgebreid in het grote ZFS topic besproken.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • cooLopke
  • Registratie: Juli 2013
  • Laatst online: 25-09 09:49
jjust schreef op dinsdag 26 mei 2015 @ 15:55:
Ik heb de m1115 draaien met ZFSGuru. Nog wel in een testopstelling maar toch. Let op bij de IT firmware. Uit mijn hoofd zijn ze nu bij versie 20 maar daar schijnen wat problemen mee te zijn. Ik heb hem naar versie 19 geflashed en so far so good.


Zie ook deze link voor how to. In de comments zijn meerdere personen met een M1115. Tevens staat daar ook dat er problemen waren met de versie 20 firmware.
Die forum download dat daar bij zit op die website is dat de juiste download, want ik had de indruk dat firmware versie 20 was, maar ben niet zeker.

Thanks!

Acties:
  • 0 Henk 'm!

  • jjust
  • Registratie: April 2005
  • Laatst online: 21:05

jjust

Het leven is een strijd

Ik heb de firmware van de LSI site gedownload Hier download je echter ook automatisch P20.

Om toch P19 te kunnen downloaden heb in de download URL de P20 vervangen door P19. Het was even pielen maar toen kon ik alsnog de goede versie downloaden.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
|sWORDs| schreef op woensdag 27 mei 2015 @ 14:16:
Voor ECC heb je dan weer een i3 of Xeon + correcte chipset nodig. Ook wil je eigenlijk SAS schijven vanwege de hogere queuedepth (32>254) als je ZFS ook wil tunen. Ook wil je de IT mode firmware flashen (queue depth 25>600).
Ondersteunen de i3's ook ECC tegenwoordig? Ik dacht dat dit enkel door de pentiums ondersteund werd?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Alle desktop versies (dus niet M, U of Y). Voorbeeld:
http://ark.intel.com/m/nl...ocessor-3M-Cache-3_60-GHz

Ecc ondersteund: Yes

Let wel op dat de pentiums en i3's (behalve U) geen vt-D ondersteunen.

[ Voor 37% gewijzigd door |sWORDs| op 30-05-2015 18:44 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
Ik heb nu all onderdelen binnen om een ESXI server te maken

#ProductPrijsSubtotaal
1Intel Xeon E3-1231 V3 Boxed€ 261,-€ 261,-
1Supermicro X10SL7-F€ 259,-€ 259,-
4Seagate Desktop HDD ST2000DM001, 2TB€ 76,50€ 306,-
1Xigmatek Asgard€ 31,50€ 31,50
1ValueLine Cat6 Patch 30m€ 9,45€ 9,45
4Crucial CT102472BA160B€ 77,73€ 310,92
1Seasonic G-series 360 watt€ 56,95€ 56,95
2Crucial BX100 250GB€ 84,95€ 169,90
1APC Back-UPS ES 700VA DIN€ 86,27€ 86,27
Bekijk collectie
Importeer producten
Totaal€ 1.490,99


Ik loop alleen tegen het probleem aan dat als ik ESXI 6 op een USB stick wil installeren, krijg ik heel raar beeld. Ik heb de image van VMware gedownload en met UNetbootin op een USB stick gezet. Nu boot die van de USB stick en krijg ik dit als beeld.

https://www.dropbox.com/s/qdy086a205li6oh/esxi.jpg?dl=0

Enig idee hoe dit op te lossen valt?

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • defusion
  • Registratie: Juli 2003
  • Niet online
Ander scherm proberen? Lijkt me een issue met refreshrate ofzo.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Volgens mij werkt hij via IPMI. Heb je de laatste firmware al geinstalleerd? Boot je via UEFI?

Even niets...


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
@FireDrunk Ik boot via uefi van de USB stick. Ik krijg dit beeld zowel op de monitor als via IPMI.

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Probeer dan eens UEFI uit te zetten.

Even niets...


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
@FireDrunk Als ik niet van UEFI boot dan krijg ik de bekende melding "this is not a bootable disk. Pleas insert a bootable floppy and press any key...."

Ik heb ook al 2 andere video kaarten geprobeerd die geven het zelfde beeld.

Ga nu maar eens ESXI 5.5u2 proberen als het ik die kan downloaden.

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Hmm, het klinkt namelijk alsof ESXi tijdens de UEFI initialisatie een buggy GPU driver laad...
Ofwel de ESXi UEFI GPU implementatie is ruk, ofwel de GPU in jouw systeem is nogal brak icm UEFI...

Even niets...


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
Ik maak gebruik van de standaard onboard GPU BMC integrated Aspeed AST2400 die op het moederbord zit. Volgens dit topic en andere zou dit moederbord goed moeten werken met ESXI.

Stomme is kan nu geen ESXI 5.5 downloaden van VMware.com omdat ik al 6.0 heb gedownload.

Als ik gewoon een Ubuntu 15.04 live usb stick draai dan werkt alles ook gewoon naar behoren.

[ Voor 15% gewijzigd door aegis op 08-06-2015 15:22 ]

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • Clueless
  • Registratie: Juli 2001
  • Laatst online: 26-09 11:49
aegis schreef op maandag 08 juni 2015 @ 15:13:
Ik maak gebruik van de standaard onboard GPU BMC integrated Aspeed AST2400 die op het moederbord zit. Volgens dit topic en andere zou dit moederbord goed moeten werken met ESXI.

Stomme is kan nu geen ESXI 5.5 downloaden van VMware.com omdat ik al 6.0 heb gedownload.

Als ik gewoon een Ubuntu 15.04 live usb stick draai dan werkt alles ook gewoon naar behoren.
Je kan gewoon een change doen van de versie hoor, of het nu een trial, licensed of de Free Hypervisor variant doen. Je moet dat alleen wel ff doen via https://my.vmware.com en dan onder Download.

I Don't Know, So Don't Shoot Me


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
@Clueless Ik kan nergens Change vinden alleen onder All Downloads, als ik naar zoek esxi 5.5 kom ik ook bij 6.0 uit

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 17:29
Apart... Welke browser en welke URL? Ik kom hier gewoon bij 5.5 uit?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
@Paul als naar jou link ga kom ik ook bij 5.5 uit zal wel aan mijn zoek skills liggen.

Maar als ik vervolgens die wil downloaden krijg ik de melding:
You either are not entitled or do not have permissions to download this product. Check with your My VMware Super User, Procurement Contact or Administrator.

If you recently purchased this product through VMware Store or through a third-party, try downloading later.

Download Trial

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
Ik heb nu ook ESXI 5.5 "VMware-VMvisor-Installer-5.5.0.update02-2068190.x86_64" geprobeerd via IPMI virtual storage en daarmee krijg ik hetzelfde beeld.

https://www.dropbox.com/s/wctwc91pq31v5xx/esxi_1.jpg?dl=0
https://www.dropbox.com/s/aqp584fk9ksp0my/esxi_2.jpg?dl=0
https://www.dropbox.com/s/cylis7amkv0853a/esxi_3.jpg?dl=0

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • CooleSmurf
  • Registratie: Januari 2010
  • Laatst online: 28-09 20:59
@ aegis Los van mogelijk complexe oorzaken en dito pogingen om het op te lossen lijken de screenshots verdacht veel op eerder situaties die ik gezien heb waarbij de kabel van het beeldscherm er niet goed in zat. Omdat het zo voor de hand ligt, makkelijk over het hoofd te zien (zou mij kunnen overkomen).

Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
@CooleSmurf, ik heb dat al bekeken heb verschillende videokaarten geprobeerd en de kabel meerdere na gekeken. Ook als ik de live CD van Ubuntu 15.04 van usb of van virtual storage via IPMI draai doet alles het gewoon, heb op die manier de ook al memtest een dag gedraait en het hele weekend de HDD getest en daar werkte alles wel goed in.

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Waarom boot je niet gewoon de ISO via IPMI en kies dan de USB als locatie? Ik heb ongeveer dezelfde hardware (X10SLH-F +1240L v3) en dat gaat prima met ESXi 5.5 en 6. De USB stick is 8GB of groter (>=16 aanbevolen)? Anders moet je de boot.cfg aanpassen. En op sommige machines werkt een USB2 stick op een USB2 poort beter dan USB3.

[ Voor 64% gewijzigd door |sWORDs| op 09-06-2015 11:53 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 28-09 22:45
Ik heb nu de bios/ipmi/sas firmware geupdate en toen de image via IPMI gemount en de normale boot optie gekozen. Daar doet die het nu wel op, de boot usb ik gisteren heb gebruikt zal vast niet helemaal goed zijn geweest. Inmiddels ESXI 6 geinstalleerd, van de week maar eens gaan prutsen met wat VM's aanmaken.

BTW als ik via UEFI probeer te booten van IPMI mounted iso heb ik nog steeds hetzelfde probleem dus het ligt gewoon aan UEFI wat @FireDrunk zei.

https://bettyskitchen.nl


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

Nou, nadat ik mijn oude datastore gesloopt had heb ik er nu een gloednieuwe schijf inzitten en zijn alle VMs weer opnieuw geïnstalleerd.

Ik heb echter wel een probleem, en dat is de I/O-snelheid van de disk, die echt belachelijk traag is. En met belachelijk traag bedoel ik 2,5 MB/s, wat zowel de maximale lees- als schrijfsnelheid is. Volgens mij zou dat toch wel een factor 100 hoger moeten zijn, of niet?

Die 2,5 MB/s is de snelheid die ik meet met hdparm in een Linux-guest en ook het 'plafond' dat ik zie als ik in vSphere Client in het tabje Performance-->Disk kijk.

Het is ook traag als ik bestanden van/naar de datastore kopieer of een benchmark uitvoer met dd op de host. Het kan dus niet liggen aan de guests, want ook in ESXi zelf is het traag.

Het lijkt erop dat ie niet harder wil, maar het lijkt me sterk dat het aan de schijf zelf ligt aangezien die nieuw is. Nu moet ik toegeven dat ik hiervoor (met de oude datastore-disk) nooit echt heb gekeken naar de I/O-performance dus ik kan niet met 100% zekerheid uitsluiten dat het altijd al zo is geweest, maar ik kan me niet voorstellen dat dat het geval is. 2,5 MB/s is té traag om onopgemerkt te blijven ;)

Iemand een idee waar dit aan kan liggen?

Kan ik trouwens de datastore-schijf in een Windows-machine prikken om zo een niet-destructieve benchmark met HDTune uit te voeren? Of moet de schijf daarvoor NTFS zijn?

De schijf is trouwens een pricewatch: Toshiba DT01ACA050, 500GB

EDIT: Met HDTune meet ik gewoon 180 MB/s. Het ligt dus, zoals al wel verwacht, niet aan de disk.

EDIT: Als ik SATA IDE Combined Mode uitzet (wat ik gebruik om mijn onboard HBA te splitsen zodat ik het ene deel kan doorgeven aan mijn ZFS-VM) dan gaat het wel snel.

Omdat ik toch aan het testen was, heb ik meteen even getest hoe RDM werkt tegenwoordig (met FreeBSD 10.1). Ik heb goed nieuws: physical RDM lijkt gewoon te werken! Wel wordt het blijkbaar overal afgeraden om dat te gebruiken voor ZFS. Een goede reden heb ik nog niet gehoord, mogelijk zijn het gewoon spookverhalen.

[ Voor 33% gewijzigd door Compizfox op 10-06-2015 18:22 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • xelnaha
  • Registratie: November 2008
  • Laatst online: 25-05 00:46
Een maat van me is bezig een nieuw zuinig systeem samen te stellen en liet mij atom processoren zien ala:

Intel® Atom™ Processor C2550 (2M Cache, 2.40 GHz)
Intel® Atom™ Processor C2730 (4M Cache, 1.70 GHz)
etc,

deze systemen lijken gewoon vt-d te ondersteunen en andere zaken. In hoe verre zijn deze processoren geschikt voor zuinige virtualisatie? Mijn ervaring met atom is oud en toen waren ze redelijk traag?

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

De huidige atoms zijn wat sneller omdat ze out of order instructies ondersteunen, maar ik zou het nooit gebruiken, als het om een laag TDP gaat pak dan een 1240L v3, die loopt rondjes (bijna 4x sneller single threaded en multithreaded, of 2x multi bij 2750) om zo'n Atom. Het grote voordeel van een 2750/2550 Atom is dat ze meer geheugen ondersteunen, bij de 2730 zie ik helemaal geen voordelen.

Mocht je veel systemen willen draaien die veel geheugen, maar nauwelijks CPU gebruiken kan de 2750 een mooie oplossing zijn.

[ Voor 38% gewijzigd door |sWORDs| op 18-06-2015 09:13 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

nevermind

[ Voor 98% gewijzigd door Pantagruel op 18-06-2015 09:21 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
|sWORDs| schreef op donderdag 18 juni 2015 @ 09:07:
De huidige atoms zijn wat sneller omdat ze out of order instructies ondersteunen, maar ik zou het nooit gebruiken, als het om een laag TDP gaat pak dan een 1240L v3, die loopt rondjes (bijna 4x sneller single threaded en multithreaded, of 2x multi bij 2750) om zo'n Atom. Het grote voordeel van een 2750/2550 Atom is dat ze meer geheugen ondersteunen, bij de 2730 zie ik helemaal geen voordelen.

Mocht je veel systemen willen draaien die veel geheugen, maar nauwelijks CPU gebruiken kan de 2750 een mooie oplossing zijn.
Maar die CPU is nu wel even duur als een moederbord met Avoton cpu :O

~ beware of misinformation.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Compizfox schreef op woensdag 10 juni 2015 @ 11:56:
Nou, nadat ik mijn oude datastore gesloopt had heb ik er nu een gloednieuwe schijf inzitten en zijn alle VMs weer opnieuw geïnstalleerd.

Ik heb echter wel een probleem, en dat is de I/O-snelheid van de disk, die echt belachelijk traag is. En met belachelijk traag bedoel ik 2,5 MB/s, wat zowel de maximale lees- als schrijfsnelheid is. Volgens mij zou dat toch wel een factor 100 hoger moeten zijn, of niet?

Die 2,5 MB/s is de snelheid die ik meet met hdparm in een Linux-guest en ook het 'plafond' dat ik zie als ik in vSphere Client in het tabje Performance-->Disk kijk.

Het is ook traag als ik bestanden van/naar de datastore kopieer of een benchmark uitvoer met dd op de host. Het kan dus niet liggen aan de guests, want ook in ESXi zelf is het traag.

Het lijkt erop dat ie niet harder wil, maar het lijkt me sterk dat het aan de schijf zelf ligt aangezien die nieuw is. Nu moet ik toegeven dat ik hiervoor (met de oude datastore-disk) nooit echt heb gekeken naar de I/O-performance dus ik kan niet met 100% zekerheid uitsluiten dat het altijd al zo is geweest, maar ik kan me niet voorstellen dat dat het geval is. 2,5 MB/s is té traag om onopgemerkt te blijven ;)

Iemand een idee waar dit aan kan liggen?

Kan ik trouwens de datastore-schijf in een Windows-machine prikken om zo een niet-destructieve benchmark met HDTune uit te voeren? Of moet de schijf daarvoor NTFS zijn?

De schijf is trouwens een pricewatch: Toshiba DT01ACA050, 500GB

EDIT: Met HDTune meet ik gewoon 180 MB/s. Het ligt dus, zoals al wel verwacht, niet aan de disk.

EDIT: Als ik SATA IDE Combined Mode uitzet (wat ik gebruik om mijn onboard HBA te splitsen zodat ik het ene deel kan doorgeven aan mijn ZFS-VM) dan gaat het wel snel.

Omdat ik toch aan het testen was, heb ik meteen even getest hoe RDM werkt tegenwoordig (met FreeBSD 10.1). Ik heb goed nieuws: physical RDM lijkt gewoon te werken! Wel wordt het blijkbaar overal afgeraden om dat te gebruiken voor ZFS. Een goede reden heb ik nog niet gehoord, mogelijk zijn het gewoon spookverhalen.
Het kan goed zijn dat de IDE driver in ESXi in de laatste versie een FUSE module is ofzo en niet echt een snelle module is. Waarschijnlijk zit die IDE module er alleen in om backwards compatible te zijn en om support te leveren voor nested ESXi (virtuele cd-drives zijn onder VMware vaak IDE).

IDE is al sinds jaar en dag niet bedoeld voor primaire storage, dus ik vind het zeker niet raar dat dit zo traag is. Kies liever AHCI of SAS, dat zijn supported protocollen. Maar goed, dat weet jij zelf ook wel :)

Over Physical RDM, het klopt dat dit werkt, ik heb het al een hele tijd terug getest, en nooit iets gevonden dat niet zou werken icm ZFS.

Het grootste nadeel is: Wat gebeurt er op het moment dat een disk gaat bokken. Het kan zijn dat ESXi ingrijpt en de disk offline zet, waardoor de Physical RDM faalt. Dit terwijl de disk misschien wel gewoon door had kunnen werken icm ZFS, omdat ZFS heel anders om gaat met de disk.

Puur technisch gezien zie ik geen problemen waarom het niet zou kunnen werken.

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Nindustries schreef op donderdag 18 juni 2015 @ 09:24:
[...]

Maar die CPU is nu wel even duur als een moederbord met Avoton cpu :O
En dan is de prijs/perfomance nog steeds beter. ;)
Maar je kunt ook een dualcore Pentium (let op dat er ook Atoms met een Pentium naam zijn) pakken, ook die zijn single threaded 4x zo snel en zelfs multithreaded bijna 2x sneller dan de quadcore Atoms, nadeel is dat je dan geen machines met 4 virtuele cores kan aanmaken.

[ Voor 7% gewijzigd door |sWORDs| op 18-06-2015 09:42 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • MuVo
  • Registratie: Februari 2008
  • Laatst online: 18:49
Wat vinden jullie van de upgrade die wil gaan doen, die ik hier noemde:
MuVo in "Het grote zuinige server topic"
Momenteel heb ik de volgende server draaien met ESXi:

#ProductPrijsSubtotaal
2Seagate Barracuda ES ST3320620NS, 320GB€ 0,-€ 0,-
1Seagate, 1TB€ 0,-€ 0,-
2WD Red SATA 6 Gb/s WD20EFRX, 2TB€ 91,95€ 183,90
1Intel Pro/1000 PT Dual Port€ 153,-€ 153,-
1Crucial CT102472BD160B€ 76,-€ 76,-
1HP Smart Array P410/512 BBWC 2 Int ports€ 136,61€ 136,61
1HP Proliant Microserver N54L€ 349,95€ 349,95
Bekijk collectie
Importeer producten
Totaal€ 899,46


Ik heb besloten deze configuratie te gaan upgraden, om meer processor power te hebben voor meer virtualisatie mogelijkheden en bij komend meer HD Video transcoding power.

Nu kom ik uit op het volgende upgrade setje:
#ProductPrijsSubtotaal
1Intel Xeon E3-1231 V3 Boxed€ 256,50€ 256,50
1Intel Server Board S1200V3RPL€ 202,06€ 202,06
1BitFenix Prodigy M Zwart€ 68,99€ 68,99
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 584,50


Nu twijfel ik nog tussen het Intel server Board of de:
#ProductPrijsSubtotaal
1Asus P9D-M€ 184,50€ 184,50


Voor een kleine meer prijs is het server board mij meer waard, en technish als het aankomt op de sata 600 poorten.

Wat vinden jullie van deze upgrade optie (geheugen, Raid controller en hdd's plaats ik over)? Ik moet alleen nog alles controleren of het compatible is met vmware & Hyper V voor hardware passthrough, dat heb ik nu namelijk niet.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

FireDrunk schreef op donderdag 18 juni 2015 @ 09:26:
[...]
Het kan goed zijn dat de IDE driver in ESXi in de laatste versie een FUSE module is ofzo en niet echt een snelle module is. Waarschijnlijk zit die IDE module er alleen in om backwards compatible te zijn en om support te leveren voor nested ESXi (virtuele cd-drives zijn onder VMware vaak IDE).
FUSE is toch voor filesystems (Filesystem in Userspace)? Wat heeft dat met IDE-drivers te maken?
IDE is al sinds jaar en dag niet bedoeld voor primaire storage, dus ik vind het zeker niet raar dat dit zo traag is. Kies liever AHCI of SAS, dat zijn supported protocollen. Maar goed, dat weet jij zelf ook wel :)
Hoe dan ook, het gekke is dat mijn oude schijf onder IDE dus wél snel was. Ook heb ik getest met een andere (brakke) schijf en ook die is gewoon snel.

Alleen mijn nieuwe schijf doet raar onder IDE...
Over Physical RDM, het klopt dat dit werkt, ik heb het al een hele tijd terug getest, en nooit iets gevonden dat niet zou werken icm ZFS.
Onder FreeBSD 9.2 werkte het niet. Vandaar.
Het grootste nadeel is: Wat gebeurt er op het moment dat een disk gaat bokken. Het kan zijn dat ESXi ingrijpt en de disk offline zet, waardoor de Physical RDM faalt. Dit terwijl de disk misschien wel gewoon door had kunnen werken icm ZFS, omdat ZFS heel anders om gaat met de disk.

Puur technisch gezien zie ik geen problemen waarom het niet zou kunnen werken.
Als ik het goed begrijp zou dat niet moeten gebeuren met physical RDM (bij virtual RDM heb je die kans weer wel).

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Compizfox schreef op donderdag 18 juni 2015 @ 10:01:
[...]

FUSE is toch voor filesystems (Filesystem in Userspace)? Wat heeft dat met IDE-drivers te maken?
Ik zat te denken dat VMware de IDE drivers misschien in FUSE gemaakt had, maar dat kan inderdaad alleen maar als het het VMFS gedeelte gaat, en niet om het IDE gedeelte, dat moet altijd uit de kernel komen inderdaad.
[...]

Hoe dan ook, het gekke is dat mijn oude schijf onder IDE dus wél snel was. Ook heb ik getest met een andere (brakke) schijf en ook die is gewoon snel.

Alleen mijn nieuwe schijf doet raar onder IDE...
Misschien kan je kijken in wat voor UDMA mode hij draait, misschien heb je het oude PIO MODE probleem wel te pakken.
[...]

Onder FreeBSD 9.2 werkte het niet. Vandaar.
Klopt, maar dat lag aan FreeBSD (verouderde LSI drivers).
[...]

Als ik het goed begrijp zou dat niet moeten gebeuren met physical RDM (bij virtual RDM heb je die kans weer wel).
Dat gaat meer om de commando architectuur. In principe zou ESXi niet aan commando's moeten komen die tussen de Harddisk en de VM gestuurd worden.

Nadeel is weer dat ESXi een APD detectie heeft (All Paths Down). Als dat gebeurt, wordt de VM die dat pad nodig heeft keihard afgeschoten.

Met andere woorden: ESXi is in staat om je ZFS VM af te schieten op het moment dat ESXi denkt dat de schijf down is, terwijl de schijf in werkelijkheid misschien wel een lange error recovery aan het doen is.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

FireDrunk schreef op donderdag 18 juni 2015 @ 10:29:
[...]

Misschien kan je kijken in wat voor UDMA mode hij draait, misschien heb je het oude PIO MODE probleem wel te pakken.
Bedankt, ik zal me daar eens even over inlezen.
[...]

Klopt, maar dat lag aan FreeBSD (verouderde LSI drivers).
Kwam het niet juist door nieuwe LSI-drivers in FreeBSD in combinatie met een verouderde virtuele LSI-firmware aan de kant van ESXi? Aangezien het met oudere FreeBSD-versies wel werkte ;)
[...]

Dat gaat meer om de commando architectuur. In principe zou ESXi niet aan commando's moeten komen die tussen de Harddisk en de VM gestuurd worden.

Nadeel is weer dat ESXi een APD detectie heeft (All Paths Down). Als dat gebeurt, wordt de VM die dat pad nodig heeft keihard afgeschoten.

Met andere woorden: ESXi is in staat om je ZFS VM af te schieten op het moment dat ESXi denkt dat de schijf down is, terwijl de schijf in werkelijkheid misschien wel een lange error recovery aan het doen is.
Hmm, dat is minder.

Momenteel gebruik ik wel RDM (en heb ik IDE Combined Mode uit staan). Eigenlijk heb ik liever mijn oude situatie terug (IDE Combined Mode aan en de controller gepassthroughed), maar dan heb ik dus weer die vreselijk lage snelheden op m'n datastore.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Koop gewoon de goedkoopste gesupportte controller joh, een 2 poorts adaptec controllertje kost je misschien een paar tientjes... Hele probleem opgelost.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

Zijn die er tegenwoordig dan? Zou je mee een voorbeeld kunnen geven van een dergelijke HBA-chip?

Het is alweer een tijdje geleden dat ik me erin heb verdiept, maar destijds bestonden er eigenlijk geen controllers die:

- Supported zijn door ESXi
- Blijven werken als de onboard controller wordt doorgegeven (hiermee doel ik dus op ASM1061)
- Snel genoeg zijn (dus PCI-e)
- Goedkoop zijn

[ Voor 9% gewijzigd door Compizfox op 18-06-2015 17:31 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • thedon46
  • Registratie: April 2011
  • Laatst online: 13:28
Ben me ook aan het oriënteren voor een nieuwe ESXi server.

Graag wil ik VT-D en 2 Intel netwerkpoortren voor PfSense en had ik dit bedacht:
#ProductPrijsSubtotaal
1Intel Xeon E3-1231 V3 Boxed€ 256,50€ 256,50
1Supermicro X10SLL-F€ 198,-€ 198,-
1Fractal Design Arc Mini€ 60,50€ 60,50
1Kingston KVR1333D3E9SK2/16G€ 124,99€ 124,99
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Crucial m4 CT128M4SSD2 128GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 697,94


Maar hebben jullie nog tips/adviezen dat het misschien zuiniger kan met andere hardware? Of vanwege een andere reden beter voor andere hardware kan kiezen?

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Ik zoek een?
Ik zoek adviezen voor wat ik het beste kan doen om aan te gaan schaffen bij wat aanvullingen die ik wil gaan doen voor mijn VMWare ESXi homelab. Nu wil ik graag op de HP P400 raid controller de storage uitbreiden met 4x 2TB schijven (groter kan de controller niet aan). Momenteel zitten er al 4x 2TB disks op, meer ruimte heb ik dus ook niet. Op de disks van 500 GB heb ik mijn VM's staan, alsmede op mijn Samsung EVO 830, waar mijn belangrijkste VM's op draaien.

Ook denk ik meer CPU power nodig te hebben, zeker in combinatie met Plex als die aan het transcoden is (vanuit een VM), wat helemaal merkbaar is als een van de andere VM's ook niet (meer) uit zijn neus aan het peuteren is. Hiervoor hoef ik enkel een indicatie te hebben, of ik gezien bovenstaande situatie een beetje goed zit of zal komen met een i7 4790 (K variant hoeft niet per se, overclocken ga ik niet en de niet K variant heeft wat meer - virtualisatie - features. Ik twijfel ook met de Xeon E3-1231v3, die qua specs vrijwel gelijk is, maar wel wat snelheid mist, maar wel weer een stuk goedkoper is.

Wat is je budget?
Een budget heb ik niet, wel wil ik de beste kwaliteit, voor een zo gunstig mogelijk prijsje.

Heb je bepaalde (merk)voorkeuren?
Nee, ik heb geen specifieke voorkeuren, zolang de kwaliteit maar degelijk is en de prijs dus niet al te hoog. Voor de disks van 2TB heb ik het liefste Western Digital (WD) schijven.

Specificeer het systeem en de omgeving waarin je het product gaat gebruiken.?
#ProductPrijsSubtotaal
1Intel Core i5 3570 Boxed€ 229,-€ 229,-
1Asus P8Z77-V LX€ 0,-€ 0,-
4WD Caviar GP WD20000CSRTL2, 2TB€ 0,-€ 0,-
2WD RE 3 WD5002ABYS, 500GB€ 0,-€ 0,-
1Chieftec Mesh LCX-01B-B-SL Zwart€ 0,-€ 0,-
1Intel Gigabit CT Desktop Adapter€ 26,50€ 26,50
2Corsair CMX16GX3M2A1600C11€ 108,-€ 216,-
1HP Smart Array P400/256-MB€ 125,95€ 125,95
1OCZ StealthXStream 600W€ 0,-€ 0,-
1Samsung 830 series SSD 256GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 597,45

Het gaat dienst doen in mijn VMWare homelab server die 24 uur per dag draait. Een goede en stille koeling is daarbij ook zeer wenselijk, iets wat nu niet echt aanwezig is (stock koeling, die er op zit vanaf dag 1).

Mijn vragen
  • Welke 2TB disks ik het beste kan kopen wat ook langdurig 24/7 moet kunnen draaien
  • Het liefste wil ik alles lekker makkelijk in de kast weggewerkt hebben, als daar een andere kast voor nodig is, so be it, maar welke dan? :) Aangezien hij in een opberghok komt te staan, hoeft het allemaal niet zo heel denderend te zijn, looks al helemaal niet, die mogen dus plain & simple, maar wel enigszins degelijk en moet dus veel disks kunnen herbergen.
  • Moet de voeding eventueel zwaarder? Zo ja, met hoeveel dan en welke is raadzaam?
  • Ik zou graag ook stille koeling willen, met name voor de CPU koeler. Ik ga niet overclocken, dus zou in theorie kunnen volstaan met de Noctua NH-L9i denken jullie, of is het vestandiger om voor de Noctua NH-U12S te gaan? Ik wil in ieder geval af van het geluid dat ik hoor als ik lig te slapen (ik woon in een appartement).
Het vinden van een geschikt moederbord is geen probleem, ik ben mij bewust dat een i5 3570 een andere socket heeft dan waar ik naar toe wil upgraden.

Hopelijk is mijn vraagstelling een beetje duidelijk en ik hoop dat jullie me kunnen helpen.
Mochten jullie toch nog vragen hebben, stel ze gerust!

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Compizfox schreef op donderdag 18 juni 2015 @ 17:31:
Zijn die er tegenwoordig dan? Zou je mee een voorbeeld kunnen geven van een dergelijke HBA-chip?

Het is alweer een tijdje geleden dat ik me erin heb verdiept, maar destijds bestonden er eigenlijk geen controllers die:

- Supported zijn door ESXi
- Blijven werken als de onboard controller wordt doorgegeven (hiermee doel ik dus op ASM1061)
- Snel genoeg zijn (dus PCI-e)
- Goedkoop zijn
http://www.ebay.com/sch/i...0.TRS0&_nkw=p410&_sacat=0
thedon46 schreef op vrijdag 19 juni 2015 @ 22:00:
Ben me ook aan het oriënteren voor een nieuwe ESXi server.

Graag wil ik VT-D en 2 Intel netwerkpoortren voor PfSense en had ik dit bedacht:
#ProductPrijsSubtotaal
1Intel Xeon E3-1231 V3 Boxed€ 256,50€ 256,50
1Supermicro X10SLL-F€ 198,-€ 198,-
1Fractal Design Arc Mini€ 60,50€ 60,50
1Kingston KVR1333D3E9SK2/16G€ 124,99€ 124,99
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Crucial m4 CT128M4SSD2 128GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 697,94


Maar hebben jullie nog tips/adviezen dat het misschien zuiniger kan met andere hardware? Of vanwege een andere reden beter voor andere hardware kan kiezen?
Ziet er keurig uit hoor! Als je geen ECC wil, en wel VT-d zou je een fractie goedkoper uit kunnen zijn met een i5 en een regulier moederbord, maar dit is zeker een setup die een paar jaar mee gaat. De extra euro's wel waard in mijn ogen.


@CptChaos, Je kan voor een schijntje een P410 kopen, die volgens mij wel schijven groter dan 4TB aan kan. Kan je zelfs je array meenemen volgens mij...

[ Voor 11% gewijzigd door FireDrunk op 20-06-2015 13:13 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

FireDrunk schreef op zaterdag 20 juni 2015 @ 12:05:
@CptChaos, Je kan voor een schijntje een P410 kopen, die volgens mij wel schijven groter dan 4TB aan kan. Kan je zelfs je array meenemen volgens mij...
Dat weet ik, probleem is echter, dat de P410 niet in elk moederbord werkt. Ik had die in mijn huidige moederbord al eens geprobeerd, maar dat werkte helaas niet, als ik uitbreid met nog eens 4x 2TB heb ik ook voorlopig wel weer voldoende storage ook (dat ga ik enkel voor films en series met een klein deel muziek gebruiken). :) Ik zit meer in voor de disks voor die uitbreiding en de CPU, dan de controller. ;)

[ Voor 4% gewijzigd door CH4OS op 20-06-2015 13:25 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Elke schijf kan, mits deze voldoende gekoeld wordt, prima 24/7 draaien... Schijven hebben meer slijtage door opwarmen en afkoelen.

Een 600W voeding is al veel te veel... Ik heb hier 10 schijven en een i5 op een 400W voeding.

Waarom zou je meer CPU power willen? Ik heb dezelfde CPU en dat ding is echt moordend snel..?

Ik zou nog lekker even met dit systeem door gaan... Het is zuinig, snel, en met goede koeling prima stil te krijgen.

Even niets...


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Probleem is alleen, dat streams met Plex niet altijd vloeiend meer gaan (zeker als meerderen kijken). Kijk ik vervolgens in taakbeheer (draait momenteel nog in een Windows VM, maar wil ik migreren naar Linux VM als ik de storage eenmaal heb) dan slokt de CPU 100% CPU power op. Gecombineerd met andere VM's die ook veel bezig zijn, dacht ik dat ik wellicht CPU power te kort kom. Momenteel heb ik 5VM's draaien.

[ Voor 7% gewijzigd door CH4OS op 20-06-2015 14:11 ]


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Dat kan ook liggen aan de resources die je uitdeelt aan de vm en het wel/niet geïnstalleerd hebben van de VMware Tools.

Acties:
  • 0 Henk 'm!

  • xp7amrkr
  • Registratie: Mei 2009
  • Laatst online: 10-04 13:30

xp7amrkr

De enige echte!

Ik zoek een?
Ik wil voor thuis een kleine server in gaan richten, ik vermoed dat een ESXI basis hier interessant voor kan zijn. De voornaamste reden voor een NAS/server is het veilig stellen en afschermen van mijn data en delen van de data online toegankelijk maken.

Ik weet niet of mijn gedachte gang goed is maar ik zit te denken aan een server waarop een aantal virtuele machines draaien, elk met een specifiek doel.

Virtuele machines:
1. Virtuele machine voor opslag van data die via het lokale netwerk toegankelijk moeten zijn. De data wil ik redundant hebben opgeslagen. Daarnaast zou het mooi zijn als deze data gesynchroniseerd kan worden met een andere computer. Deze virtuele machine hoeft niet via het internet benaderd te kunnen worden, sterker nog, dit systeem hoeft theoretisch geen internet verbinding te hebben. Voor deze machine is 1TB effectieve opslagruimte voldoende.
2. Virtuele machine voor het downloaden. Hiervoor zou ik graag gebruik willen maken van SABnzbd. Het liefst heb ik hier een soort "sandbox" omgeving, waarbij ik zelf data verplaats naar een andere locatie wanneer ik het vertrouw.
3. Virtuele machine voor de opslag en streaming van media. Hiervoor zou ik Plex willen gebruiken. De data wil ik redundant hebben opgeslagen aangezien ik hier ook mijn eigen video's en afbeeldingen op wil slaan. Hiervoor zou ik 3TB ter beschikking willen hebben
4. Virtuele machine voor een soort "dropbox" alternatief in eigen beheer. Documenten online toegankelijk. Dit hoeft maar een paar GB te zijn.

Wat is je budget?
Ik zou het bovenstaande voor ongeveer €500 willen realiseren. Hierbij reken ik de schijven niet mee. Ik heb al twee 2TB en twee 3TB schijven die ik wil gebruiken.

Heb je bepaalde (merk)voorkeuren?
Nee.

Mijn vragen
  • Is mijn gedachte gang m.b.t. de virtuele machines goed? Ik wil een deel van de data veilig opslaan, niet alleen redundant i.v.m. hardware defecten maar ook enig sinds afgeschermd. (lees steeds vaker berichten over encryption virussen e.d.)
  • Wat voor hardware zou ik nodig hebben om het bovenstaande te realiseren? Kunnen jullie hier een advies over uitbrengen?
  • Wat voor software zou ik erop gaan draaien?

True science is not measured by its successes, but by its ability to learn gracefully from its failures.


Acties:
  • 0 Henk 'm!

  • MuVo
  • Registratie: Februari 2008
  • Laatst online: 18:49
CptChaos schreef op zaterdag 20 juni 2015 @ 13:23:
[...]
Dat weet ik, probleem is echter, dat de P410 niet in elk moederbord werkt. Ik had die in mijn huidige moederbord al eens geprobeerd, maar dat werkte helaas niet, als ik uitbreid met nog eens 4x 2TB heb ik ook voorlopig wel weer voldoende storage ook (dat ga ik enkel voor films en series met een klein deel muziek gebruiken). :) Ik zit meer in voor de disks voor die uitbreiding en de CPU, dan de controller. ;)
Het klopt dat de p410 niet in ieder moederbord werkt: het moet een ondersteunend HP moederbord zijn. Ik weet( vriend van mij heeft het en ik wil het ook voor mij. P10) dat er costum/tweak firmware is die het mogelijk maakt om een p410 in andere moederborden werkend te krijgen. Als je of hier intressen voor is kan ik het hier posten of een berichtje sturen.

Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

MuVo schreef op zondag 21 juni 2015 @ 12:59:
Het klopt dat de p410 niet in ieder moederbord werkt: het moet een ondersteunend HP moederbord zijn. Ik weet( vriend van mij heeft het en ik wil het ook voor mij. P10) dat er costum/tweak firmware is die het mogelijk maakt om een p410 in andere moederborden werkend te krijgen. Als je of hier intressen voor is kan ik het hier posten of een berichtje sturen.
Klinkt verleidelijk, kan je me een bericht sturen? Dan kan ik altijd later nog kijken wat ik doe.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Ik heb mijn p410 in verschillende non-HP borden gehad... Hebben ze dat in recente firmware versies ingebouwd dan?

Even niets...


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

In mijn Asus P8Z77-V LX werkte de P410 in ieder geval niet, hij werd totaal niet herkend en hield het bootproces gewoon op, want met de kaart er in ging het gewoon niet verder. Zonder die P410 uiteraard wel en met mijn P400 ook. P410 in een HP MicroServer van een collega gedaan, daar werkte hij vlekkeloos.

[ Voor 55% gewijzigd door CH4OS op 21-06-2015 13:48 ]


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
PCI-Express pin afplakken op de controller, net als bij de Dell PERC 5/6 controllers?

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Geen idee, heb de kaart terug gestuurd omdat hij het niet deed en geruild voor 2 batterijen voor de P400 en restand aan geld terug.

Acties:
  • 0 Henk 'm!

  • dotacom
  • Registratie: April 2014
  • Laatst online: 27-09 12:03
Iemand ervaring met ESXi te installeren op een HP DL360p Gen8?
De "SE" versie ondersteunt blijkbaar geen ESXi 5.5 wat ook terug te vinden is op hardware compatibility list:

Afbeeldingslocatie: http://i57.tinypic.com/261p0r8.jpg

Heb zitten zoeken wat het verschil is tussen deze versies maar vind niets terug. Zou met de country code te maken hebben?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Niet supported wil niet zeggen dat het niet werkt. Ik zou er even op googlen of mensen het werkend hebben gekregen. 9 van de 10 keer is het gewoon een sneaky manier van VMware om je naar ESXi 6.0 te pushen.

Even niets...


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
dotacom schreef op dinsdag 23 juni 2015 @ 11:17:
Iemand ervaring met ESXi te installeren op een HP DL360p Gen8?
De "SE" versie ondersteunt blijkbaar geen ESXi 5.5 wat ook terug te vinden is op hardware compatibility list:

[afbeelding]

Heb zitten zoeken wat het verschil is tussen deze versies maar vind niets terug. Zou met de country code te maken hebben?
Het kan betekenen dat HP gewoon niet de moeite heeft gedaan om dat apparaat te kwalificeren met nieuwere VMWare versies. Het kan ook betekenen dat het leunt op drivers die in ESXi 5.5 verwijderd zijn (bepaalde netwerk en storage drivers meen ik). Op zich kun je met wat hacks (drivers uit oudere versies inladen) het wel werkend krijgen denk ik.

Weet je wat het verschil is tussen de SE en niet-SE versie?

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Soort van off-topic, maar geen idee in welk topic ik het wel kan/mag plaatsen: (Wil eventueel een nieuw topic maken als mensen daar interesse in hebben).

Iemand al ervaring met Nutanix CE (Community Edition)? Afgelopen weekend een invite code weten te regelen en inmiddels toegelaten tot de beta.

Nutanix bestaat onder andere uit de volgende producten:
Acropolis (Hypervisor)
Prism (Management schil)

Meer info hier.

Ik heb nu ESXi 6.0 draaien en ben stiekem wel nieuwsgierig naar dit product. Ziet er aardig gelikt uit. Je kunt het draaien vanaf USB (stick van minimaal 8GB groot wordt aangeraden).

[ Voor 58% gewijzigd door FREAKJAM op 23-06-2015 22:06 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 24-09 02:29
FREAKJAM schreef op dinsdag 23 juni 2015 @ 22:01:
[knip]
Iemand al ervaring met Nutanix CE (Community Edition)? Afgelopen weekend een invite code weten te regelen en inmiddels toegelaten tot de beta.
[knip]
Ik heb nu ESXi 6.0 draaien en ben stiekem wel nieuwsgierig naar dit product. Ziet er aardig gelikt uit. Je kunt het draaien vanaf USB (stick van minimaal 8GB groot wordt aangeraden).
Nutanix is gaaf! Werkgever heeft een dual datacenter Nutanix platform draaien.

Sinds ongeveer een week heb ik een 3 node clustertje op basis van CE thuis. Het is leuk, maar het kost behoorlijk wat resources.
Zie http://www.virtuallifesty...edition-nested-on-fusion/ voor info om de Community Edition in VMware te draaien.
De belangrijkste details staan daar in om de boel in een ESXi VM aan de praat te krijgen.

Als je er vragen over hebt, stel ze maar!

edit:
Vergeet niet om promiscuous mode aan te zetten op de vSwitch waar je de Nutanix VM aan hangt. Het duurde bij mij vrij lang voor ik me bedacht dat het in feite een nested virtualisatie omgeving is.
Je ESXi host of Hyper-V server kan ook gewoon bij de Nutanix containers door de juiste verbinding te maken.
NFS: [IPvanCVM] / [CaseSensitiveNaamVanContainer]
SMB3: \[IPvanCVM] \ [CaseSensitiveNaamVanContainer]\

De laatste is vooral erg handig om je ISOs in de container te krijgen voor het maken van een aantal VMs. Vergeet dan de VirtIO drivers niet voor de juiste drivers in je VM.

[ Voor 27% gewijzigd door hans_lenze op 25-06-2015 10:55 . Reden: meer info ]

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Moet je Nutanix perse binnen ESXi draaien of kun je Nutanix ook als eigen hypervisor draaien? Ik zie het voordeel er niet van om een Hypervisor op een Hypervisor te draaien. Dus in dit geval Nutanix in ESXi.

Nutanix is natuurlijk nog lang niet zo volwassen als ESXi, maar dat is een ander verhaal. Anyways, ik heb het pakket nog niet geprobeerd. Wellicht wel een idee om het eerst binnen ESXi te installeren om te kijken hoe het eruit ziet.

Als iemand interesse heeft, ik heb vijf invite codes om weg te geven. Je dient je vervolgens aan te melden op de website van Nutanix en dan krijg je binnen een paar dagen toegang tot de website en downloads.

is everything cool?


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 28-09 22:50

Zenix

BOE!

FireDrunk schreef op dinsdag 23 juni 2015 @ 11:45:
Niet supported wil niet zeggen dat het niet werkt. Ik zou er even op googlen of mensen het werkend hebben gekregen. 9 van de 10 keer is het gewoon een sneaky manier van VMware om je naar ESXi 6.0 te pushen.
Inderdaad HP DL580 G5 zou ook officieel maar 5.1 ondersteunen, de laatste 5.5 image van HP werkte gelijk. Als niet werkt gewoon laatste officieel versie pakken en updaten tot je bij de versie bent die je wilt hebben.

[ Voor 6% gewijzigd door Zenix op 27-06-2015 13:25 ]


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 24-09 02:29
FREAKJAM schreef op zaterdag 27 juni 2015 @ 13:13:
Moet je Nutanix perse binnen ESXi draaien of kun je Nutanix ook als eigen hypervisor draaien? Ik zie het voordeel er niet van om een Hypervisor op een Hypervisor te draaien. Dus in dit geval Nutanix in ESXi.

[knip]
De Nutanix CE bevat zelf al een hypervisor. Ze noemen het Acropolis en het is in feite Qemu KVM. Prima hypervisor maar ondersteunt out-of-the-box geen nested virtualisatie. Ik moet nog wat spelen met de mogelijheden binnenin de meegeleverde hypervisor want het moet wel aan kunnen binnen KVM.

Als je Nutanix CE als bare-metal installatie wilt uitvoeren, is er een best strikte HCL. Zie ook het forum van Nutanix CE.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Ja, ik wist dat het Acropolis heette. Wel heel bizar trouwens. Toen het product zeg maar werd aangekondigd, was ik letterlijk die week in Athene en had ik Acropolis van dichtbij gezien.

Ben sowieso niet van plan nested virtualisatie te gaan draaien. Ik draai nu ESXi met 2 vSwitches (LAN/WAN) en een aantal VM's (pfSense en een paar keer CentOS 7). Als Nunatix dat ook kan, ben ik zeker bereid het een keer te proberen. Grote kans trouwens dat mijn hardware compatible is; Ik heb een Supermicro X10SL7 mobo met twee Intel® i210AT netwerkkaarten en een Xeon 1230v3 cpu.

is everything cool?


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
FREAKJAM schreef op dinsdag 23 juni 2015 @ 22:01:
Soort van off-topic, maar geen idee in welk topic ik het wel kan/mag plaatsen: (Wil eventueel een nieuw topic maken als mensen daar interesse in hebben).
Hier bevoordeeld :)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Ja ik had dat topic ook al gevonden, maar daar is weinig "leven" zeg maar. Misschien als ik tijd & zin heb dat ik een eigen topic aanmaak. :+

is everything cool?


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 24-09 02:29
FREAKJAM schreef op zaterdag 27 juni 2015 @ 15:53:
[knip]
Ben sowieso niet van plan nested virtualisatie te gaan draaien. Ik draai nu ESXi met 2 vSwitches (LAN/WAN) en een aantal VM's (pfSense en een paar keer CentOS 7). Als Nunatix dat ook kan, ben ik zeker bereid het een keer te proberen. Grote kans trouwens dat mijn hardware compatible is; Ik heb een Supermicro X10SL7 mobo met twee Intel® i210AT netwerkkaarten en een Xeon 1230v3 cpu.
Ik vraag me af of het een goeie match voor je is. Als je maar één machine hebt waar je het op gaat zetten, en je doet nu dingen met ZFS wil je waarschijnlijk iets van dataveiligheid hebben. Nutanix kan pas RAID achtige dingen met meerdere nodes (servers) en wordt pas leuk bij meer dan drie. Daarnaast vreet de Nutanix VM die de opslag regelt (de CVM) al 16GB aan geheugen. Dan ben je de helft van de hoeveelheid beschikbare geheugen van je hypervisor al kwijt aan je opslag platform.

Als je het gaat proberen is het leuk om te weten dat de installatie alle aangesloten opslag claimt. Eventuele harde schijven waar belangrijke data op staat dus even loskoppelen tijdens het installeren en testen.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

hans_lenze schreef op zondag 28 juni 2015 @ 00:24:
[...]


Ik vraag me af of het een goeie match voor je is. Als je maar één machine hebt waar je het op gaat zetten, en je doet nu dingen met ZFS wil je waarschijnlijk iets van dataveiligheid hebben. Nutanix kan pas RAID achtige dingen met meerdere nodes (servers) en wordt pas leuk bij meer dan drie. Daarnaast vreet de Nutanix VM die de opslag regelt (de CVM) al 16GB aan geheugen. Dan ben je de helft van de hoeveelheid beschikbare geheugen van je hypervisor al kwijt aan je opslag platform.

Als je het gaat proberen is het leuk om te weten dat de installatie alle aangesloten opslag claimt. Eventuele harde schijven waar belangrijke data op staat dus even loskoppelen tijdens het installeren en testen.
Dank voor je verhaal. Ik draai nu inderdaad ZFS in een 6x3TB opstelling binnen ESXi (vt-D). Ik denk inderdaad dat Nutanix zich meer focussed op het storage gedeelte, naast het Hypervisor gedeelte. Jammer dat het zo memory hungry is ook. Ik denk dat ik het even laat voor wat het waard is.

Misschien binnenkort een keer Proxmox 4 proberen.

is everything cool?


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 24-09 02:29
FREAKJAM schreef op zondag 28 juni 2015 @ 20:43:
[...]


Dank voor je verhaal. Ik draai nu inderdaad ZFS in een 6x3TB opstelling binnen ESXi (vt-D). Ik denk inderdaad dat Nutanix zich meer focussed op het storage gedeelte, naast het Hypervisor gedeelte. Jammer dat het zo memory hungry is ook. Ik denk dat ik het even laat voor wat het waard is.

Misschien binnenkort een keer Proxmox 4 proberen.
Nutanix heeft de focus op beheergemak en web-scale. Vooral door die laatste hebben ze een aantal keuzes gemaakt die het moeilijk maken om het thuis te gebruiken. Een Nutanix cluster wordt pas mooi en zinnig als je er een sloot aan hardware tegenaan gooit (hun standaard werkpaardje NX-3000) heeft gemiddeld 20 fysieke cores en 256GB RAM ter beschikking. Dan is de (minimaal) 16GB voor de CVM geen probleem. De redundantie die ZFS uit meerdere schijven haalt, haalt Nutanix uit de meerdere nodes en eigenlijk uit de meerdere blocks (groep van vier nodes) omdat een block ook nog gedeelde resources heeft (power supply en koeling).

Een thuisoplossing moet voor mij juist zo lichtgewicht mogelijk zijn en geen aanspraak maken op RAM. Al het RAM geheugen dat ik thuis heb wil ik inzetten voor het draaien van VMs en niet voor read cache van mijn opslag omgeving. Ik ben een tijdje bezig geweest met bcache maar heb het nog niet lekker werkend gekregen...

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 28-09 22:18

Compizfox

Bait for wenchmarks

Ik hoor het al, niet interessant als alternatief voor ESXi voor thuisgebruik dus.

Ben eigenlijk dan wel weer benieuwd naar Proxmox 4 :) Ik begrijp dat Proxmox 4 nu dus ook IOMMU ondersteunt omdat ze niet meer vastzitten aan ancient kernels?

Gewoon een heel grote verzameling snoertjes

Pagina: 1 ... 83 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.