Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
De Asrock SATA3 controller is een Windows Only controller, dat is volgens mij al een paar keer langs gekomen hier... (of op DIY RAID NAS... kan ook...)


Don't blame the messenger :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Als dat zou kunnen >:) Ik heb dat andere topic niet gezien helaas :(

Hoe ga ik nu het volgende voor elkaar krijgen?

Mijn hardware:
pricewatch: Intel Desktop Board DQ67OWB3
4x pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB
pricewatch: Asrock SATA3 Card
pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB

Software:
ESXi 4.1
FreeNAS VM

Ik wil de 4x 2TB schijven direct aan FreeNAS toewijzen. Nu kan ik de onboard SATA controller op passthrough zetten (mobo ondersteunt VT-d).
Maar dan moet de FreeNAS VM nog op een bestaande datastore gezet worden. Als je ESXi vanaf USB stick boot dan bestaat er in ESXi geen datastore om die op te zetten. Vandaar mijn keuze voor de losse SSD + ASRock SATA3 controller.

Die ASRock kan dus bij het grofvuil :'( Maar hoe ga ik dan mijn SSD aansluiten? Of beter: hoe en waar ga ik die FreeNAS VM opslaan?

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Priet schreef op woensdag 27 juli 2011 @ 12:06:
[...]

Als dat zou kunnen >:) Ik heb dat andere topic niet gezien helaas :(

Hoe ga ik nu het volgende voor elkaar krijgen?

Mijn hardware:
pricewatch: Intel Desktop Board DQ67OWB3
4x pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB
pricewatch: Asrock SATA3 Card
pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB

Software:
ESXi 4.1
FreeNAS VM

Ik wil de 4x 2TB schijven direct aan FreeNAS toewijzen. Nu kan ik de onboard SATA controller op passthrough zetten (mobo ondersteunt VT-d).
Maar dan moet de FreeNAS VM nog op een bestaande datastore gezet worden. Als je ESXi vanaf USB stick boot dan bestaat er in ESXi geen datastore om die op te zetten. Vandaar mijn keuze voor de losse SSD + ASRock SATA3 controller.

Die ASRock kan dus bij het grofvuil :'( Maar hoe ga ik dan mijn SSD aansluiten? Of beter: hoe en waar ga ik die FreeNAS VM opslaan?
freenas vanaf usb?

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Niet mogelijk. ESXi 4.1u1 kan geen datastore op usb aanmaken, en het bios van VM's kan niet van usb booten.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Priet schreef op woensdag 27 juli 2011 @ 12:06:
Die ASRock kan dus bij het grofvuil :'( Maar hoe ga ik dan mijn SSD aansluiten? Of beter: hoe en waar ga ik die FreeNAS VM opslaan?
http://www.delock.com/pro...ss_Card_2_Port_70137.html
Van deze kan ik bevestigen dat hij werkt met een aangepaste oem.tgz (http://www.vm-help.com/fo...?f=12&t=2096&p=6489#p6489)
Waarschijnlijk zijn er wel meer controllers gebaseerd op de Sil3132 te koop

pricewatch unsorted: DeLOCK SATA II PCI Express Card, 2 Port | 70137

[ Voor 14% gewijzigd door Zer0 op 27-07-2011 12:35 ]

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Je kan toch gewoon RDM gebruiken?

Even niets...


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

FireDrunk schreef op woensdag 27 juli 2011 @ 13:56:
Je kan toch gewoon RDM gebruiken?
Sinds 4.1 niet met usb sticks/drives voor zover ik weet.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Dat bedoel ik niet.. je kan toch gewoon je SSD en disks allemaal onboard aansluiten en via RDM de disks aan de VM geven... Dus geen VT-d...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op vrijdag 22 juli 2011 @ 22:26:
UPS heb je (meestal) geen drivers voor nodig, upsd van Linux kan er meestal wel mee overweg tenzij het *echt* een hokkiewokkie merk is...
UPS is binnen *O*

Afbeeldingslocatie: http://img844.imageshack.us/img844/2079/rackspulkl1.jpg

en kan gelijk met de qnap 439 'kletsen' via usb

Afbeeldingslocatie: http://img171.imageshack.us/img171/6351/rackspulkl2.jpg

maar er 'knettert' iets als ik achter een output kabel beweeg .. dus die UPS gaat retour :(

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Dat hoort zo, goedkope kabels... die stekkers moet je echt HEEL hard aandrukken tot ze echt niet verder kunnen.

Bekend probleem bij APC, ze willen dat het MUUR vast zit :P

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

hahaha.. nou bedankt !!

idd moest ik gewoon echt kracht gebruiken en die stekker doordrukken.
nu hangt mijn ESXi server eraan en hij geeft aan : 19% load.. power zat dus :9

heb je met van dat 'goedkope' spul .. :X

ook dat nog :

'From ESXi 3.5 Update 4 onwards VMWare restricts RCLI (remote command line interface) administration access for the free version of ESXi (no write access). ESXi 3.5.u3 contained a bug which unlocked API features and allowed for RCLI Access. (Previously APC stated that PCNS 2.2.3 supported 3.5u2, please note that this is not supported).

To make PCNS (PowerChute Network Shutdown) work properly you will need to purchase a license for ESXi. APC is completely dependant on the RCLI/VIFP to carry out the shutdown of the ESXi OS. '


* maar dat werkt wellicht toch ZO

[ Voor 71% gewijzigd door Verwijderd op 28-07-2011 10:51 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
:+ mooi!

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

ik had overigens een hele goede tip gehad van 'Zware unit' mbt UPS kabeltjes.

APC kabeltjes zijn idioot duur... HIER vind je de betere tweakers prijzen :)

[ Voor 5% gewijzigd door Verwijderd op 27-07-2011 16:11 ]


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

FireDrunk schreef op woensdag 27 juli 2011 @ 15:18:
Dat bedoel ik niet.. je kan toch gewoon je SSD en disks allemaal onboard aansluiten en via RDM de disks aan de VM geven... Dus geen VT-d...
Het intel desktop board welke Priet gebruikt heeft maar 4 sata aanslutingen, aangezien hij 4 hdd's wil gebruiken voor FreeNAS blijft er geen aansluiting over voor de SSD

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
* FireDrunk ziet op het fototje anders 6 sata poortjes...

Even niets...


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

FireDrunk schreef op woensdag 27 juli 2011 @ 16:56:
* FireDrunk ziet op het fototje anders 6 sata poortjes...
http://ark.intel.com/prod...ntel-Desktop-Board-DQ67OW
Tenzij Intel haar eigen borden niet kent zijn het er vier... de foto zal een ander model uit dezelfde serie zijn.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

Verwijderd

Zer0 schreef op woensdag 27 juli 2011 @ 18:48:
[...]

http://ark.intel.com/prod...ntel-Desktop-Board-DQ67OW
Tenzij Intel haar eigen borden niet kent zijn het er vier... de foto zal een ander model uit dezelfde serie zijn.
eSata is ook sata .. dus 6 8)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
http://www.intel.com/supp...p/dq67ow/sb/CS-032195.htm

Vreemd verhaal, hij vind die rode eSata, maar wat dat dan betekend... Waarschijnlijk dat ze gedeeld zijn...

[ Voor 43% gewijzigd door FireDrunk op 27-07-2011 19:21 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • jeanj
  • Registratie: Augustus 2002
  • Niet online

jeanj

F5 keeps me alive

Ik denk niet dat ze gedeeld zijn, op dat dq67sw bordje zitten er ook 4 onboard en 2 esata op de achterkant, maar echt duidelijk is het niet, het zou zomaar kunnen van wel.

Hier staat "Impacted SATA port" wat dat ook mag beteken. Nergens staat iets over delen....

Nog even de Intel Desktop Board DQ67OW Technical Product Specification (pdf) er op na geslagen
The board provides six SATA connectors through the PCH, which support one device
per connector:
• Two internal SATA 6 Gb/s ports (blue)
• Two internal SATA 3 Gb/s ports (black)
• Two internal eSATA 3 Gb/s ports for external connectivity (red)
The PCH provides independent SATA ports with a theoretical maximum transfer rate of
6 Gb/s for two ports and 3 Gb/s for four ports. A point-to-point interface is used for
host to device connections.
Ik lees dit als 6 connectoren, elke connector 1 schijf == 6 schijven

Ik wel graag nog weten of op die rode esata aansluitingen, gewone sata kabels passen, om 6 interne schijven aan te sluiten

[ Voor 56% gewijzigd door jeanj op 27-07-2011 20:08 ]

Everything is better with Bluetooth


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

jeanj schreef op woensdag 27 juli 2011 @ 20:01:
Ik denk niet dat ze gedeeld zijn, op dat dq67sw bordje zitten er ook 4 onboard en 2 esata op de achterkant, maar echt duidelijk is het niet, het zou zomaar kunnen van wel.

Hier staat "Impacted SATA port" wat dat ook mag beteken. Nergens staat iets over delen....

Nog even de Intel Desktop Board DQ67OW Technical Product Specification (pdf) er op na geslagen

[...]

Ik lees dit als 6 connectoren, elke connector 1 schijf == 6 schijven

Ik wel graag nog weten of op die rode esata aansluitingen, gewone sata kabels passen, om 6 interne schijven aan te sluiten
Impacted betekend dat ze getroffen zijn door de befaamde intel bug, als je een eerdere revisie van de chipset hebt.
http://www.intel.com/support/chipsets/6/sb/CS-032521.htm

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Om eerst een misverstand uit de wereld te helpen:
Zer0 schreef op woensdag 27 juli 2011 @ 16:22:
[...]

Het intel desktop board welke Priet gebruikt heeft maar 4 sata aanslutingen, aangezien hij 4 hdd's wil gebruiken voor FreeNAS blijft er geen aansluiting over voor de SSD
De pricewatch: Intel Desktop Board DQ67OWB3 heeft 6 interne SATA aansluitingen. Waarom Intel dat eSATA noemt is mij een raadsel. Hoe dan ook, ik heb inmiddels 4 schijven en 1 DVD-speler op het moederbord aangesloten.
Zer0 schreef op woensdag 27 juli 2011 @ 12:34:
[...]

http://www.delock.com/pro...ss_Card_2_Port_70137.html
Van deze kan ik bevestigen dat hij werkt met een aangepaste oem.tgz (http://www.vm-help.com/fo...?f=12&t=2096&p=6489#p6489)
Waarschijnlijk zijn er wel meer controllers gebaseerd op de Sil3132 te koop

pricewatch unsorted: DeLOCK SATA II PCI Express Card, 2 Port | 70137
Thx! Die heb ik meteen besteld.Voor die paar euro is het het proberen waard in ieder geval :)
FireDrunk schreef op woensdag 27 juli 2011 @ 15:18:
Dat bedoel ik niet.. je kan toch gewoon je SSD en disks allemaal onboard aansluiten en via RDM de disks aan de VM geven... Dus geen VT-d...
Als ik de stappen die hier beschreven staan vergelijk met de stappen die nodig zijn om een device op passthrough te zetten dan schaf ik daar graag een extra kaartje voor aan :)

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Hahaha, zal ik je anders een keer helpen, het is echt 2 minuten werk :)
De handleiding is enger dan het daadwerkelijk is ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Heel graag! Ik werd een beetje bang van al die lange tekenreeksen :p

Mijn pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB is nu ook binnen :) Nu kan ik iig die RDM proberen, de DeLOCK kaart moet nog binnen komen. Dus van het weekend eerst een poging wagen RDM aan de praat te krijgen. Dan kan ik in ieder geval niet zeggen dat ik het niet geprobeerd heb :p
jeanj schreef op woensdag 27 juli 2011 @ 20:01:
Ik wel graag nog weten of op die rode esata aansluitingen, gewone sata kabels passen, om 6 interne schijven aan te sluiten
Yup, er gaan gewoon normale SATA kabels in :)

[ Voor 11% gewijzigd door Priet op 28-07-2011 10:49 ]

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Vant weekend ben ik erg afwezig, dus kan ik je niet helpen helaas (vriending komt terug van vakantie :+ )
Misschien dat ik je zondagavond even zou kunnen helpen.

Even niets...


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
FireDrunk schreef op donderdag 28 juli 2011 @ 10:42:
Hahaha, zal ik je anders een keer helpen, het is echt 2 minuten werk :)
De handleiding is enger dan het daadwerkelijk is ;)
Die heb ik ook gebruikt en werkt echt als een zonnetje :)

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Hoicks
  • Registratie: Maart 2001
  • Laatst online: 22:57

Hoicks

Techno!

Op dit moment heb ik de volgende configuratie in gedachten:

HP ProLiant N36L 1.30GHz 2-core 1P 1GB-U Int SATA Cold Plug SATA 250GB 200W PS EU MicroServer Kingston Valueram memory 8GB 1333MHz DDR3 ECC CL9 DIMM (Kit of 2) with Thermal Sensor
HD Caviar Green 2TB SATA III 7200rpm 64MB IntelliPower
Kingston Flash SSD 96GB SSDNow V-Series V+ SATA2
2.5" to 3.5" Brackets and Screws

Mijn bedoeling is om ESXi én de Virtuele machines op de SSD (single disk) te laten draaien
Voor data wil ik 2x 2TB in RAID 1 gaan draaien

Ga ik merken dat de Virtuele Machines op SSD draaien of kan ik net zo goed een normale HD hiervoor pakken? Edit: Ik lees dat ik beter een Intel postville kan pakken i.v.m. garbage collector?

[ Voor 14% gewijzigd door Hoicks op 28-07-2011 13:53 ]

Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM


Acties:
  • 0 Henk 'm!

  • Mentox
  • Registratie: November 2004
  • Laatst online: 10-09 23:11
Hoicks schreef op donderdag 28 juli 2011 @ 13:02:
Op dit moment heb ik de volgende configuratie in gedachten:

HP ProLiant N36L 1.30GHz 2-core 1P 1GB-U Int SATA Cold Plug SATA 250GB 200W PS EU MicroServer Kingston Valueram memory 8GB 1333MHz DDR3 ECC CL9 DIMM (Kit of 2) with Thermal Sensor
HD Caviar Green 2TB SATA III 7200rpm 64MB IntelliPower
Kingston Flash SSD 96GB SSDNow V-Series V+ SATA2
2.5" to 3.5" Brackets and Screws

Mijn bedoeling is om ESXi én de Virtuele machines op de SSD (single disk) te laten draaien
Voor data wil ik 2x 2TB in RAID 1 gaan draaien

Ga ik merken dat de Virtuele Machines op SSD draaien of kan ik net zo goed een normale HD hiervoor pakken? Edit: Ik lees dat ik beter een Intel postville kan pakken i.v.m. garbage collector?
RAID gaat niet werken in ESXi met deze server behalve als je een ondersteunde RAID kaart gebruikt.

Het leven is als een medaille, het heeft een glimmende en een donkere kant.


Acties:
  • 0 Henk 'm!

  • Hoicks
  • Registratie: Maart 2001
  • Laatst online: 22:57

Hoicks

Techno!

Mentox schreef op donderdag 28 juli 2011 @ 14:16:
[...]

RAID gaat niet werken in ESXi met deze server behalve als je een ondersteunde RAID kaart gebruikt.
Ik weet dat RAID niet gaat werken, daarom wil ik de datastores ook op de SSD zetten. Ik kan dan uiteindelijk wel de twee HD's die in RAID 1 staan aanspreken voor gewoon data?

Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM


Acties:
  • 0 Henk 'm!

  • Mentox
  • Registratie: November 2004
  • Laatst online: 10-09 23:11
Hoicks schreef op donderdag 28 juli 2011 @ 14:18:
[...]


Ik weet dat RAID niet gaat werken, daarom wil ik de datastores ook op de SSD zetten. Ik kan dan uiteindelijk wel de twee HD's die in RAID 1 staan aanspreken voor gewoon data?
Als ESXi ze ziet dan worden ze als twee aparte schijven gezien.

Het leven is als een medaille, het heeft een glimmende en een donkere kant.


Acties:
  • 0 Henk 'm!

  • Hoicks
  • Registratie: Maart 2001
  • Laatst online: 22:57

Hoicks

Techno!

Mentox schreef op donderdag 28 juli 2011 @ 14:21:
[...]

Als ESXi ze ziet dan worden ze als twee aparte schijven gezien.
ESX op SSD is dus geen probleem. Het probleem zit hem dus in het feit dat de RAID1 set niet door ESXi kan worden geinterpreteerd en daardoor niet bruikbaar is.

Hmm dat zou jammer zijn. Of ik zou geen RAID moeten gebruiken? Of een losse RAID Kaart aanschaffen. Ik neem daan dat single disken wel gewoon in ESXi te koppelen zijn?

Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM


Acties:
  • 0 Henk 'm!

  • Mentox
  • Registratie: November 2004
  • Laatst online: 10-09 23:11
Hoicks schreef op donderdag 28 juli 2011 @ 14:23:
[...]


ESX op SSD is dus geen probleem. Het probleem zit hem dus in het feit dat de RAID1 set niet door ESXi kan worden geinterpreteerd en daardoor niet bruikbaar is.

Hmm dat zou jammer zijn. Of ik zou geen RAID moeten gebruiken? Of een losse RAID Kaart aanschaffen. Ik neem daan dat single disken wel gewoon in ESXi te koppelen zijn?
Dat is geen enkel probleem, ik heb deze setup ook en de harde schijven zijn allemaal te benaderen.

Het leven is als een medaille, het heeft een glimmende en een donkere kant.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Je kan wel de disks aan een VM geven die er weer RAID1 van maakt en via NFS benaderbaar maakt...

Even niets...


Acties:
  • 0 Henk 'm!

  • Hoicks
  • Registratie: Maart 2001
  • Laatst online: 22:57

Hoicks

Techno!

FireDrunk schreef op donderdag 28 juli 2011 @ 14:31:
Je kan wel de disks aan een VM geven die er weer RAID1 van maakt en via NFS benaderbaar maakt...
Okay; dan krijg je dus de volgende setup:

1x SSD voor ESXi met daarop 2 virtuele servers
2x HDD in single disk modus

1x Windows 2008 fileserver waarmee je de 2 single disken koppelt, softraid 1 van maakt en deze vervolgens via NFS shared?
1x Windows 2008 terminal server

Heb je dan nog wel de voordelen qua snelheid die je haalt en RAID1 safety als er 1 schijf klapt?

[ Voor 5% gewijzigd door Hoicks op 28-07-2011 14:35 ]

Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM


Acties:
  • 0 Henk 'm!

  • Mentox
  • Registratie: November 2004
  • Laatst online: 10-09 23:11
Openfiler is mischien een betere optie (veel lichter dan Windows 2008 en gespecialiseerd in software RAID en iSCSI).

Maak op elke schijf een VMDK aan en onder Openfiler voeg je ze samen in RAID. Vervolgens maak je een iSCSI target met LUN. In ESXi gebruik je de iSCSI target als een nieuwe VMFS datastore.

En dan installeer je je VMs op deze datastore.

[ Voor 80% gewijzigd door Mentox op 28-07-2011 14:40 ]

Het leven is als een medaille, het heeft een glimmende en een donkere kant.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Windows gebruiken voor RAID zou ik niet doen, maar het kan... en NFS was meer zodat je ESX host er daarna weer gebruik van kan maken om VM's op te zetten (of vDisks...)

Windows snapt (bijna) geen NFS, en als het het al ondersteund is het houtje touwtje...

Ik zou voor Ubuntu gaan... (of OpenFiler inderdaad)

Even niets...


Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
Ik was ook aan het kijken om mijn mediaspeler te vervangen voor een krachtigere HTPC.

Aangezien ik tot op heden alleen gebruik heb gemaakt van HCL hardware voor ESX is deze thread voor thuis interessant ;)

In elk geval wil ik af en toe thuis wel eens wat dingen uittesten en geen al te zware machine neer zetten. Daarom dacht ik aan de combi van HTCP + ESXi. Echter heb ik deze combinatie hier nog niet voorbij zien komen als ik het goed heb.

Ik kan voor de simpele oplossing gaan en dat is gewoon een HostOS + XBMC met op de achtergrond VMware Workstation draaien waarin ik virtuele ESXi-servers kan draaien. Prima combinatie ansich maar ik wil het flexibeler.

Waarom niet ESXi draaien op een SSD van 16/32GB (ESXi + swap guests). Ik maak een Guest met Windows 7 + XBMC aan en ik ben klaar ;) Echter moet ik de console van de HTPC guest nog op me TV krijgen en de afstandsbediening (USB redirection moet geen probleem zijn). Het 8.1 geluid is ook nog een vraagteken. Dat is minder makkelijk maar een guest heeft de mogelijkheid tot VNC (vmx editen).

Als ik nu vanaf de Tech Support Mode een VNC cliënt sessie naar de HTPC guest maak heb ik beeld! Ik ben bang dat de performance van VNC te laag zal zijn voor 1080P. Heeft iemand ervaring met deze set-up? Op het internet heb ik wisselende verhalen gelezen namelijk.

Hardware matig heb ik genoeg aan een miniITX bordje + 8/16GB ram + kleine SSD 16/32GB + 2xHD in (software)RAID1 + HTPC kast en ik ben klaar, niet waar? Qua CPU ben ik daar nog niet helemaal uit, wellicht wachten op de nieuwe Ivy Bridge.

Ik dacht zelf aan de nieuwe Z68M-ITX/HT als basis.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Je kan er donder op zeggen dat VNC niet snel genoeg is voor 1080p.
Je enige opties zijn: VMware Workstation gebruiken op een Windows 7 host (2008 wil je niet ivm codec/driver en bepaalde architecturele verschillen op het gebied van multimedia drivers).

Of een VT-d compatible oplossing vinden en de gehele GPU aan een VM geven, maar dat schijnt niet altijd even goed te werken... Bovendien moet je nog maar hopen dat GPU acceleratie van video werkt via een met VT-d doorgezette GPU.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op donderdag 28 juli 2011 @ 11:54:
Vant weekend ben ik erg afwezig, dus kan ik je niet helpen helaas ,vriending komt terug van vakantie :+
sterkte kerel :X

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
Kan je eigenlijk via de built-in RAID-capabiliteit van een moederbordje een RAID-set presenteren als datastore voor ESXi, ja toch? OK, performance-gewijs niet hetjedat omdat dat ding CPU gaat gebruik, maar als ik er nu 2 disks bijsteek en daar een RAID-volume van maak dan moet dat toch werken, right?

Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Nu online

Nextron

Ik weet dat ik niets weet

Pascal Saul schreef op donderdag 28 juli 2011 @ 16:29:
In elk geval wil ik af en toe thuis wel eens wat dingen uittesten en geen al te zware machine neer zetten. Daarom dacht ik aan de combi van HTCP + ESXi. Echter heb ik deze combinatie hier nog niet voorbij zien komen als ik het goed heb.
Ik heb/had dezelfde idee, maar passthrough met mijn GPU werkt nog niet. In m'n vorige post staat een linkje naar het VMware forum waar mensen het wel werkend hebben met hardware acceleratie.
HyperBart schreef op donderdag 28 juli 2011 @ 18:18:
Kan je eigenlijk via de built-in RAID-capabiliteit van een moederbordje een RAID-set presenteren als datastore voor ESXi, ja toch? OK, performance-gewijs niet hetjedat omdat dat ding CPU gaat gebruik, maar als ik er nu 2 disks bijsteek en daar een RAID-volume van maak dan moet dat toch werken, right?
Onboard raid is zelden "hardware raid" maar vaak "fake raid". Zonder de juiste drivers zijn ze dan als losse disks zichtbaar.

Mijn IBM ServerraidBr10i is binnen.
Controller: €29,42 :*)
Verzendkosten: €26,50 :/
TNT inklaring: €26,40 :N
Totaal: €82.32 -O-

Zoals beschreven zat er geen bracket bij. Was al van plan het vast te lijmen op een van de afdekbrackets, maar de schroefgat-afmetingen kwamen overeen met m'n overbodige Asrock SATA3 kaartje, dus die maar even overgezet.

Ingebouwd, passthrough geconfigureerd en toegewezen aan VM zonder problemen of foutmeldingen.

Firmware naar IT flashen was wat meer werk: De .bat bestanden van het upgradepakketje hadden wat problemen met de dos 8.3 bestandlengte. Na dat aangepast te hebben gaf sasflash de melding "Failed to initialize PAL". Dat geeft blijkbaar aan het het mobo te weinig optionrom heeft om te flashen. De controller dus snel in mijn desktop gezet en een paar minuten later stond de IT firmware erop.
Om HD's aan te sluiten moet ik alleen nog op de breakoutkabels wachten...

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

Verwijderd

Jeetje, dus als je op eBay wat uit het buitenland haal moet je ook nog 'inklaringskosten' betalen ? wist ik niet, maar al met al nog een redelijk prijs.

En idd ESXi moet wel over de juiste drivers voor dat mobo beschikken voor een raid anders ziet hij ze als losse disks en moet je een softraid maken met een VM.

Acties:
  • 0 Henk 'm!

  • GH45T
  • Registratie: November 2003
  • Laatst online: 12-09 22:15
Gisteren ook wat onderdelen besteld voor een nieuwe server in elkaar te knutselen. In plaats van VMWare player op Windows 2003 wordt het de volgende keer VMWare ESXI 4.1 :)
#ProductPrijsSubtotaal
1Intel Pentium G620€ 56,70€ 56,70
1Intel Gigabit CT Desktop Adapter€ 23,15€ 23,15
2Western Digital Caviar Green WD30EZRX, 3TB€ 117,81€ 235,62
1Western Digital Scorpio Blue, 320GB SATA-300, 8MB, 5400rpm€ 35,84€ 35,84
1be quiet! Pure Power L7 300W€ 35,50€ 35,50
2Kingston ValueRAM KVR1333D3N9K2/8G€ 37,75€ 75,50
1Gigabyte GA-H67MA-UD2H-B3 (1.1)€ 76,90€ 76,90
Bekijk collectie
Importeer producten
Totaal€ 539,21

De 2 3TB schijven worden als RDM's aan een windows server gekoppeld, ik ben er van op de hoogte dat VMware hier niet mee overweg kan ;)

De virtuele machines worden:
- Ubuntu server als webserver en spamfilter
- Windows SBS 2011 voor filesharing, mail en wat zich al niet voordoet (MSDN licentie)
- Een virtuele firewall
- Windows XP client als download computer

En dan hoop ik nog wat geheugen over te hebben om af en toe een testje te kunnen draaien.

Ongeloofelijk hoe snel dat gaat, nog geen anderhalf jaar geleden upgrade ik mijn PC naar 8GB geheugen en dat was toen echt gigantisch. Ik was me een beetje aan het uittellen hoeveel ik nu nodig had, als ik alleen al de requirements van SBS 2011 doorneem...

Performance van de Scorpio Blue zal niet denderend zijn maar ik maak me er ook niet zo'n zorgen over. De virtuele firewall zal niets op hd doen, de Ubuntu server weinig en de 2 windows machines moeten dan de performance maar delen. In mijn PC en laptop heb ik een SSD maar daar valt de performance me ook op. Heb wel een SSD overwogen voor de server maar de kosten/baten vind ik behoorlijk slecht uitvallen.

Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
http://www.vmware.com/fil...-Technical-Whitepaper.pdf

Image Builder
vSphere 5.0 introduces the VMware ESXi Image Builder. The Image Builder is a PowerShell CLI command set
that enables customers to customize their VMware ESXi images. With Image Builder, you can create VMware ESXi installation images with a customized set of updates, patches and drivers.

Virtual Machine Scalability and Added Device Support
In vSphere 5.0 it is now possible to run practically any workload inside a virtual machine. In addition to its
providing support for larger virtual machines, each virtual machine now supports additional capabilities and
devices not previously available, including the following:
• Up to 32 virtual CPUs (vCPUs) and up to 1TB of RAM
• Enhanced graphics capabilities, including 3D graphics support that enables a richer desktop experience
• Broader device coverage, including support for 3.0 USB devices, smart card readers and EFI BIOS
• New user interface support for configuring multicore vCPUs
• Support for new guest operating systems including Mac OS X Server v10.6 (“Snow Leopard”)

http://www.vmware.com/fil...-Technical-Whitepaper.pdf

vSphere 5.0 introduces a new version of vSphere VMFS (VMFS), VMFS-5, which contains many important
architectural changes that enable greater scalability and performance while reducing complexity. Although
numerous fundamental changes have been made, the following enhancements are significant from operational
and architectural aspects:
• 64TB device support
• Unified block size
• Improved subblock mechanism

Acties:
  • 0 Henk 'm!

Verwijderd

Pascal Saul schreef op donderdag 28 juli 2011 @ 19:43:
http://www.vmware.com/fil...-Technical-Whitepaper.pdf

Image Builder
vSphere 5.0 introduces the VMware ESXi Image Builder. The Image Builder is a PowerShell CLI command set
that enables customers to customize their VMware ESXi images. With Image Builder, you can create VMware ESXi installation images with a customized set of updates, patches and drivers.

Virtual Machine Scalability and Added Device Support
In vSphere 5.0 it is now possible to run practically any workload inside a virtual machine. In addition to its
providing support for larger virtual machines, each virtual machine now supports additional capabilities and
devices not previously available, including the following:
• Up to 32 virtual CPUs (vCPUs) and up to 1TB of RAM
• Enhanced graphics capabilities, including 3D graphics support that enables a richer desktop experience
• Broader device coverage, including support for 3.0 USB devices, smart card readers and EFI BIOS
• New user interface support for configuring multicore vCPUs
• Support for new guest operating systems including Mac OS X Server v10.6 (“Snow Leopard”)

http://www.vmware.com/fil...-Technical-Whitepaper.pdf

vSphere 5.0 introduces a new version of vSphere VMFS (VMFS), VMFS-5, which contains many important
architectural changes that enable greater scalability and performance while reducing complexity. Although
numerous fundamental changes have been made, the following enhancements are significant from operational
and architectural aspects:
• 64TB device support
• Unified block size
• Improved subblock mechanism
erg jammer dat de free versie absoluut niet meer bruikbaar is ivm mem limit .. en dat aanschaffen voor hobbie/studie onbetaalbaar is.. conclusie.. hello M$ :9

Acties:
  • 0 Henk 'm!

  • Weiman
  • Registratie: September 2007
  • Laatst online: 09-09 09:20
Misschien maar een zuinig Hyper-V server topic maken, zijn we gelijk van het issue van Vt-d support af, dat werkt toch niet onder Hyper-V. :P

Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Dat is het probleem met Hyper-V. Om de strenge beperkingen van ESXi 5 ben ik gaan kijken naar Hyper-V als alternatief. Maar zaken als RDM of PCI passthrough kent het niet. En met een maximum aan 4 IDE apparaten ben je ook al erg beperkt. Helaas dus geen waardig alternatief... :(

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Je kan wel disks doorgeven bij Hyper-V? Zelf gedaan... Met een SCSI controller... Die is dan wel weer helaas alleen ondersteund onder windows dacht ik, maar toch :+

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

we kunnen een petitie opzetten om aan VMWARE voor te leggen dat wij tweakers graag een volledig werkende maar vooral BETAALBARE 'studenten' versie van ESXi 5 wensen.
O-)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Denk niet dat ze dat boeit :P

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
Ach boeien... de vCenter wordt toch een appliance die "bijna niks nodig gaat hebben", vCentertje er onder en dan maar op een "minder legale manier"...

Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

FireDrunk schreef op donderdag 28 juli 2011 @ 10:42:
Hahaha, zal ik je anders een keer helpen, het is echt 2 minuten werk :)
De handleiding is enger dan het daadwerkelijk is ;)
Ik dacht vanavond ook even een poging te wagen, maar na 2 minuten loop ik al vast :s
/vmfs/volumes/4e311d(...)4a0/RDMs # ls /dev/disks/ -l
-rw-------    1 root     root      2000398934016 Jul 29 11:30 t10.ATA_____SAMSUNG_HD204UI_________________________S2H7J9FB201184______

/vmfs/volumes/4e311d(...)4a0/RDMs # vmkfstools -z /vmfs/devices/disks/vm1.0100000000533248374a39464232303131383420202020202053414d53554e RDM1P.vmdk -a lsilogic
Failed to create virtual disk: The destination file system does not support large files (12).

Een screenshot van m'n datastore:
Afbeeldingslocatie: http://meuk.peterriet.net/esxidatastore.png
Daar heb ik verder niks aan veranderd, dit is direct na de installatie.

Ehm... hoe nu verder?

/Edit: blijkbaar ligt het aan de block size van de datastore. Deze heb ik daarom verwijderd en opnieuw aangemaakt met een blocksize van 8MB. Maar de foutmelding blijft. Hmmm... misschien een reboot proberen?

/Edit2: Argh! Een reboot helpt ook niet :(

[ Voor 10% gewijzigd door Priet op 29-07-2011 21:05 ]

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Je moet als tweede parameter een destination opgeven voor het kleine filetje andere probeert hij hem in dezelfde datastor te maken volgens mij...

Even niets...


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Ah thanks! Dat was het! :)

Dit is dan het juiste commando:

vmkfstools -z /vmfs/devices/disks/vml.010000000053324(...)202020202053414d53554e /vmfs/volumes/datastore1/RDMs/RDM1P.vmdk -a lsilogic


De aan te maken .vmdk heeft een volledig path nodig.

Nu FreeNAS installeren en de disk performance testen...

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
-a lsilogic is niet persé nodig volgens mij hoor... Ik gebruikte de Paravirtual controller, en weet niet of die intussen ondersteund is onder FreeNAS...

Even niets...


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Maakt dat nog (veel) verschil? Ik heb de tutorial letterlijk gevolgd, in sommige gevallen (zoals deze) had ik geen flauw idee wat of waarom...

Ik heb nu de vier SATA schijven via Physical RDM aan FreeNAS gegeven en daar een RAIDZ1 pool gemaakt. Vervolgens heb ik de machine uitgezet en de SSD met daarop ESXi uit het systeem gehaald. Daarna heb ik een USB stick erin gestopt en hierop FreeNAS geïnstalleerd. En tada: via een eenvoudige 'zpool import -f volume1' is de volledige pool weer in FreeNAS beschikbaar inclusief bestanden :) Dat is toch leuk om te weten als ESXi (of de SSD) het laat afweten :)

Een snelle test laat zien dat de snelheden via samba liggen op ongeveer 70MB/s lezen en 30MB/s schrijven. Machine is een Intel Core i5 2400 en FreeNAS heeft 8 GB (van de 16GB) tot zijn beschikking. Zijn dit waardes die je mag verwachten? De schrijfsnelheden vallen me eerlijk gezegd wat tegen. Gebruiker PRDM de VT-d extensies van de processor/mobo?

Als ik volgende week dat DeLOCK kaartje binnen heb wil ik eigenlijk nog eens testen om de volledige controller via passthrough door te geven. Zou dat de snelheden mogelijk verhogen?

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

Verwijderd

Priet schreef op zondag 31 juli 2011 @ 13:46:

Een snelle test laat zien dat de snelheden via samba liggen op ongeveer 70MB/s lezen en 30MB/s schrijven. Machine is een Intel Core i5 2400 en FreeNAS heeft 8 GB (van de 16GB) tot zijn beschikking.
voor wat het waard is natuurlijk .. toevallig gisteren mee zitten prutsen :

Afbeeldingslocatie: http://img163.imageshack.us/img163/1146/benchesxifreenassasucrz.jpg

ESX4.1 / FreeNAS 8 / sasuc8i in passthrough - 8 disk 2TB RZ2 / 16 GB ECC / freenasVM & ESXi op een OCZ SSD 60GB / xeon3440 / intel pro/1000 adapter / supermicroX8SIL-F / freenasVM 12 GB ram

[ Voor 5% gewijzigd door Verwijderd op 31-07-2011 14:26 ]


Acties:
  • 0 Henk 'm!

  • Appel
  • Registratie: November 2007
  • Laatst online: 21-08 16:07
Priet schreef op zondag 31 juli 2011 @ 13:46:
Maakt dat nog (veel) verschil? Ik heb de tutorial letterlijk gevolgd, in sommige gevallen (zoals deze) had ik geen flauw idee wat of waarom...

Ik heb nu de vier SATA schijven via Physical RDM aan FreeNAS gegeven en daar een RAIDZ1 pool gemaakt. Vervolgens heb ik de machine uitgezet en de SSD met daarop ESXi uit het systeem gehaald. Daarna heb ik een USB stick erin gestopt en hierop FreeNAS geïnstalleerd. En tada: via een eenvoudige 'zpool import -f volume1' is de volledige pool weer in FreeNAS beschikbaar inclusief bestanden :) Dat is toch leuk om te weten als ESXi (of de SSD) het laat afweten :)

Een snelle test laat zien dat de snelheden via samba liggen op ongeveer 70MB/s lezen en 30MB/s schrijven. Machine is een Intel Core i5 2400 en FreeNAS heeft 8 GB (van de 16GB) tot zijn beschikking. Zijn dit waardes die je mag verwachten? De schrijfsnelheden vallen me eerlijk gezegd wat tegen. Gebruiker PRDM de VT-d extensies van de processor/mobo?

Als ik volgende week dat DeLOCK kaartje binnen heb wil ik eigenlijk nog eens testen om de volledige controller via passthrough door te geven. Zou dat de snelheden mogelijk verhogen?
Ik heb een i5 2500, 6GB ram naar FreeNas en 4x 2TB in de RAIDZ1 staan. Ik haal dezelfde snelheden. Maar die lijken wel afhankelijk van de stand van de maan. Nu haal ik bijvoorbeeld maar 15 MB/s write en 19MB/s read......

Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

@borroz: dat zijn mooie snelheden :) Maar is RaidZ2 niet flink sneller dan RaidZ1?

Hier gebeuren ook rare dingen met de snelheden: ik heb nu FreeNAS zonder ESXi draaien (vanaf USB stick) maar nu zijn de snelheden omgedraaid: 70MB/s schrijven, 30-40MB lezen :?

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

Verwijderd

Priet schreef op zondag 31 juli 2011 @ 15:13:
@borroz: dat zijn mooie snelheden :) Maar is RaidZ2 niet flink sneller dan RaidZ1?

Hier gebeuren ook rare dingen met de snelheden: ik heb nu FreeNAS zonder ESXi draaien (vanaf USB stick) maar nu zijn de snelheden omgedraaid: 70MB/s schrijven, 30-40MB lezen :?
snelheid hangt van meerdere factoren af, al heb je nog zo'n snelle processor, als je een rotte netwerkkabel gebruikt.. bij wijze van.
als je toch bezig ben..probeer dit eens : http://www.napp-it.org/doc/downloads/all-in-one.pdf

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Heb je samba al getweaked?

Even niets...


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Nope, alles is nu default :)

Ik heb nu nog een test gedraaid en het schrijven gaat nu beduidend sneller: het kopiëren vanaf de PC naar de NAS gaat nu met strak 102MB/s. Waarschijnlijk zal de gigabit verbinding de bottleneck zijn.

Lezen (vanaf NAS naar PC) schommelt rond de 40MB/s met uitschieters naar 50. Daar valt vast nog wel iets aan te tweaken? :) Of zou ik aan de max van mijn harde schijf zitten?

Dit alles is nog even zonder ESXi. Die zal ik na de snelheidstesten weer aanzetten. Ben benieuwd wat het verschil in snelheid zal zijn.

[ Voor 4% gewijzigd door Priet op 31-07-2011 17:20 ]

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

Verwijderd

Afbeeldingslocatie: http://img148.imageshack.us/img148/1172/ddbench.jpg

10 disks RZ2

[ Voor 92% gewijzigd door Verwijderd op 01-08-2011 19:42 ]


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Ik heb OpenIndiana Server en Napp-it geïnstalleerd onder ESXi 4.1. Dat gaat snel en makkelijk, geen centje pijn.

Grootste voordeel boven FreeNAS: de ACL kun je direct vanuit Windows beheren en, nog beter: ZFS snapshots zijn onder Windows als 'Vorige versies' te benaderen _/-\o_

write 10.24 GB via dd, please wait...
time dd if=/dev/zero of=/mypool/dd.tst bs=1024000 count=10000

10000+0 records in
10000+0 records out

real       33.1
user        0.0
sys         3.7

10.24 GB in 33.1s = 309.37 MB/s Write

read 10.24 GB via dd, please wait...
time dd if=/mypool/dd.tst of=/dev/null bs=1024000

10000+0 records in
10000+0 records out

real       30.7
user        0.0
sys         1.9

10.24 GB in 30.7s = 333.55 MB/s Read

Dat is met 4 schijven in RAIDZ.Via samba gaf 70MB/s schrijven en 50MB/s lezen.

Over die schijven gesproken :'( Tijdens het wegschrijven en kopiëren van bestanden via samba kreeg ik opeens een IO error van Windows te zien. In de console spuugde OpenIndiana foutmeldingen uit over schijffouten. De pool is nu degraded:

 pool: mypool
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
	corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
	entire pool from backup.
   see: http://www.sun.com/msg/ZFS-8000-8A
 scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	mypool      DEGRADED     0     0     0
	  raidz1-0  DEGRADED     0     0     8
	    c2t1d0  DEGRADED     0     0     0  too many errors
	    c2t2d0  DEGRADED     0     0     0  too many errors
	    c2t3d0  DEGRADED     0     0     0  too many errors
	    c2t4d0  DEGRADED     0     0     0  too many errors

errors: Permanent errors have been detected in the following files:

        /mypool/data/GRMCULXFRER_EN_DVD.ISO


Zijn mijn schijven niet goed? Is het een verkeerde instelling in ESXi? Dit kan toch niet zomaar gebeuren? :/

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

Verwijderd

Priet schreef op maandag 01 augustus 2011 @ 20:01:
Ik heb OpenIndiana Server en Napp-it geïnstalleerd onder ESXi 4.1. Dat gaat snel en makkelijk, geen centje pijn.

Grootste voordeel boven FreeNAS: de ACL kun je direct vanuit Windows beheren en, nog beter: ZFS snapshots zijn onder Windows als 'Vorige versies' te benaderen _/-\o_

write 10.24 GB via dd, please wait...
time dd if=/dev/zero of=/mypool/dd.tst bs=1024000 count=10000

10000+0 records in
10000+0 records out

real       33.1
user        0.0
sys         3.7

10.24 GB in 33.1s = 309.37 MB/s Write

read 10.24 GB via dd, please wait...
time dd if=/mypool/dd.tst of=/dev/null bs=1024000

10000+0 records in
10000+0 records out

real       30.7
user        0.0
sys         1.9

10.24 GB in 30.7s = 333.55 MB/s Read

Dat is met 4 schijven in RAIDZ.Via samba gaf 70MB/s schrijven en 50MB/s lezen.

Over die schijven gesproken :'( Tijdens het wegschrijven en kopiëren van bestanden via samba kreeg ik opeens een IO error van Windows te zien. In de console spuugde OpenIndiana foutmeldingen uit over schijffouten. De pool is nu degraded:

 pool: mypool
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
	corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
	entire pool from backup.
   see: http://www.sun.com/msg/ZFS-8000-8A
 scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	mypool      DEGRADED     0     0     0
	  raidz1-0  DEGRADED     0     0     8
	    c2t1d0  DEGRADED     0     0     0  too many errors
	    c2t2d0  DEGRADED     0     0     0  too many errors
	    c2t3d0  DEGRADED     0     0     0  too many errors
	    c2t4d0  DEGRADED     0     0     0  too many errors

errors: Permanent errors have been detected in the following files:

        /mypool/data/GRMCULXFRER_EN_DVD.ISO


Zijn mijn schijven niet goed? Is het een verkeerde instelling in ESXi? Dit kan toch niet zomaar gebeuren? :/
laat hem is even draaien.. kan een bad sector probleem zijn, ZFS is 'self healing' en probeer later nogmaals die speed/samba test .. of er ligt echt 1 disk uit, kan ook natuurlijk :|
sleepy had gisteren een vergelijkbaar probleem dat zich later 'vanzelf' oploste 8)

Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Toch ben ik er niet gerust op. Dit is gloednieuwe hardware en de SMART info geeft nu al read errors aan. Het geheugen zal ik ook meteen testen, al loopt memtest86 (+ en de normale) direct vast :s 16GB is misschien wat veel voor die programma's :(

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

Verwijderd

Priet schreef op maandag 01 augustus 2011 @ 21:09:
Toch ben ik er niet gerust op. Dit is gloednieuwe hardware en de SMART info geeft nu al read errors aan. Het geheugen zal ik ook meteen testen, al loopt memtest86 (+ en de normale) direct vast :s 16GB is misschien wat veel voor die programma's :(
ik heb de OI151gui VM 12 GB ram gegeven en eea staat op een vDisk van 20 GB.

wat dat betreft is dit wetenswaardig
aan je benchmark is wel te zien dat die 'degraded is.

[ Voor 15% gewijzigd door Verwijderd op 01-08-2011 22:14 ]


Acties:
  • 0 Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 10-09 18:35

TrailBlazer

Karnemelk FTW

Nu ik mijn nas aan de praat heb wil ik weer verder gaan met mijn Esxi testcluster. Ik zit nu te denken om twee keer een celeron e3400 te kopen en een msi moederbord waar ik 8 gb geheugen in kan proppen. Het gaat me niet om het draaien van prduktie vms enkel voor het spelen met vmware. Als ik zo snel kijk moet ik voor 200 euro klaar zijn per server.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Eventjes als opmerking tussendoor naar alle mensen welke met SMB/CIFS aan het testen zijn, je VM is hoe dan ook je vertraging niet. Althans, zo lang je in ieder geval enige config zaken goed regelt, maar toch.

Met tests welke direct in de cache van mijn RAID controller draaiden, via een VMFS volume, haal ik net zo goed 1600MB/sec binnen of buiten een VM. Het maximale wat de betreffende controller aan kan.

Wat belangrijk is bij configuratie van je VM is dat je of de paravirtual SCSI adapter gebruikt of RDM of passthrough voor je SCSI kaart. Waarbij paravirtual en passthrough het meeste aan te raden is, RDM is een beetje brak mechanisme nog steeds.

Er zijn vele tests te vinden welke de vertraging van VMFS tegenover direct hardware testen en het verschil hierbij is maximaal 5% van wat ik me herinner. Mits paravirtual gebruikt word, de LSI adapters kosten veel meer performance.

Verder moet je voor je netwerk kaart ten alle tijden wanneer mogelijk de VMXnet 3 adapter gebruiken. Niet de e1000.

Voor beide storage en netwerk geld dat de standaard LSI kaart en e1000 software emulaties zijn en dat de paravirtual en VMXnet 3 via de hardware bediend worden (cpu extensies, etc.). Dit maakt ze vele vele malen sneller.

Zelf heb ik vele tests gedaan (thuis en op lanparties) en weinig tot geen performance belemmeringen bemerkt met de nieuwere VMware's. 300MB/sec tot 400MB/sec was prima haalbaar binnen een VM middels de paravirtual en VMXnet 3 drivers.

LSI + e1000 was max 70MB/sec en de hele host ging raar doen, alle VM's traag, etc. 70% a 80% load.
Paravirtual + VMXnet3 was met gemak 300MB/sec+ (4 NICS in VMware trunk) en zo'n 40% load, de rest van de VM's nergens last van.

Maar nogmaals, testen via CIFS.... gaat je geen realistisch resultaat opleveren aangezien dit vooral afhankelijk is van de implementatie daarvan. Windows 2008 R2 --> Windows 7 = 110MB/sec, altijd, als je storage dat trekt. Maar dat haalt 1 disk tegenwoordig wel met grote file.

Overigens is dat te danken aan SMB2. Win2k3 -> Win XP = Max 60MB/sec en vaak maar 30MB/sec.... maar dat is inmiddels ook echt oud. ;) In linux samba moet je het vaak apart aanzetten (SMB2).

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Thx! Dat zijn nog eens goede tips :)

Overigens heb ik ESTool van Samsung aangeslingerd om de schijven op fouten te testen. De full surface scan zit na één uur op 10%, die is dus nog wel even bezig. En dan dan de overige drie schijven nog... :O

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Nu online

Nextron

Ik weet dat ik niets weet

Daar zal nog wel wat meer snelheid in komen. Bij mijn 2TB's duurde een full scan zo'n 5-6 uur. Dat was op de onboard controller. Nu wacht ik nog op m'n breakoutkabels om ze allemaal in flexraid te zetten.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

Verwijderd

Quindor schreef op maandag 01 augustus 2011 @ 22:51:

- LSI + e1000 was max 70MB/sec en de hele host ging raar doen, alle VM's traag, etc. 70% a 80% load.
Paravirtual + VMXnet3 was met gemak 300MB/sec+ (4 NICS in VMware trunk) en zo'n 40% load, de rest van de VM's nergens last van.

- Maar nogmaals, testen via CIFS.... gaat je geen realistisch resultaat opleveren aangezien ...
4 NIC's in een trunk .. lekker 'huis tuin en keuken' :'(
LSI + e1000 draait hier op 92 mb/s maar idd de VMXnet3 adapter is sneller.. ben um alleen na herinstallatie ESXi/VM's even 'kwijt' .
:9

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

TrailBlazer schreef op maandag 01 augustus 2011 @ 22:33:
Nu ik mijn nas aan de praat heb wil ik weer verder gaan met mijn Esxi testcluster. Ik zit nu te denken om twee keer een celeron e3400 te kopen en een msi moederbord waar ik 8 gb geheugen in kan proppen. Het gaat me niet om het draaien van prduktie vms enkel voor het spelen met vmware. Als ik zo snel kijk moet ik voor 200 euro klaar zijn per server.
€200,= per stuk is te doen:

#ProductPrijsSubtotaal
1Intel Core i3 2100€ 88,10€ 88,10
1Kingston ValueRAM KVR1066D3N7K2/8G€ 37,99€ 37,99
1Intel Desktop Board DH61WWB3€ 52,29€ 52,29
Bekijk collectie
Importeer producten
Totaal€ 178,38


De NIC op t bordje doet het met een uit de doos esxi niet, maar dat zal te verhelpen zijn met een aangepaste oem.tgz (vm-help.com is je vriend).

En anders ga je voor dit moederbordje, wederom oem.tgz aanpassen voor de nic ondersteuning, maar dit is goed beschreven.

#ProductPrijsSubtotaal
1Asus P8H61 PLUS (B3)€ 54,99€ 54,99
Bekijk collectie
Importeer producten
Totaal€ 54,99

[ Voor 21% gewijzigd door Pantagruel op 02-08-2011 09:57 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Quindor schreef op maandag 01 augustus 2011 @ 22:51:
Eventjes als opmerking tussendoor naar alle mensen welke met SMB/CIFS aan het testen zijn, je VM is hoe dan ook je vertraging niet. Althans, zo lang je in ieder geval enige config zaken goed regelt, maar toch.

Met tests welke direct in de cache van mijn RAID controller draaiden, via een VMFS volume, haal ik net zo goed 1600MB/sec binnen of buiten een VM. Het maximale wat de betreffende controller aan kan.

Wat belangrijk is bij configuratie van je VM is dat je of de paravirtual SCSI adapter gebruikt of RDM of passthrough voor je SCSI kaart. Waarbij paravirtual en passthrough het meeste aan te raden is, RDM is een beetje brak mechanisme nog steeds.
RDM is niet brak, het is anders... In theorie is het net zo snel als paravirtual, omdat de ATA commando's direct doorgegeven worden.
Er zijn vele tests te vinden welke de vertraging van VMFS tegenover direct hardware testen en het verschil hierbij is maximaal 5% van wat ik me herinner. Mits paravirtual gebruikt word, de LSI adapters kosten veel meer performance.
Wat is veel? Heb je hier een bron van? De performance zal wel lager zijn, maar dat komt vooral omdat je meer CPU verbruikt.
Verder moet je voor je netwerk kaart ten alle tijden wanneer mogelijk de VMXnet 3 adapter gebruiken. Niet de e1000.
Agreed, maar veel FreeBSD gebaseerde distro's ondersteunen nog geen VMXNET3.
Voor beide storage en netwerk geld dat de standaard LSI kaart en e1000 software emulaties zijn en dat de paravirtual en VMXnet 3 via de hardware bediend worden (cpu extensies, etc.). Dit maakt ze vele vele malen sneller.
Klopt als een bus.
Zelf heb ik vele tests gedaan (thuis en op lanparties) en weinig tot geen performance belemmeringen bemerkt met de nieuwere VMware's. 300MB/sec tot 400MB/sec was prima haalbaar binnen een VM middels de paravirtual en VMXnet 3 drivers.
Das ook niet gek, de e1000 controller is maar een gigabit controller...
LSI + e1000 was max 70MB/sec en de hele host ging raar doen, alle VM's traag, etc. 70% a 80% load.
Paravirtual + VMXnet3 was met gemak 300MB/sec+ (4 NICS in VMware trunk) en zo'n 40% load, de rest van de VM's nergens last van.
Dat is dan alleen bij jou zo, wij gebruiken hier op het werk nog vaak zat LSI Logic + e1000 (of zelfs AMD PCnet voor de guru's) en dat werkt prima, daar halen wij hier ook gewoon 100MB/s mee over CIFS/SMB.

De beperkende factor is VEEL vaker de SMB server.
Maar nogmaals, testen via CIFS.... gaat je geen realistisch resultaat opleveren aangezien dit vooral afhankelijk is van de implementatie daarvan. Windows 2008 R2 --> Windows 7 = 110MB/sec, altijd, als je storage dat trekt. Maar dat haalt 1 disk tegenwoordig wel met grote file.
Wat is jou definitie van realistisch? Dat je zo hoog mogelijke 'theoretische' snelheden haalt?

Feit blijft dat 90% van de tweakers hier Windows 7 draait en SMB tests tussen OI en Win7 dus juist WEL realistisch zijn...
Overigens is dat te danken aan SMB2. Win2k3 -> Win XP = Max 60MB/sec en vaak maar 30MB/sec.... maar dat is inmiddels ook echt oud. ;) In linux samba moet je het vaak apart aanzetten (SMB2).
Ook hier geld weer voor, het is afhankelijk van de SMB server... Zelfs een Windows 2003 SMB server kan je snel maken met wat tuning...

Realistisch testen is het moeilijkste wat er is. Elke implementatie op elke hardware is anders, en is nooit te vergelijken met anderen.

Belangrijk is wel dat je bijvoorbeeld niet verwacht dat een paravirtual controller op een realtek chipje goed gaat performen onder ESXi. Dan heb je de verkeerde verwachtingen.

Wel kan je er redelijkerwijs vanuit gaan dat een echte Intel PRO controller 110MB/s haalt als je VMXNET3 gebruikt.

Even niets...


Acties:
  • 0 Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 10-09 18:35

TrailBlazer

Karnemelk FTW

Pantagruel schreef op dinsdag 02 augustus 2011 @ 09:41:
[...]


€200,= per stuk is te doen:

#ProductPrijsSubtotaal
1Intel Core i3 2100€ 88,10€ 88,10
1Kingston ValueRAM KVR1066D3N7K2/8G€ 37,99€ 37,99
1Intel Desktop Board DH61WWB3€ 52,29€ 52,29
Bekijk collectie
Importeer producten
Totaal€ 178,38


De NIC op t bordje doet het met een uit de doos esxi niet, maar dat zal te verhelpen zijn met een aangepaste oem.tgz (vm-help.com is je vriend).

En anders ga je voor dit moederbordje, wederom oem.tgz aanpassen voor de nic ondersteuning, maar dit is goed beschreven.

#ProductPrijsSubtotaal
1Asus P8H61 PLUS (B3)€ 54,99€ 54,99
Bekijk collectie
Importeer producten
Totaal€ 54,99
is er nog veel verschil tussen die i3 en de celeron e3200

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
3.1Ghz vs 2.4Ghz, i3 heeft meer cache en een GPU.

Daartussenin zit nog de G620.

[ Voor 10% gewijzigd door FireDrunk op 02-08-2011 15:07 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op dinsdag 02 augustus 2011 @ 15:07:
3.1Ghz vs 2.4Ghz, i3 heeft meer cache en een GPU.

Daartussenin zit nog de G620.
Socket 775 moederborden zijn schaars aan het worden en de esxi ondersteuning is ook niet briljant (de p5n7a-vm in mijn .sig staat wel in de 'ultimate white box' lijst. Bij het gros van de vermelde s775 bordjes loop je er ook tegenaan dat de onboard NIC niet werkt en je een insteek kaart zult moeten plaatsen. De kans dat daar iemand een oem.tgz voor gaat prutsen is min of meer uitgesloten. Je zet dus in op verouderde techniek (socket 775 en DDR2) die je ook nog circa €150,= a €175,= gaat kosten.

Een i3 setup is in vergelijking marginaal duurder, maar wel sneller wat nooit slecht is voor esxi.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Ah, lol, ik had niet eens gezien dat het een 775 CPU was :+ ik dacht dat het een Celeron voor 1155 was :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Hoicks
  • Registratie: Maart 2001
  • Laatst online: 22:57

Hoicks

Techno!

De Proliant Microserver met 2x 4GB ECC reepjes en een Kingston V+100 128GB SSD zijn besteld.

Ik wil er minimaal 2 servers op draaien (2x Windows 2008 R2, waarvan 1DC en 1 Terminal Server.

Nu ben ik me aan het inlezen op ESX en zie ik dat er ook ESX5 is. Deze ondersteunt echter maximaal configuraties per hypervisor van 8GB. (De gratis versie althans).

Ik vraag mij af of ESX5 beter geoptimaliseerd is voor SSD's en ik derhalve beter voor deze hypervisor kan kiezen t.o.v. ESXi 4.1 die wel meer geheugen per hypervisor ondersteunt. Kan iemand mij hier iets meer over vertellen?

(De Proliant Microserver ondersteunt toch niet meer dan 8GB dus dat hoeft de keuze niet te beperken).

Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
ESX5 is nog niet publiekelijk beschikbaar, en de move van ESXi 4.1 naar 5 is niet zo heel groot, dus je kan altijd 4.1 installeren...

Even niets...


Acties:
  • 0 Henk 'm!

  • Hoicks
  • Registratie: Maart 2001
  • Laatst online: 22:57

Hoicks

Techno!

Is er bekend wanener esx 5 uitkomt? :)

Kan zelfs op de website van VMware weinig info vinden.

Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Oktober/November

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

* verkeerde topic :*)

[ Voor 128% gewijzigd door Verwijderd op 02-08-2011 22:43 ]


Acties:
  • 0 Henk 'm!

  • Hoicks
  • Registratie: Maart 2001
  • Laatst online: 22:57

Hoicks

Techno!

Woei! Hij is binnen! Vanavond aan de knutsel! :)

Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
BTW, VMware heeft geluisterd naar zijn klanten:

http://derek858.blogspot....e-vsphere-50-license.html

TBC deze week...

Acties:
  • 0 Henk 'm!

Verwijderd

' This has to be the biggest marketing failure of an IT company in recent times. ' :)

( kijken we FF niet naar 'hollands glorie' TomTom )

[ Voor 28% gewijzigd door Verwijderd op 03-08-2011 13:18 ]


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 20:02

Priet

To boldly do what no one has..

Wordt de 8GB limiet voor de gratis versie ook verder opgeschroefd?

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Voor zover bekend nog niet.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

op de een of andere manier lukt het me nu niet meer (na her her her her installatie) om vanuit de vSphere client .iso files up te loaden via de datastore browser.. hij hangt halverwege de upload.

iemand een idee ..heb alle nics al geprobeerd en de datastore staat op andere ssd dan ESXi ?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Vol?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

:P nee dat niet

bedenk me ineens dat toen het nog wel werkte ik die 4.1.1 update eroverheen had gegooid

[ Voor 20% gewijzigd door Verwijderd op 03-08-2011 15:32 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
VMFS blocksize?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

2 mb meen ik :/

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
En dat geeft je een max filesize van? :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 03 augustus 2011 @ 16:00:
En dat geeft je een max filesize van? :)
genoeg toch :/

• 1MB block size – 256GB maximum file size

• 2MB block size – 512GB maximum file size

• 4MB block size – 1024GB maximum file size

• 8MB block size – 2048GB maximum file size

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Mjah, zou moeten werken idd... WinSCP al eens geprobeerd?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 03 augustus 2011 @ 16:22:
Mjah, zou moeten werken idd... WinSCP al eens geprobeerd?
probleem is dat mijn client win 7 64 bits is.. schijnt niet lekker te werken

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Werkt hier anders prima... vaak zat gedaan... (ook W7x64)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 03 augustus 2011 @ 16:33:
Werkt hier anders prima... vaak zat gedaan... (ook W7x64)
he grappig.. welke versie ?? (434 werkt hier niet)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
oh, geen idee, ik zal straks eens kijken.

Wat werkt er precies niet?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

winSCP v382 werkt onder win 7 ultimate 64 met file transfer naar ESXi 4.1 datastore
wel een k*t snelheid dus iets zit/gaat er niet goed.
aan de client kant is firewall ect. uit.

er staat verder nog geen VM geinstalled.. voorheen had ik een ubuntu VM met vmxnet 3
die zal ik eerst weer is installen.

Afbeeldingslocatie: http://img856.imageshack.us/img856/9942/59201194436am8320115213.jpg
Pagina: 1 ... 7 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.