AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Goed te horen.rikadoo schreef op zaterdag 17 januari 2015 @ 12:22:
[...]
Heb het nu aangepast in het syslinux file via een windows PC en het werkt prima! Is geinstalleerd en alle schijven worden gezien!
Zie alleen dat de CPU informatie nog verkeerd word weergegeven, was overigens met nanoboot ook al zo.
Ik heb een Pentium G3420 maar word weergegeven als een INTEL Core i3-4130 met 25.5GHz. Dit komt denk ik omdat de DS3615XS vanzichzelf een Core i3 gebruikt?
Ja dus
CPU info is inderdaad niet correct. Maar heeft geen invloed op prestaties. Voor verdere discussie kun je via de site contact opnemen dit voordat er weer een waarschuwing wordt uitgedeeld wegens offtopic
Nope, in de interface van mijn router word de server niet eens herkent om de een of andere manier...zeroday schreef op zaterdag 17 januari 2015 @ 10:19:
[...]
kun je de machine pingen?
kun je dan bijv. je shares zien/vinden door in je Windows Explorer bijv. \\ip-adres in te tikken?
Server krijgt dus geen ip adres, erg vaag aangezien de server eerst gewoon stabiel draaide en ik verder niks veranderd heb.
edit:
via ifconfig staat er dat de machine wel een ip adres krijg toegewezen, echter destination host unreachable..
tijdens de boot zie ik nu ook staan " Error internal NIC devices 1 does not equal to internal NIC number 4 "
iemand enig idee?
[ Voor 20% gewijzigd door joseph pottema op 17-01-2015 17:52 ]
je kan natuurlijk even zoeken op die foutmeldingjasperattema schreef op zaterdag 17 januari 2015 @ 17:26:
[...]
Nope, in de interface van mijn router word de server niet eens herkent om de een of andere manier...
Server krijgt dus geen ip adres, erg vaag aangezien de server eerst gewoon stabiel draaide en ik verder niks veranderd heb.
edit:
via ifconfig staat er dat de machine wel een ip adres krijg toegewezen, echter destination host unreachable..
tijdens de boot zie ik nu ook staan " Error internal NIC devices 1 does not equal to internal NIC number 4 "
iemand enig idee?
http://xpenology.com/foru....php?f=14&t=1939&start=80
There are no secrets, only information you do not yet have
even nog specifieker, dan staat de oplossing ook hier op het forumzeroday schreef op zaterdag 17 januari 2015 @ 19:54:
[...]
je kan natuurlijk even zoeken op die foutmelding
http://xpenology.com/foru....php?f=14&t=1939&start=80
Change your grub.conf file
Has something like nwinf=4
Change the number to 1
Reboot
is everything cool?
Echter ik ben dwars van systemen zoals Xpenology omdat daar teveel tierelantijnen aan zitten.
Ik wil dus straks gewoon een NAS die overweg kan met de standaard raid controller, 4 HDD's die in RAID5 kunnen draaien. Heeft iemand al de HP Microserver draaien met bijv. FreeNAS of OpenMediaVault ? En wil kort en krachtig zijn/haar ervaring delen?
Het enige wat nodig is, is plain simpel SMB (Samba / Windows File Sharing) en NFS
automatisch herconfiguratie van RAID na crash HDD
hotplug niet nodig
security: minimalistisch
Alles blijft toch intern.
There are no secrets, only information you do not yet have
Heeft iemand een suggestie voor een goede vervanging voor de ingebouwde ventilator? Gezien dit artikel moet het een 12cm fan zijn met een minimum snelheid van 600rpm, anders gaat de MicroServer niet aan, en een PWM-aansluiting. Stil hoeft de ventilator te zijn, aangezien de voeding en 3 harde schijven ook aardig wat lawaai maken en bovendien ergens op een zolderkamer staat waar niemand last heeft van enige vorm van suizende ventilatoren, behalve wat spinnen ofzo.
Suggesties zijn welkom!
Geen ervaring icm met de microserver en freenas, maar sinds kort wel met freenas en een atom boardje (supermicro)zeroday schreef op zondag 18 januari 2015 @ 10:53:
Ik heb mijn eerste MicroServer nu in de lucht en alles draait. Ik wil graag een 2e server als NAS gaan inrichten.
Echter ik ben dwars van systemen zoals Xpenology omdat daar teveel tierelantijnen aan zitten.
Ik wil dus straks gewoon een NAS die overweg kan met de standaard raid controller, 4 HDD's die in RAID5 kunnen draaien. Heeft iemand al de HP Microserver draaien met bijv. FreeNAS of OpenMediaVault ? En wil kort en krachtig zijn/haar ervaring delen?
Het enige wat nodig is, is plain simpel SMB (Samba / Windows File Sharing) en NFS
automatisch herconfiguratie van RAID na crash HDD
hotplug niet nodig
security: minimalistisch
Alles blijft toch intern.
Als je geen ECC hebt kun je volgens mij het beste een softwarematige UFS raid doen. In het ZFS topic vind je daar veel discussie over, echter draait bijna elke NAS gewoon met een " ouderwets" filesystem en is dit sneller en (zonder ecc) betrouwbaarder als ZFS.
Freenas heeft ondersteuning voor sickbeard/torrent/nzb. Als je de hardwareraidcontroller gebruikt heb je het nadeel dat freenas niet goed gebruik maakt van SMART etc, wil je dus hardwareraid gebruiken is allicht server 2012 (of 2008) een alternatief?
De TPM is een optie. Kun je goedkoop aanschaffen via Amazon. Via HP betaal je de hoofdprijs.iAbdel schreef op zondag 18 januari 2015 @ 12:16:
Iemand al TPM in werking gekregen op een N40L?
LINK
Onzin IMHO. Ik wil niet weer een wel/niet ECC discussie starten (zie ZFS topic) maar ook zonder ECC is ZFS veel betrouwbaarder, door de checksumming, atomic writes etc.jantje112 schreef op zondag 18 januari 2015 @ 19:10:
[...]
Geen ervaring icm met de microserver en freenas, maar sinds kort wel met freenas en een atom boardje (supermicro)
Als je geen ECC hebt kun je volgens mij het beste een softwarematige UFS raid doen. In het ZFS topic vind je daar veel discussie over, echter draait bijna elke NAS gewoon met een " ouderwets" filesystem en is dit sneller en (zonder ecc) betrouwbaarder als ZFS.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.

Slechts €99,22 euro inclusief BTW bij http://www.centralpoint.n...rt-624879-001-num-125446/. En dat voor een stukje plastic met waarschijnlijk productiekosten onder de enkele euros.
Als je nagaat dat ik de hele N40L (met 4 van die dingen) 2,5 jaar gekocht heb voor € 169,- is dit wel een heel lachwekkende prijs.
(ik ben dan ook niet bang voor de spam politie).
inderdaad, zelfs met een doorberekening van de mold en de eventuele paar duizend servers die ze verkopen dan rechtvaardigd dat niet de belachelijke prijs. Zelfde geldt voor die frontjes die je los kan kopen .. beter materiaal dan dit maar dan nog ..joppybt schreef op donderdag 29 januari 2015 @ 22:36:
Ik wist dat onderdelen vaak erg duur zijn maar dit is toch wel een toppertje.
[afbeelding]
Slechts €99,22 euro inclusief BTW bij http://www.centralpoint.n...rt-624879-001-num-125446/. En dat voor een stukje plastic met waarschijnlijk productiekosten onder de enkele euros.
Als je nagaat dat ik de hele N40L (met 4 van die dingen) 2,5 jaar gekocht heb voor € 169,- is dit wel een heel lachwekkende prijs.
(ik ben dan ook niet bang voor de spam politie).
There are no secrets, only information you do not yet have
SpareIT heeft diezelfde trays voor 45 euro excl BTW. Op Ebay helaas alleen 1 verkoper in de USA met 44 dollar.
Senetic.nl bied nu weer DE droomdeal.
De HP ProLiant MicroServer Gen8 G2020T B120i 2x1GB 1x4GB 2x1TB SATA LFF NHP DVD-RW 1x200W kost ex. BTW maar €260. Incl BTW is het nog goedkoper dan de NL shops. Vergeet niet dat dit de dikste versie betreft.
Ik heb op 27-01 de kale versie besteld in combinatie met de bijpassende switch. Hij is gelukkig nog niet geleverd. Ik heb deze net besteld met als betaal middel overschijven. Gelijk een mail achteraan dat ik de eerste server cancel en het verschil in prijs overmaak. Morgen hoor ik of dat goed komt. Ga uit van wel.
Kon het niet laten om het met jullie te delen. Hoop niet dat dit word gezien als reclame maken..
pricewatch: HP 647895-B21
Geheugen niet bij senetic halen want dat is veel duurder daar.
Het grote verschil met de G1610T is de processor. Dat moet een prijsverschil rechtvaardigen van 63 euro. Ik vraag me af of dat voor NAS bouwers interessant is. Voor virtualisatie misschien wel.
Edit fout: de G2020T komt met 4 GB geheugen, de G2020T met 4, dus ik denk dat in dit geval het prijs verschil zodanig is dat de G2020T een betere keuze is.
[ Voor 43% gewijzigd door Q op 01-02-2015 15:37 ]
Das best een leuk systeem, nog 4GB erbij en het zou nog wel kunnen fungeren als redelijke desktop.Duskwither schreef op zondag 01 februari 2015 @ 15:29:
Tja, en voor dat geld lijkt dit een betere optie, al is hij wat minder micro.
Hoe vind je deze koopjes? Heb je een duitse tweakers alternatief?
Forum lezen want de koopjes komen hier geregeld langs.
Heb de t20 vandaag in gebruik genomen.... Snel!
Dat kan bij cyberport ook, volgens mij kan het bij alle Duitse winkels!G-IT schreef op zondag 01 februari 2015 @ 16:12:
@Duskwither: dat is inderdaad niet vekeerd nee. Alleen minder micro. Het is dat ik een btw nummer heb waardoor ik bij Senetic gewoon de bruto prijs mag afrekenen. En de 2 TB die ik er erbij krijg(helaas flut kwaliteit..). Ik kan nu dus al Virtuele machines bouwen in VMware. Zodra ik mijn WD Red 3 TB schijven ga kopen zet ik de machines gewoon over.
en één reepje KTD-PE316ES overgehouden.
Is dit geheugen ook geschikt voor een HP Gen8 Microserver? (KTH-PL316ES is de tegenhanger voor HP)
Als is naar de specs kijk zijn ze identiek, alleen in de naam kan ik wat herkennen (misschien puur toeval)
D-PE = Dell PowerEdge
H-PL = HP ProLiant
En is er wel echt verschil? OF is gewoon een sticker met een naampje om het gemakkelijker te maken om je geheugen te vinden?!
[ Voor 3% gewijzigd door H00GiE op 02-02-2015 21:48 ]
"Wat gebeurt er als ik ook dit knopje dr...."
Ford Focus SW, Peugeot 106 Rallye (work-in-progress)
Rook != Goed, toch?!?
Ik zal ze morgen gewoon maar gaan testen... wel weer typisch iets voor mij om te doen... "Mix'n'Match"
"Wat gebeurt er als ik ook dit knopje dr...."
Als het geheugen in de Microserver niet goed is, blijf je in een boot-loop steken bij 70 of 90% (weet ff niet meer zeker welke van de 2 getallen)
Enkele pagina's terug staan wat posts over geheugenvragen en -oplossingen.
Ford Focus SW, Peugeot 106 Rallye (work-in-progress)
Na een volledige boot en het terug plaatsen van de originele 2GB (toevallig wel KTH-PL)
Herkent ESXi "gewoon" 6GB.
4GB ramdisk aangemaakt en via DD (/dev/zero) 4GB laten schrijven. geen enkel probleem.
Ik vermoed sterk dat KTH-PL*** / KTD-PE*** letterlijk identiek geheugen is (mits de *** informatie hetzelfde is in dit geval "316ES/4G"), en een mooie sticker / naam heeft gekregen louter voor het zoekgemak t.b.v. "server-upgrades".
Nu wachten op XPEnoboot 5.1 fix/update... want die wil niet (meer) opstarten na update.
<edit>Xpenology opstartprobleem heeft met de missende SCSI functies van XPEnoboot te maken. (herinstallatie als ESXi VM met IDE Connecties is mogelijk maar teveel "gedoe")</edit>
[ Voor 10% gewijzigd door H00GiE op 03-02-2015 22:27 . Reden: Probleem Xpenology heeft te maken met de nieuwe bootloader i.c.m. SCSI, niet mijn HP Microserver. ]
"Wat gebeurt er als ik ook dit knopje dr...."
Het ding weigert gewoon van een USB stick op te starten. Andere computers starten wel gewoon van deze USB stick(s) op. Ik heb Windows (2012/R2) geprobeerd, ESXi..geen boot. Boot volgorde staat gewoon goed. Als ik de USB stick als enige in het BIOS als boot device instel dan vindt de N54L geen boot device
* Glashelder kookt
PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc
Das goed nieuws. En wellicht nog op meerdere soorten bankjes van toepassing.Homer1983 schreef op dinsdag 03 februari 2015 @ 17:56:
Zoals gepland vandaag na 't werk even de Gen8 opengetrokken KTD (dell poweredge) ECC geheugen erin gezet, (zoals geadviseerd tijdelijk de 2GB eruit gehaald.)
Na een volledige boot en het terug plaatsen van de originele 2GB (toevallig wel KTH-PL)
Herkent ESXi "gewoon" 6GB.
4GB ramdisk aangemaakt en via DD (/dev/zero) 4GB laten schrijven. geen enkel probleem.
Ik vermoed sterk dat KTH-PL*** / KTD-PE*** letterlijk identiek geheugen is (mits de *** informatie hetzelfde is in dit geval "316ES/4G"), en een mooie sticker / naam heeft gekregen louter voor het zoekgemak t.b.v. "server-upgrades".
Nu wachten op XPEnoboot 5.1 fix/update... want die wil niet (meer) opstarten na update.
<edit>Xpenology opstartprobleem heeft met de missende SCSI functies van XPEnoboot te maken. (herinstallatie als ESXi VM met IDE Connecties is mogelijk maar teveel "gedoe")</edit>
Ik snap nog steeds niet zo goed waarom er zo veel verschillende soorten geheugen zijn terwijl ze allemaal dezelfde standaard zouden moeten navolgen. Waarschijnlijk gewoon om zelf zoveel mogelijk geheugen van je eigen merk te verkopen. De grote bedrijven hebben doorgaans geen zin/tijd om alternatieven te zoeken/testen waarmee ze een paar knaken kunnen besparen. Eigenlijk best slim
Ford Focus SW, Peugeot 106 Rallye (work-in-progress)
[ Voor 75% gewijzigd door Verwijderd op 04-02-2015 12:35 ]
Welke USB aansluiting gebruik je ? Voorop ? Op het mainboard ? Achterop ?Glashelder schreef op dinsdag 03 februari 2015 @ 20:39:
Ik wordt echt helemaal knettergek van mijn N54L
Het ding weigert gewoon van een USB stick op te starten. Andere computers starten wel gewoon van deze USB stick(s) op. Ik heb Windows (2012/R2) geprobeerd, ESXi..geen boot. Boot volgorde staat gewoon goed. Als ik de USB stick als enige in het BIOS als boot device instel dan vindt de N54L geen boot device![]()
* Glashelder kookt
Bij mij heb ik wel eens een probleempje met de poorten voorop gehad, bleek dat ik het header-kabeltje niet goed op het moederbordje teruggeprikt had na bijprikken van geheugen
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Het irriteerde me zo erg gisteravond dat ik bijna een Gen8 had besteld
Gekke is dat hij wel gewoon de USB sticks herkend in het BIOS
[ Voor 17% gewijzigd door Glashelder op 04-02-2015 15:13 ]
PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc
There are no secrets, only information you do not yet have
Volgens de tracking krijg ik het vrijdag bezorgd. Alleen weet ik niet wat ze opgestuurd hebben want had eerst het basis model besteld en daarna die dikke versie. Ik zou daarvoor nog wat moeten bij betalen maar heb ik niet gedaan. Heb herhaaldelijk verteld waarom ik een tweede bestelling heb geplaatst en dat ik graag een betaal link wil ontvangen zodat ik kan betalen.
Word pist off als ze alsnog het basis model verstuurd hebben.
Maar over de server gesproken, wie heeft er ervaring met de hp b120i raid controller ?
Volgens mij zit in elke Gen8 Microserver de b120i controller standaard op het moederbord.G-IT schreef op woensdag 04 februari 2015 @ 20:44:
...Maar over de server gesproken, wie heeft er ervaring met de hp b120i raid controller ?
Wat wil je weten??
"Wat gebeurt er als ik ook dit knopje dr...."
Eens in de bios kijken om booten van sd uit te schakelen. SD staat waarschijnlijk als eerste usb boot device.Glashelder schreef op dinsdag 03 februari 2015 @ 20:39:
Ik wordt echt helemaal knettergek van mijn N54L
Het ding weigert gewoon van een USB stick op te starten. Andere computers starten wel gewoon van deze USB stick(s) op. Ik heb Windows (2012/R2) geprobeerd, ESXi..geen boot. Boot volgorde staat gewoon goed. Als ik de USB stick als enige in het BIOS als boot device instel dan vindt de N54L geen boot device![]()
* Glashelder kookt
Glashelder schreef op dinsdag 03 februari 2015 @ 20:39:
Ik wordt echt helemaal knettergek van mijn N54L
...
* Glashelder kookt
Dit is inderdaad bij de Gen8 zo, ik heb persoonlijk geen ervaring met de N54L.belrpr schreef op donderdag 05 februari 2015 @ 02:43:
[...]
Eens in de bios kijken om booten van sd uit te schakelen. SD staat waarschijnlijk als eerste usb boot device.
Je kan in de bios kiezen om USB Device als eerste boot apparaat in te stellen.
Ergens anders kun je dan weer de volgorde van de (aangesloten) USB apparaten instellen.
En daar staat dan default weer USB Card Reader ingesteld als eerste USB apparaat om van te booten.
't is het zeker waard om even te bekijken of dat in jouw geval ook zo is, Glashelder.
[ Voor 22% gewijzigd door H00GiE op 06-02-2015 23:30 ]
"Wat gebeurt er als ik ook dit knopje dr...."
Ik heb ESXi 5.5 draaiend en wordt gerunt vanaf een USB-stick in de interne USB-poort. Ik heb nu 10GB tot mijn beschikking en binnenkort 16GB. Ik heb 3x3TB schijven van WD red voor mijn storage (data opslag) en een SSD voor de VM's
Mijn doel met de hypervisor is om meerdere VM's te runnen voor verschillende toepassingen:
- Plex (Ubuntu)
- ownCloud (Ubuntu)
- Webserver (Ubuntu)
Momenteel zit ik een dilemma en heb ik geen idee hoe ik mijn storage wil gaan inrichten. Iemand enige tips? Ik zat zelf te denken aan raid-Z ZFS, maar het nadeel is dat deze oplossing enorm veel RAM in gebruik neemt en reserveert. En ik moet de storage met een omleiding (zonder ESXi) koppelen aan de schijven.
Ik hou graag van uitdagingen en ben een Linux-distro fan, het liefst Ubuntu.
Alvast bedankt!
Allereerst: Gefeliciteerd met je nieuwe aankoop!talrinal schreef op zaterdag 07 februari 2015 @ 00:42:
...
Mijn doel met de hypervisor is om meerdere VM's te runnen voor verschillende toepassingen:
- Plex (Ubuntu)
- ownCloud (Ubuntu)
- Webserver (Ubuntu)
...

Mijn eerste vraag is dan meteen, wat heb je echt nodig? Hoeveel websites worden er gehost op je VM, en zijn dit druk bezochte sites?, hoeveel gebruikers op je owncloud? hoeveel mediaspelers gebruiken content op je plex?
Zit je server direct op internet of achter een firewall/router? etc.
Helaas is de standaard celeron processor in de gen8 niet geschikt voor VT-d dus directe hardware toegang (behalve USB) gaat je niet lukken.

Wil je wel direct hardware (zoals je schijven) in passthrough gaan gebruiken, dan zul je (ook) nog moeten upgraden naar een processor die wel VT-d ondersteund.
(bijv. de Xeon E3 1200L v2 serie is geschikt, denk wel om de TDP)
ZFS word overigens pas echt nuttig in een virtuele server als je het gebruikt voor replicatie, fout tolerantie, portabiliteit etc. (denk er ook aan dat juist een aantal van deze functies in ESXi terug te vinden zijn, vooral de aankomende 6e editie) bovendien is er natuurlijk een limiet aan iops wat de hardeschijf controller aan kan.
Als je echt snelheid wil is het in mijn ogen beter om geld te investeren in een hardware raid controller met eventueel cachecade, SSD cache of ram cache, in plaats van geheugen upgrades en/of te gaan werken met ZFS.
Wederom is dan de vraag waar heb je die grote data throughput voor nodig, en is dat je extra hardwarekosten/moeite echt waard?
Ik draai op dit moment ESXi 5.1 HP image embedded op een MicroSD, met Xpenology (NAS/media server), pfSense (firewall) voor 12 computers (op 3 subnets en thuiswerkers via VPN) en owncloud met 2 internet thuiswerkers en 8 lan connecties, met een standaard raid setje op de interne b120i raid controller. en ook al mijn VM's staan op een Samsung 840 pro SSD en data storage op HP midline server schijven (sata300)
Dit alles met (maar) 6GB ram en de lichtste celeron processor, en ik mag over snelheden niet klagen.
('t zal voorlopig vast niet allemaal super optimaal zijn en geen headroom (speling) hebben,
maar wij kunnen er prima mee werken.
Aangezien ik een PCI-e netwerkkaart gebruik icm pfSense als router/firewall/switch/proxy kan ik geen betere raid controller inprikken, maar ik moet zeggen dat met 95Mbit/s downloaden van internet, bestanden opslaan naar owncloud en HD materiaal kijken tegelijk door meerdere computers geen enkel probleem is voor deze server in deze configuratie.
Overigens: software raid of ZFS op een guest os vanuit ESXi maakt niets sneller, in mijn tests was het juist langzamer dan direct gebruik te maken van VMFS virtuele schijven (pad van minste weerstand).
Als laatste is het misschien wel een idee om geen virtualisatie te gebruiken maar al deze functies op één linux installatie te gaan draaien. nadeel is dan wel dat de applicaties/functies misschien resources van de anderen opsnoept. wellicht heb je dan ook een single point of failure: crached je server dan crashen alle applicaties, én je kan geen gebruik maken van de portability van ESXi...
Daarintegen kan je dan wel weer ZFS gebruiken als oplossing, zelfs kun je dan kijken naar SSD caching (L2ARC-cache).
Overigens is, als je het niet te bont maakt met hele rare webscripts of applicaties, je huidige 10GB ram (misschien) zelfs al wel genoeg.
"Wat gebeurt er als ik ook dit knopje dr...."
Bedankt!Homer1983 schreef op zaterdag 07 februari 2015 @ 07:26:
[...]
Allereerst: Gefeliciteerd met je nieuwe aankoop!![]()
Mijn eerste vraag is dan meteen, wat heb je echt nodig? Hoeveel websites worden er gehost op je VM, en zijn dit druk bezochte sites?, hoeveel gebruikers op je owncloud? hoeveel mediaspelers gebruiken content op je plex?
Zit je server direct op internet of achter een firewall/router? etc.
Helaas is de standaard celeron processor in de gen8 niet geschikt voor VT-d dus directe hardware toegang (behalve USB) gaat je niet lukken.![]()
Wil je wel direct hardware (zoals je schijven) in passthrough gaan gebruiken, dan zul je (ook) nog moeten upgraden naar een processor die wel VT-d ondersteund.
(bijv. de Xeon E3 1200L v2 serie is geschikt, denk wel om de TDP)
ZFS word overigens pas echt nuttig in een virtuele server als je het gebruikt voor replicatie, fout tolerantie, portabiliteit etc. (denk er ook aan dat juist een aantal van deze functies in ESXi terug te vinden zijn, vooral de aankomende 6e editie) bovendien is er natuurlijk een limiet aan iops wat de hardeschijf controller aan kan.
Als je echt snelheid wil is het in mijn ogen beter om geld te investeren in een hardware raid controller met eventueel cachecade, SSD cache of ram cache, in plaats van geheugen upgrades en/of te gaan werken met ZFS.
Wederom is dan de vraag waar heb je die grote data throughput voor nodig, en is dat je extra hardwarekosten/moeite echt waard?
Ik draai op dit moment ESXi 5.1 HP image embedded op een MicroSD, met Xpenology (NAS/media server), pfSense (firewall) voor 12 computers (op 3 subnets en thuiswerkers via VPN) en owncloud met 2 internet thuiswerkers en 8 lan connecties, met een standaard raid setje op de interne b120i raid controller. en ook al mijn VM's staan op een Samsung 840 pro SSD en data storage op HP midline server schijven (sata300)
Dit alles met (maar) 6GB ram en de lichtste celeron processor, en ik mag over snelheden niet klagen.
('t zal voorlopig vast niet allemaal super optimaal zijn en geen headroom (speling) hebben,
maar wij kunnen er prima mee werken.)
Aangezien ik een PCI-e netwerkkaart gebruik icm pfSense als router/firewall/switch/proxy kan ik geen betere raid controller inprikken, maar ik moet zeggen dat met 95Mbit/s downloaden van internet, bestanden opslaan naar owncloud en HD materiaal kijken tegelijk door meerdere computers geen enkel probleem is voor deze server in deze configuratie.
Overigens: software raid of ZFS op een guest os vanuit ESXi maakt niets sneller, in mijn tests was het juist langzamer dan direct gebruik te maken van VMFS virtuele schijven (pad van minste weerstand).
Als laatste is het misschien wel een idee om geen virtualisatie te gebruiken maar al deze functies op één linux installatie te gaan draaien. nadeel is dan wel dat de applicaties/functies misschien resources van de anderen opsnoept. wellicht heb je dan ook een single point of failure: crached je server dan crashen alle applicaties, én je kan geen gebruik maken van de portability van ESXi...
Daarintegen kan je dan wel weer ZFS gebruiken als oplossing, zelfs kun je dan kijken naar SSD caching (L2ARC-cache).
Overigens is, als je het niet te bont maakt met hele rare webscripts of applicaties, je huidige 10GB ram (misschien) zelfs al wel genoeg.
De websites die ik wil hosten zijn bedoeld voor test doeleinden: CMS, handcoded websites en databases, etc en worden niet druk bezocht. ownCloud is meer bedoeld om te gebruiken als eigen cloudstorage (naast mijn Google Drive, als soort van back-up). En voor Plex zijn er 2 (interne) mediaspelers, waarvan 1 heel weinig wordt gebruikt.
Ik twijfel nog of ik mijn server in DMZ (wel benaderbaar vanaf LAN en WAN, maar DMZ niet naar LAN) plaats of gewoon gebruik maak van firewall/portmapping. Ik heb trouwens een 60mbps down/10mbps up verbinding van KPN.
Dus als ik het goed begrijp is ZFS (met directe koppeling aan VM's, zonder ESXi) zonder VT-d niet mogelijk? Ik twijfelde dus ook eigenlijk. Dan ga ik denk ik idd voor een raid-5 controller, kan dit zonder VT-d? Ik was eigenlijk niet van plan om extra geld aan een CPU uit te geven
Jouw opstelling ziet er iig goed uit en goed doordacht
talrinal schreef op dinsdag 10 februari 2015 @ 00:35:
[...]
...
Dus als ik het goed begrijp is ZFS (met directe koppeling aan VM's, zonder ESXi) zonder VT-d niet mogelijk? Ik twijfelde dus ook eigenlijk. Dan ga ik denk ik idd voor een raid-5 controller, kan dit zonder VT-d? Ik was eigenlijk niet van plan om extra geld aan een CPU uit te geven.
Jouw opstelling ziet er iig goed uit en goed doordacht. pfSense werkt goed? (o.a. loadbalancing, DDNS, DNS en NAT) Ik wil graag gebruik maken van ESXi, omdat ik graag mijn kennis wil verbreden en idd gebruik wil maken van de portability.
pfSense staat als een huis, ik gebruik geen BIND als losse DNS server installatie, maar de basis interne DNS forwarder met een aantal domain / host overrides. Ik heb een netwerk van DNS servers op verschillende geografische locaties die allemaal gesynchroniseerd zijn, dus ik heb niet echt NOG een DNS server nodig. NAT en de PF firewall zijn zo simpel en GOED configureerbaar.
Ik gebruik geen load balance (wel QoS) wel failover Gateway als Telfort (weer eens) uitvalt, Automatisch 4G met een compleet andere proxy setting en blokkades voor bijna alles (lager data verbruik) USB werkt namelijk wel in passthrough zonder VT-d.
ESXi deelt harde schijven in in hun eigen formaat (VMFS) en het is (zover ik weet) noodzakelijk om alle hardeschijven in te delen in dat formaat, als je deze schijven als opslag wil gebruiken binnen ESXi.
Hier kun je omheen door direct IO te gebruiken en simpelweg de hardeschijf als direct access door te sluizen, hierdoor heb je in de guest os directe toegang tot de hardware. Alleen heb je dan dus VT-d ondersteuning in je processor nodig. De Celeron Die standaard in de HP zit heeft dat niet, wel VT-x maar geen VT-d.
Alle virtuele hardeschijven die je creëert zijn in princiepe "maar" bestanden opgeslagen op die schijf die in VMFS is geformatteerd. Of je die als virtuele raid set gebruikt of niet het effect blijft hetzelfde, je schrijft dan (in geval van een raid5 setje) ~3 (of meer) losse bestanden naar de gedefinieerde schijven binnen ESXi. (één "bestand" per virtuele disk, zo'n VMDK bestaat wel uit meerdere bestanden maar die zie je in de browser normaal gesproken niet.)
Hardware Raid gebruikt geen software en een hardware controller laat de server per set dus één hardeschijf zien, gebruik je dan dus een Raid5 set, dan ziet ESXi (met gebruik van de juiste hardware/driver) maar 1 enkele disk. let wel op dat de controller word ondersteud, ESXi is ERG pickey op welke hardware je gebruikt.
Verdere functies en of configuratie specifiek voor ESXi met betrekking op zo'n hardware raid controller kun je beter op de daarvoor aangewezen onderwerpen zoeken, dat gaat te ver om dit topic te bespreken, want van teveel offtopic word de mod niet blij en trashed onze posts. Bovendien hangen de functies af van de gekozen hardware. (je mag me hierover ook een DM sturen voor verdere info, maar ik wil en ga je niet adviseren op hardware keuze.)
[ Voor 9% gewijzigd door H00GiE op 10-02-2015 03:43 . Reden: Te veel offtopic. ]
"Wat gebeurt er als ik ook dit knopje dr...."
Even een paar vragenHomer1983 schreef op zaterdag 07 februari 2015 @ 07:26:
[...]
Ik draai op dit moment ESXi 5.1 HP image embedded op een MicroSD, met Xpenology (NAS/media server), pfSense (firewall) voor 12 computers (op 3 subnets en thuiswerkers via VPN) en owncloud met 2 internet thuiswerkers en 8 lan connecties, met een standaard raid setje op de interne b120i raid controller. en ook al mijn VM's staan op een Samsung 840 pro SSD en data storage op HP midline server schijven (sata300)
De Microserver heeft zelf 2 LAN poorten, waarom heb jij er dan 3 nodig in combi met pfSense?
En wat is de meerwaarde voor pfSense als je (kuch kuch) alle poorten dicht heb op je router en dan alleen die poorten open die je wilt hebben?
Wat is de toegevoegde waarde tussen Xpenology draaien en dan ook nog owncloud? is dat niet 'gelijkwaardig'? hoe moet ik dat zien?
Ik ben me aan het orienteren voor een 2e gen8, en dan daar een NAS functionaliteit op te laten draaien
mijn huidige gen8 draait VMware Esxi 5.5 met een paar VM's. Ik heb geprobeerd om daarbinnen nog XenServer te draaien ivm een oude installatie die ik had en dus zo daar de vm's makkelijk van over kon zetten, maar dat werkte ontzettend onstabiel. Een VM aanmaken met bijv. Windows 8 zorgde voor een crash van de xenserver en haar vm's ..
Nu dat weg is, is het allemaal super stabiel.
Maar gezien het gehele licentiebeleid van VMWARE en het lastig is de software normaal te verkrijgen ben ik niet zo fan ervan (het draait nu) ook met de vsphere client, maar leuk was het niet en vooralsnog draait de 2e netwerk poort ook nog niet .. ;-)
in hoeverre draait de Xenopoloy software stabiel tov bijv. alternatieven? Ik las dat voor Xenopoloy allerlei tricks gedaan moet worden in configs?
There are no secrets, only information you do not yet have
Ik heb geen wijzigingen aangebracht in geen enkele configuratie van xpenology, behalve gebruikers en admin wachtwoord. (zoals eerder gezegd misschien "draait" het geheel misschien niet optimaal qua snelheid, maar 80MB/s voor een windows share vind ik acceptabel.) en ik heb tot voor 2 weken terug geen ervaring met DSM dus weet ik niet of ik hetgeen waar ik OwnCloud voor gebruik niet (of wel) zou kunnen in DSM 5.1zeroday schreef op woensdag 11 februari 2015 @ 09:10:
[...]
Even een paar vragen
De Microserver heeft zelf 2 LAN poorten, waarom heb jij er dan 3 nodig in combi met pfSense?
En wat is de meerwaarde voor pfSense als je (kuch kuch) alle poorten dicht heb op je router en dan alleen die poorten open die je wilt hebben?
Wat is de toegevoegde waarde tussen Xpenology draaien en dan ook nog owncloud? is dat niet 'gelijkwaardig'? hoe moet ik dat zien?
....
Maar gezien het gehele licentiebeleid van VMWARE en het lastig is de software normaal te verkrijgen ben ik niet zo fan ervan (het draait nu) ook met de vsphere client, maar leuk was het niet en vooralsnog draait de 2e netwerk poort ook nog niet .. ;-)
in hoeverre draait de Xenopoloy software stabiel tov bijv. alternatieven? Ik las dat voor Xenopoloy allerlei tricks gedaan moet worden in configs?
Een soort van blijven hangen in gewoontes dus. (client van OwnCloud synchroniseert automatisch mijn bestanden en laat mijn telefoon toegang hebben tot mijn bestanden. daarnaast kan ik op elke willekeurige laptop of pc mijn documenten openen zonder bijv word of acrobat reader te moeten installeren.)
Wat betreft xpenology stabiliteit heb ik gister de update gedaan van DSM 5.0 naar nieuwe bootloader + DSM 5.1, en direct erna een volledige backup gedaan van 540GB en heb geen problemen kunnen merken.
extra netwerk poorten is niet zo moeilijk om te bedenken, toch?
- per netwerk poort heb ik 1Gbit/s bandbreedte ter beschikking, bij een uplink van 1x 1GB/s en 10PC's moet ik dus 1GB/s delen door 10, nu met 3 x 1Gb/s zijn het 3 PC's / Gbit nic.
ga ik uitbreiden naar meer pc's dan hoef ik in principe niks te doen behalve pc's bijplaatsen en aansluiten.
(80MB/s ≈ 640mbit/s dat is dus ongeveer 64% van een enkele gbit lan verbinding. en die bandbreedte gebruikt alleen de nas dus al op dit moment.)
- geen (extra) managed switches nodig (alles direct op de server of met zeer kleine switches + geen vlans nodig, dat scheelt 2 of 3 managed switches dat is een kosten besparing van behoorlijk wat euros, dat had ik eerder wel met de vorige "router/firewall".)
- ik kan dus "domme" switches gebruiken en toch sommige delen van het netwerk scheiden. (ik weet, het kan op 1001 manieren, dit is mijn manier.)
- per subnet ("fysiek" gescheiden per nic) kan ik de firewall, dns, DHCP en proxy instellen. (ook dit kan op 101 manieren, maar wederom: dit is mijn manier.)
bovendien: pfSense VM is mijn router...
(klein risico als de pfSense VM crashed of ESXi hapert, maar dan sluit ik één pc met statisch ip aan op de hp en kan alsnog bij ESXi)
Ik gebruik vSphere (de basis van ESXi) ook op andere servers dus heb ik een behoorlijke licentie, deze server gebruikt dan ook gewoon de volledige licentie.
Voor zover ik weet is de licentie voor testdoeleinden vmware ESXi "gratis".
Als ik dat zo hoor in combinatie met Xen virtualisatie, ben je continue bezig met "test opstellingen"

[ Voor 10% gewijzigd door H00GiE op 11-02-2015 17:19 ]
"Wat gebeurt er als ik ook dit knopje dr...."
Dat een server bare metal N40L aan jou wensen kan voldoen is erg prettig voor jou, niet iedereen heeft dezelfde wensen voor zijn/haar server. En als jij virtualisatie "geklier" vind is er niemand die je forceert om virtualisatie te gebruiken.rippiedoos schreef op woensdag 11 februari 2015 @ 22:39:
Waarom wil iedereen toch altijd vmware draaien? Waarom niet gewoon 1x Ubuntu server LTS erop en alles native draaien? Geen geklier met bijhouden van meerdere os'en en veel minder overhead, wat microservers toch al niet veel hebben. Mijn ervaring met een N40L is dat het prima bare metal draait en lekker snel zonder extra geklier. En mocht je toch willen gaan prutsen met VM's kun je altijd nog virtualbox op een laptop gebruiken.
Ik persoonlijk wil mij niet tot een operatingsysteem limiteren, daarnaast vind de Debian kernel (want daar is de basis voor Ubuntu vandaan gekomen) voor bepaalde doeleinden te weinig geoptimaliseerd en zelfs ongeschikt. Ik gebruik liever virtualisatie om een heleboel redenen ik noem de 4 (voor mij) belangrijkste:
-Provisioning
Ik bepaal welke hardware welke virtuele server tot zijn beschikking heeft.
-Mobiliteit (portability)
Ik kan door gemiddeld 3 bestanden te downloaden een volledig draaiende server op andere hardware zetten, zonder ook maar een instelling in deze virtuele server te veranderen.
-Redundantie
Als één applicatie crashed en 100% van de resources gaat gebruiken door bijv een geheugen lek (gebeurt vaak bij applicaties die lang aanstaan, zeker bij windows.) heeft dat (als je de virtualisatie software goed hebt geconfigureerd) GEEN invloed op de andere virtuele systemen die draaien en die zullen dan ook gewoon hun functie kunnen uitvoeren. Ook kan ik het volledige operating systeem dupliceren en in geval van een crash de kopie opstarten zonder downtime. (en met behulp van bijvoorbeeld modulair opgebouwde servers is het zelfs mogelijk om dataverlies helemaal te voorkomen.)
Last but not least: vmWare is niet gelimiteerd tot OS dus kun je Mac OSX, linux, Android en Windows op één host draaien, en nog tegelijk ook. En ja, de Gen8 microserver kan dat ook.
En dan komen we aan bij het gedeelte overhead, virtualisatie is JUIST bedoeld om de (grote) overhead van servers te voorkomen, meestal gebruik je niet alle geheugen in een server, en al zeker niet alle processorkracht. en dan gaan er resources verloren.
Als je de provisioning van hardware niet teveel beperkt verdelen alle virtuele servers de resources van de host server en kun je zelfs aan overprovisioning doen, dit brengt dan wel weer risico's met zich mee maar dan kun je feitelijk meer resources toewijzen dan de host daadwerkelijk heeft.
Zou ik dit aanbevelen? nee zeker niet, ik heb een afschuw van mensen die overprovisioning toepassen in een commerciële omgeving, maar ik heb een grotere hekel aan resources weggooien!
voorbeeld: als ik de gen8 alleen als PF firewall wil gebruiken en ik zou het bare metal installeren gooi ik ongeveer 1GB + 3GHz aan resources weg (pfSense kan werken met 256MB ram en een pII processor), daarom draai ik ook een VM met NAS mogelijkheden en een webscript.
Zentyal is een Ubuntu Linux variant die alle bovenstaande functies kan uitvoeren, maar niet dezelfde mooie interface hebben voor de nas omgeving, niet PF als firewall gebruikt en een ander webserver gebruikt. dus voldoet een alternatief niet aan mijn wensen.
Jou N40L kun je gewoon niet vergelijken met een Gen8 qua resources, en iedereen die meer hardware in zijn/haar server heeft gestoken heeft andere resources om over te beschikken.
Ook kun je de Celeron van nu niet meer vergelijken met de Celerons van vroeger, waar ze vroeger echt minderwaardig waren aan de pentium tegenhangers vallen de verschillen nu heel erg mee.
Standaard heeft de Gen8 voldoende pit om meer dan een VM te draaien.
Officieel gezien kun je onder de 2GB ram niet eens ESXi5.1 opstarten en onder de 4GB wil 5.5 niet eens installeren.
En als laatste vind jij een quad core xeon 2.5GHz (3.5GHz turbo) server met 16 GB aan geheugen weinig headroom/overhead hebben???

(een gen8 MicroServer met geheugen en processor upgrade heeft deze resources namelijk om mee te "spelen".)
[ Voor 3% gewijzigd door H00GiE op 12-02-2015 00:15 ]
"Wat gebeurt er als ik ook dit knopje dr...."
Owner of DBIT Consultancy | DJ BassBrewer
Gen 7 kan je gewoon met WOL op laten starten? Mijn N40L gaat om 23:59 uit en wordt om 08:00 dagelijks weer ingeschakeld.DennusB schreef op donderdag 12 februari 2015 @ 14:14:
Iemand enig idee of je de Gen 8 microserver elke dag om een specifieke tijd op kan laten starten? Of mist ie die functie in de bios (net als de Gen7)?
Bos Stern Service Onafhankelijke automotive dienstverlening; diagnose, codering, retrofit, sleutelservice, ECU en tuning. Projecten
Ja, WOL. Maar ik bedoel dat je gewoon in de bios een opstart-tijd zetHari-Bo schreef op donderdag 12 februari 2015 @ 14:17:
[...]
Gen 7 kan je gewoon met WOL op laten starten? Mijn N40L gaat om 23:59 uit en wordt om 08:00 dagelijks weer ingeschakeld.
Owner of DBIT Consultancy | DJ BassBrewer
Maar wat maakt het uit welke methode gebruikt wordt, het lijkt me dat een server toch wel aan het netwerk gekoppeld is dus waarom geen WOL?DennusB schreef op donderdag 12 februari 2015 @ 14:23:
[...]
Ja, WOL. Maar ik bedoel dat je gewoon in de bios een opstart-tijd zet
Bos Stern Service Onafhankelijke automotive dienstverlening; diagnose, codering, retrofit, sleutelservice, ECU en tuning. Projecten
Omdat er dan weer een device moet zijn wat dat WOL pakketje moet verzendenHari-Bo schreef op donderdag 12 februari 2015 @ 14:25:
[...]
Maar wat maakt het uit welke methode gebruikt wordt, het lijkt me dat een server toch wel aan het netwerk gekoppeld is dus waarom geen WOL?
Owner of DBIT Consultancy | DJ BassBrewer
Ik heb zelf mijn N40L maar aan een klik-aan-klik-uit stopcontact gehangen (en in BIOS ingesteld dat hij altijd aan moet gaan op power restore), en dat bedien ik dmv een raspberry pi die 24x7 aanstaat.
edit:
Zou je ook met een goedkope tijdschakelaar kunnen doen.DennusB schreef op donderdag 12 februari 2015 @ 14:23:
[...]
Ja, WOL. Maar ik bedoel dat je gewoon in de bios een opstart-tijd zet

[ Voor 38% gewijzigd door u_nix_we_all op 12-02-2015 14:45 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Je wil niet weten hoevaak ik loop te prutsen met test programma's en hoeveel meuk er soms achterblijft en ik me dan de klaplazerus loop te zoeken waar zich eea nu bevindrippiedoos schreef op woensdag 11 februari 2015 @ 22:39:
Waarom wil iedereen toch altijd vmware draaien? Waarom niet gewoon 1x Ubuntu server LTS erop en alles native draaien? Geen geklier met bijhouden van meerdere os'en en veel minder overhead, wat microservers toch al niet veel hebben. Mijn ervaring met een N40L is dat het prima bare metal draait en lekker snel zonder extra geklier. En mocht je toch willen gaan prutsen met VM's kun je altijd nog virtualbox op een laptop gebruiken.
Daarnaast vind ik het klooien met VM's en wat al niet meer gewoon af en toe een uitdaging.
There are no secrets, only information you do not yet have
Dat zijn zeer goede berichten. Dan weet ik wat ik kan doen met mijn 2e gen8 ;-) super !Homer1983 schreef op woensdag 11 februari 2015 @ 17:03:
[...]
Ik heb geen wijzigingen aangebracht in geen enkele configuratie van xpenology, behalve gebruikers en admin wachtwoord. (zoals eerder gezegd misschien "draait" het geheel misschien niet optimaal qua snelheid, maar 80MB/s voor een windows share vind ik acceptabel.) en ik heb tot voor 2 weken terug geen ervaring met DSM dus weet ik niet of ik hetgeen waar ik OwnCloud voor gebruik niet (of wel) zou kunnen in DSM 5.1
Een soort van blijven hangen in gewoontes dus. (client van OwnCloud synchroniseert automatisch mijn bestanden en laat mijn telefoon toegang hebben tot mijn bestanden. daarnaast kan ik op elke willekeurige laptop of pc mijn documenten openen zonder bijv word of acrobat reader te moeten installeren.)
Wat betreft xpenology stabiliteit heb ik gister de update gedaan van DSM 5.0 naar nieuwe bootloader + DSM 5.1, en direct erna een volledige backup gedaan van 540GB en heb geen problemen kunnen merken.
extra netwerk poorten is niet zo moeilijk om te bedenken, toch?nouja, ik zal het nader verklaren:
- per netwerk poort heb ik 1Gbit/s bandbreedte ter beschikking, bij een uplink van 1x 1GB/s en 10PC's moet ik dus 1GB/s delen door 10, nu met 3 x 1Gb/s zijn het 3 PC's / Gbit nic.
ga ik uitbreiden naar meer pc's dan hoef ik in principe niks te doen behalve pc's bijplaatsen en aansluiten.
(80MB/s ≈ 640mbit/s dat is dus ongeveer 64% van een enkele gbit lan verbinding. en die bandbreedte gebruikt alleen de nas dus al op dit moment.)
- geen (extra) managed switches nodig (alles direct op de server of met zeer kleine switches + geen vlans nodig, dat scheelt 2 of 3 managed switches dat is een kosten besparing van behoorlijk wat euros, dat had ik eerder wel met de vorige "router/firewall".)
- ik kan dus "domme" switches gebruiken en toch sommige delen van het netwerk scheiden. (ik weet, het kan op 1001 manieren, dit is mijn manier.)
- per subnet ("fysiek" gescheiden per nic) kan ik de firewall, dns, DHCP en proxy instellen. (ook dit kan op 101 manieren, maar wederom: dit is mijn manier.)
bovendien: pfSense VM is mijn router...4e gbit lan = direct verbonden met het genexis glas"modem", en ja alle standaard poorten staan helemaal dicht (alles wat ik extern wil gebruiken geforward op niet-standaard poorten en de rest staat pot dicht.) en vmware management network zit op een andere netwerk aansluiting dan WAN.
(klein risico als de pfSense VM crashed of ESXi hapert, maar dan sluit ik één pc met statisch ip aan op de hp en kan alsnog bij ESXi)
Ik gebruik vSphere (de basis van ESXi) ook op andere servers dus heb ik een behoorlijke licentie, deze server gebruikt dan ook gewoon de volledige licentie.
Voor zover ik weet is de licentie voor testdoeleinden vmware ESXi "gratis".![]()
Als ik dat zo hoor in combinatie met Xen virtualisatie, ben je continue bezig met "test opstellingen"
En ja ik heb een 'test' licentie.
There are no secrets, only information you do not yet have
Ik heb OpenMediavault, Xpenology, Windows 2008R2 gedraaid fysiek op mijn server en nog nooit problemen gehad met WOL, het werkt altijd naar behoren.u_nix_we_all schreef op donderdag 12 februari 2015 @ 14:42:
Er zijn wel een hoop issues met WOL op de Gen7, zo te zien erg afhankelijk van de drivers en manier van afsluiten.
Bos Stern Service Onafhankelijke automotive dienstverlening; diagnose, codering, retrofit, sleutelservice, ECU en tuning. Projecten
Ik had een beetje moeite om het met OpenIndiana goed te krijgen, maar waarschijnlijk moet je dan met ethtool (net als op linux) aan de slag. Op OpenIndiana heb je "ndd", maar dat lukte niet echt. Anyway, ik heb het nu even zo gedaan en dat bevalt bestHari-Bo schreef op donderdag 12 februari 2015 @ 20:30:
[...]
Ik heb OpenMediavault, Xpenology, Windows 2008R2 gedraaid fysiek op mijn server en nog nooit problemen gehad met WOL, het werkt altijd naar behoren.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Ik gebruik overigens ESXi 5.5 vanaf een USB Stick
Wat is jullie ervaring met deze bios mod en welke versie moet ik gebruiken?
De standaard poorten zijn al 3Gbps volgens mij. De bios mod is alleen om de sata poort van de optical drive ook op 3Gbps en AHCI mode te kunnen zetten.raymonvdm schreef op vrijdag 13 februari 2015 @ 00:23:
Ik heb sinds kort ook een Proliant N40L en heb gezien dat ik met een bios mod SATA300 poorten kan krijgen i.p.v SATA150. Nu denk ik dat dit wel gaat helpen in VMware want de disken lijken te traag (1.5TB Samsung) en ik wil ook m`n Intel 320 SSD weer toevoegen.
Ik gebruik overigens ESXi 5.5 vanaf een USB Stick
Wat is jullie ervaring met deze bios mod en welke versie moet ik gebruiken?
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Als ik de specs bekijk in de wiki dan zouden ze slechts SATA150 zijnu_nix_we_all schreef op vrijdag 13 februari 2015 @ 11:03:
[...]
De standaard poorten zijn al 3Gbps volgens mij. De bios mod is alleen om de sata poort van de optical drive ook op 3Gbps en AHCI mode te kunnen zetten.
http://n40l.wikia.com/wiki/Base_Hardware_N40L
Als ik de specs van HP zelf bekijk wel: http://www8.hp.com/h20195...aspx/c04111079.pdf?ver=17raymonvdm schreef op vrijdag 13 februari 2015 @ 12:35:
[...]
Als ik de specs bekijk in de wiki dan zouden ze slechts SATA150 zijn
http://n40l.wikia.com/wiki/Base_Hardware_N40L
(pagina 20: Embedded SATA controller: SATA Protocol SATA 2, 3Gb/s)
Overigens, ik draai op stock firmware/bios. Maar ik gebruik de ODD Sata-poort ook niet, ik heb er een extra controller in (inmiddels 10 disks, komen binnenkort waarschijnlijk nog 1 of 2 2,5" diskjes bij)
[ Voor 20% gewijzigd door u_nix_we_all op 13-02-2015 13:24 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Nu vraag ik me nog twee dingen af:
- Is het handig om voor die derde schijf een identieke schijf 2ehands te kopen of kan ik gewoon iedere willekeurige 2 TB schijf kopen en deze gebruiken in combinatie met de twee Samsung schijven?
- Hoeveel geheugen zal ik er bij prikken 4GB of 8GB? Met 8GB ben ik meteen toekomstvast en kan ik in de toekomst de server eventueel ook nog inzetten voor andere taken. Met 4GB (dus 6GB) moet het alleen voor de NAS functionaliteiten prima werken volgens mij. Wat zijn jullie ideeën daarover?
[ Voor 3% gewijzigd door wmn79 op 16-02-2015 10:38 ]
De ODD poort denkt dat hij een ATA poort is en komt niet verder dan SATA1 (170MB/Sec met een Intel 320SSD) maar hoe zit het met de eSATA poort is die wel SATA2 (Ik heb even geen kabel om te kunnen testen)
Ik heb nu een van de non-hotswap stekkers losgeschroefd en rechtstreeks in de SSD geprikt
1
2
3
4
5
| root@lubuntu:~# hdparm -t /dev/sdb /dev/sdb: Timing buffered disk reads: 664 MB in 3.00 seconds = 221.10 MB/sec root@lubuntu:~# |
Misschien toch maar twee van deze kopen
http://www.kleinspul.nl/i...p?productID=1910&cat=1524
of deze
http://www.amazon.com/New...ter-Bracket/dp/B005PZDVF6
Het is toch de bios hack geworden
[ Voor 68% gewijzigd door raymonvdm op 14-02-2015 01:50 ]
Overigens is 150MB/s voor een harddisk al heel knap.
Heeft niemand ideeën over deze twee vragen? Misschien kan ik het ook beter in het ZFS topic posten.wmn79 schreef op vrijdag 13 februari 2015 @ 18:55:
Ik wil binnenkort de Proliant Microserver G1610T gaan kopen en deze in gaan zetten om mijn oude Conceptronic CH3SNAS met Alt-F firmware te vervangen. Ik wil op de server of Freenas of ZFSguru gaan draaien. Daarbij wil ik het liefst de twee schijven uit mijn oude NAS (2x Samsung Spinpoint F4 EG HD204UI, 2TB) hergebruiken en er een derde 2TB disk bij te kopen zodat ik de drie schijven in raidz1 kan zetten. Qua data red ik dat makkelijk, momenteel zit ik nog net niet op 1TB.
Nu vraag ik me nog twee dingen af:
- Is het handig om voor die derde schijf een identieke schijf 2ehands te kopen of kan ik gewoon iedere willekeurige 2 TB schijf kopen en deze gebruiken in combinatie met de twee Samsung schijven?
- Hoeveel geheugen zal ik er bij prikken 4GB of 8GB? Met 8GB ben ik meteen toekomstvast en kan ik in de toekomst de server eventueel ook nog inzetten voor andere taken. Met 4GB (dus 6GB) moet het alleen voor de NAS functionaliteiten prima werken volgens mij. Wat zijn jullie ideeën daarover?
[ Voor 3% gewijzigd door wmn79 op 16-02-2015 10:38 ]
Ideeën over zfs staan eerder in dit topic, zfs op een basis machine (geen VM) werkt goed als je 8GB+ puur geheugen voor je set kan gebruiken, dus hoeveelheid geheugen is zeker een factor voor de snelheid. meer ram = snellere opslag.wmn79 schreef op maandag 16 februari 2015 @ 08:12:
[...]
Heeft niemand ideeën over deze twee vragen? Misschien kan ik het ook beter in het ZFS topic posten.
ik quote even vanuit een ander forum: "...ZFS with all the fantastic-ness and terrible-ness that includes. This is not a decision to be made lightly. ZFS likes RAM. 8G is a minimal starting point for 4TB of storage. With 8TB, you'll want 16G of RAM for the storage needs."
Wat is nou de (meer)waarde van ZFS? Je hebt toch niet meer dan 2Gbit/s nodig hebben ivm maximale netwerk snelheid dus is een raidsetje dat 120-160MB/s (sata 300 dus) aankan is al voldoende en dat kan de interne controller wel halen. Dan is het beter (kosten en resource technisch gezien) om hardware raid te gaan aanschaffen om de redundantie en data zekerheid te garanderen. (https://b3n.org/m1015-hba-in-the-hp-gen8-microserver/) bovendien geeft hardware raid kaart heel wat meer voordelen. en zo'n m1015 kost evenveel (2e hands of ebay) als 8GB ram...
in 't algemeen is het gunstig om direct 1x 8GB ram te halen, dan kun je door je aankoop van geheugen ook nog permitteren om misschien wel meer te doen met je server, want een Gen8 Microserver kan echt wel meer dan alleen data opslag...
[ Voor 5% gewijzigd door H00GiE op 16-02-2015 20:52 ]
"Wat gebeurt er als ik ook dit knopje dr...."
Bedankt voor je uitgebreide reply.Homer1983 schreef op maandag 16 februari 2015 @ 20:48:
[...]
Ideeën over zfs staan eerder in dit topic, zfs op een basis machine (geen VM) werkt goed als je 8GB+ puur geheugen voor je set kan gebruiken, dus hoeveelheid geheugen is zeker een factor voor de snelheid. meer ram = snellere opslag.
ik quote even vanuit een ander forum: "...ZFS with all the fantastic-ness and terrible-ness that includes. This is not a decision to be made lightly. ZFS likes RAM. 8G is a minimal starting point for 4TB of storage. With 8TB, you'll want 16G of RAM for the storage needs."
Wat is nou de (meer)waarde van ZFS? Je hebt toch niet meer dan 2Gbit/s nodig hebben ivm maximale netwerk snelheid dus is een raidsetje dat 120-160MB/s (sata 300 dus) aankan is al voldoende en dat kan de interne controller wel halen. Dan is het beter (kosten en resource technisch gezien) om hardware raid te gaan aanschaffen om de redundantie en data zekerheid te garanderen. (https://b3n.org/m1015-hba-in-the-hp-gen8-microserver/) bovendien geeft hardware raid kaart heel wat meer voordelen. en zo'n m1015 kost evenveel (2e hands of ebay) als 8GB ram...
in 't algemeen is het gunstig om direct 1x 8GB ram te halen, dan kun je door je aankoop van geheugen ook nog permitteren om misschien wel meer te doen met je server, want een Gen8 Microserver kan echt wel meer dan alleen data opslag...
ZFS spreekt me vooral aan i.v.m. data integriteit en de self-healing eigenschappen. Heb nu twee 2 TB schijven in RAID-1 maar na wat inlezen lees ik dat ik ipv RAIDZ1 misschien beter voor RAID1 onder ZFS kan gaan. Aangezien bij een kapotte schijf in RAIDZ1 met 3 schijven de 2 andere schijven zo hard aan het werk moeten dat er vaak nog een sneuvelt en dan ben je data kwijt. Ben nog niet erg thuis in ZFS dus alle advies is welkom. Denk dat ik eerst even met de on board controller ga proberen en misschien later een hardware RAID kaart ga kopen.
Nu ik wat verder heb gekeken lijkt het mij ook handig om ook ESXi te gaan gebruiken zodat ik later wat kan gaan testen. XPenology lijkt me ook wel interessant ivm met alle aps maar die ondersteunen geen ZFS, zag wel iets over btrfs en Synology ergens op tweakers maar dat zal voorlopig nog niet beschikbaar zijn.
Ben er nog niet helemaal uit. Weet wel dat ik in ieder geval 8GB erbij bestel zodat ik 10GB in de server heb. Daarmee kan ik denk ik wel even vooruit en kan ik een beetje gaan klooien.
Je kunt het ook overdrijven natuurlijk. De vaak genoemde vuistregel is 1GB ram per TB opslag. Maar geloof me, mijn ZFS NAS met netto 15TB ruimte doet het echt prima met 4GB ram."...ZFS with all the fantastic-ness and terrible-ness that includes. This is not a decision to be made lightly. ZFS likes RAM. 8G is a minimal starting point for 4TB of storage. With 8TB, you'll want 16G of RAM for the storage needs."
Hardware RAID haalt bij lange na niet de data-zekerheid (geen checksums tegen silent corruption) van ZFS (of btrfs for that matter), redundancy heb je zelf in de hand.Dan is het beter (kosten en resource technisch gezien) om hardware raid te gaan aanschaffen om de redundantie en data zekerheid te garanderen.
[ Voor 27% gewijzigd door u_nix_we_all op 17-02-2015 17:51 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Het zal het prima doen, nu op dit moment, als ik dan kijk naar lange duur; heb jij 100% garantie van alles wat ZFS voor jou kan betekenen, of moet je (gezien de geringe resources die jij ZFS geeft) ook concessies doen op de betrouwbaarheid en functionaliteit van ZFS? Als je die garanties ervaart, heb je hier een praktisch voorbeeld van? heb je al eens een bestandssysteem moeten repareren?u_nix_we_all schreef op dinsdag 17 februari 2015 @ 17:47:
[...]
Je kunt het ook overdrijven natuurlijk. De vaak genoemde vuistregel is 1GB ram per TB opslag. Maar geloof me, mijn ZFS NAS met netto 15TB ruimte doet het echt prima met 4GB ram.
[...]
Vuistregels zijn er vast niet voor het hier en nu, wanneer alles naar behoren functioneert.
Ik krijg zelf behoorlijk twijfels over de langere duur, en die twijfels zouden een redundant en corruptie-veilig bestandssysteem eigenlijk weg moeten nemen. In mijn optiek ligt daar de essentie ook van ZFS: het buikgevoel. De theoretische veiligheid.
Praktische ervaringen zullen doorslag geven over het daadwerkelijke nut van ZFS (binnen de particuliere of MKB omgeving)
Je hebt 100% gelijk dat je redundantie zelf in de hand hebt.u_nix_we_all schreef op dinsdag 17 februari 2015 @ 17:47:
Hardware RAID haalt bij lange na niet de data-zekerheid (geen checksums tegen silent corruption) van ZFS (of btrfs for that matter), redundancy heb je zelf in de hand.
Maar ZFS is niet beter dan Raid het werkt gewoon anders, slaat op een andere manier data op, en dat veroorzaakt elders weer andere effecten (zoals het hongerige ram gebruik)
Pariteit blijft in essentie een tool voor redundantie, en checksum is leuk tenzei je geen redundantie hebt.
Data scrubbing (checksum) lost het silent corruption probleem al op en dat doet xpenology (DSM5.1) wel voor je (dit is wat wmn79 al aan zat te denken om te gaan gebruiken) bovendien vraag ik me af wanneer treed er silent corruption op? silent corruption treed volgens de papieren pas op als er al iets fout is gegaan met je data, dus na een repair of terughalen van corrupted data, zfs is (theoretisch) een goed middel voor na dat het fout gaat.
Mij is verder geleerd dat voorkomen beter is dan genezen.
Met alle respect voor de goede dingen die ZFS (theoretisch) kan, is en blijft het een sort hype, met problemen die pas zijn uitgevonden sinds de "open source" versie van het sun bestandsysteem.
Wat zijn nou de daadwerkelijke risico's binnen een thuis of MKB situatie (want daar is de Microserver voor bedoeld en daar gaat dit topic over.)
En zijn deze risico's te beperken met andere (misschien wel betere, simpelere of goedkopere) manieren?
Ik draai bijvoorbeeld liever 365 incrementele backups per jaar. (
Daarnaast, binnen een thuisopstelling heb je echt geen zfs, raid5 of raidz nodig.
(Ja ik vind een raid5 opstelling al overkill voor thuis.)
M.I. heb je ook geen 15TB nodig maar dat is een hele andere kwestie.

(menig IT specialist heeft zich al aan zulke uitspraken gebrand.
*kuch* 640KB geheugen, 10MB harddisk *kuch*)
Als je werkelijk zo bang bent voor data corruptie dan regel je voor de opslag een UPS en zorg je voor (externe) backups.
Voor mij is een NAS ook geen backup, NAS is een (continue) benaderbare dynamische externe bron en extern opslagmedium voor data. Een backup moet voor mij zo statisch mogelijk zijn, het liefst zelfs zonder stroom en/of toegang functioneren (data vast houden) over een langere periode (3 - 5 jaar) of tot je het nodig hebt.
Door mijn pessimistische houding en backup-gedrag ben ik (na één nare ervaring*) nooit (meer) door data corruptie of data loss "verrast".
*Ik heb op een gecrashte 80GB IDE hardeschijf van ruim 8 jaar terug een unieke multitrack opname van het laaste optreden van een band staan en door de crash (fysieke schijf is gevallen tijdens spindown) is de schijf niet meer te benaderen.
[ Voor 2% gewijzigd door H00GiE op 18-02-2015 05:29 . Reden: ZFS werkt, sun gebruikte het ook, dat is niet de vraag, het nut van de toepassing binnen thuis / mkb omgevingen dat geeft mij twijfels. ]
"Wat gebeurt er als ik ook dit knopje dr...."
Als je met minder functionaliteit bedoelt dat ik geen joekel van een L2ARC kan gebruiken, of heel veel dedup op mijn pool wil doen, dan heb je gelijk.Homer1983 schreef op woensdag 18 februari 2015 @ 05:15:
[...]
Het zal het prima doen, nu op dit moment, als ik dan kijk naar lange duur; heb jij 100% garantie van alles wat ZFS voor jou kan betekenen, of moet je (gezien de geringe resources die jij ZFS geeft) ook concessies doen op de betrouwbaarheid en functionaliteit van ZFS?
Maar als je dat ook moet vragen over de betrouwbaarheid, krijg ik de indruk dat je van ZFS niet genoeg begrijpt.
Nog geen ZFS bestandsysteem als je dat bedoelt. Wederom, met wat meer kennis van ZFS had je die vraag vermoedelijk niet eens gesteld. Je kunt ZFS wel stuk krijgen, maar dat is vrijwel altijd op zpool niveau, ik heb nog nooit gehoord van een ZFS binnen een pool wat stuk ging.Als je die garanties ervaart, heb je hier een praktisch voorbeeld van? heb je al eens een bestandssysteem moeten repareren?
En ja, ik heb wel degelijk ervaring met andere bestandsystemen, ik denk ook dat er niet zo veel mensen zijn die zich realiseren hoeveel geheugen je nodig hebt om bijvoorbeeld een 20TB XFS filesystem door een filesystem check heen te laten komen (dan hebben we het nog geeneens over reparatie)
[...]
Misschien dat je dit even in het ZFS topic wilt posten, dan kunnen we/ze je daar wat bijscholen. Ik ga er niet eens verder op in, behalve de vermelding dat ik blij ben dat ik niet van 365 incementele backups hoef te restorenMaar ZFS is niet beter dan Raid het werkt gewoon anders,
Backups zijn sowieso een must. Een UPS daarentegen is voor een HP Microserver dan weer vrij onzinnig volgens mij.Als je werkelijk zo bang bent voor data corruptie dan regel je voor de opslag een UPS en zorg je voor (externe) backups.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Wil mijn bakbeest server vervangen met een mooie microserver, maar 16GB is echt te weinig (en hoop dat dat in de volgende generatie niet meer is). Als we dan toch mogen dromen hoop ik ook dat ze meer bays en/of plekken voor 2,5" schijven toevoegen.
3TB HDDs erin, maar welk merk? Toshiba? Iemand daar ervaring mee? scheelt me 25 euro per HDD (en ik wil er 4) ..
iemand wat tips?
Note: het gaat me niet om snelheid, eerder stabiliteit. Ik werk 80% toch draadloos en alleen via interne zaken via de servers heb ik wat meer snelheid nodig, maar of dat nu 40MB/s of 60MB/s is maakt niet zoveel uit.
There are no secrets, only information you do not yet have
zelf heb ik er 2x wd red 3tb in zitten, dit werkt goed en heerlijk stilzeroday schreef op vrijdag 20 februari 2015 @ 21:37:
ik wil wel een 2e gen8 erbij, maar ik zit te dubben
3TB HDDs erin, maar welk merk? Toshiba? Iemand daar ervaring mee? scheelt me 25 euro per HDD (en ik wil er 4) ..
iemand wat tips?
Note: het gaat me niet om snelheid, eerder stabiliteit. Ik werk 80% toch draadloos en alleen via interne zaken via de servers heb ik wat meer snelheid nodig, maar of dat nu 40MB/s of 60MB/s is maakt niet zoveel uit.
iPhone 11 | 3x HP Microserver gen8 E3-1265LV2 | www.applebuyguide.com
Verwijderd
Ik ben benieuwd of er hier iemand een micro server gebruikt als router binnen een bedrijf (pfsense).
Ik zit er namelijk over na te denken om een pfsense router te bouwen en zoek nu uit hoe veel hardware ik nodig heb voor een bedrijf.
Gemiddeld zo'n 80-150 devices (kabel + wifi), glasvezel 100mbit. Word nu gedaan door een versleten Cisco catalyst met 265 MB.
Zou de hardware van een N40L (heb ik nog liggen) of een Gen8 (evt met upgrade) met 8gb ram deze klus kunnen klaren ? Puur dhcp, firewall, geen vpn.
Dit kan een N40L zeker!W.Zijlstra. schreef op vrijdag 20 februari 2015 @ 22:44:
Hi allen,
Ik ben benieuwd of er hier iemand een micro server gebruikt als router binnen een bedrijf (pfsense).
Ik zit er namelijk over na te denken om een pfsense router te bouwen en zoek nu uit hoe veel hardware ik nodig heb voor een bedrijf.
Gemiddeld zo'n 80-150 devices (kabel + wifi), glasvezel 100mbit. Word nu gedaan door een versleten Cisco catalyst met 265 MB.
Zou de hardware van een N40L (heb ik nog liggen) of een Gen8 (evt met upgrade) met 8gb ram deze klus kunnen klaren ? Puur dhcp, firewall, geen vpn.
Persoonlijk zou ik gewoon een Mikrotik plaatsen, goedkoper verbruik minder stroom en ervoor gemaakt.
Bijvoorbeeld: http://www.interprojekt.com.pl/rb951g-2hnd-p-1370.html
pfSense in gebruik als router, proxy en firewall op gen8.W.Zijlstra. schreef op vrijdag 20 februari 2015 @ 22:44:
Hi allen,
Ik ben benieuwd of er hier iemand een micro server gebruikt als router binnen een bedrijf (pfsense).
Ik zit er namelijk over na te denken om een pfsense router te bouwen en zoek nu uit hoe veel hardware ik nodig heb voor een bedrijf.
Gemiddeld zo'n 80-150 devices (kabel + wifi), glasvezel 100mbit. Word nu gedaan door een versleten Cisco catalyst met 265 MB.
Zou de hardware van een N40L (heb ik nog liggen) of een Gen8 (evt met upgrade) met 8gb ram deze klus kunnen klaren ? Puur dhcp, firewall, geen vpn.
meer informatie over welke hardware bij welke snelheden:
https://www.pfsense.org/hardware/#sizing
Dit zijn ruwe schattingen, ik heb op een itx servertje met Atom 330 proc meer dan eens een volledige lanparty op 3 glas aansluitingen (load balancing, multigateway, firewall, DHCP, DNS en ips) laten draaien (specs: Dual core 1.6GHz, 4GB ram, 30GB SSD, quad gigabit pcie NIC)
350 aansluitingen ~300mbps down 120mbps up data (300pc's, tientallen xbox en playstations, wat draadloos spul en 12 ip telefoons) op één netwerk en het werkte (na vele tweaks in qos) naar behoren. inmiddels upgrade naar gen8 gedaan en draai nu pfsense als VM onder ESXi en gebruik ik ook de squid proxy functie.
Dus met de hardware van een N40L zit je wel goed, als pure pfsense machine. (denk bij de N40L wel om een 2e nic met low profile bracket. de gen8 heeft 2 aansluitingen dus niet echt een nic extra nodig.)
[ Voor 4% gewijzigd door H00GiE op 22-02-2015 02:14 ]
"Wat gebeurt er als ik ook dit knopje dr...."
Sinds oktober (2014) aan gestaan en de binnenkant was helemaal schoon. Het filter is een op maat geknipt stoffilter van het soort zoals je ze ook in sommige stofzuigers hebt. Door deze achter de deur te plaatsen kan de lucht gewoon door en wordt het stof mooi tegengehouden zonder verschil in temperatuur (periodiek in de gaten gehouden met speedfan).
Stof zit alleen in het filter en aan de buitenkant van de deur wat makkelijker schoon te houden is dan binnen in. Test geslaagd!
Bij het zoeken naar een nieuwe SSD vind ik het nogal lastig om alle mitsen en maren mee te nemen. Het liefst heb ik een zo goed mogelijke SDD die de maximale performance haalt op de ODD poort en die ervoor zorgt dat de fan naar 6% kan. Daarnaast is het me niet helemaal duidelijk hoe het zit met trim. Kan ik dit nu beter wel of niet hebben op de SSD. Had zelf deze Sandisk al op het oog, zijn er betere kandidaten die ik over het hoofd heb gezien?
Crucial MX100/M550 en liever de laatste, gezien beiden power capacitors hebben. Tevens ondersteunen alle SSD's tegenwoordig TRIM, alleen werkt dat niet met ESXi. Gelukkig hebben alle SSD's ook een vorm van GC garbage collection wat ervoor zorgt dat de performance acceptabel blijft. Als je wil dat je de performance altijd goed blijft bij de SSD moet je hem onderpartioneren als je dus een 256GB SSD hebt bijvoorbeeld dan zorg je ervoor dat je datastore maar 220GB is, dan heeft de SSD meer lege cellen tot zijn beschikking en blijft hij snel, ondanks dat er geen TRIM aanwezig is. Ik heb zelf nu drie jaar een Samsung 830 256GB met ESXi en heb daardoor nog steeds maximale performance. Ik raad je af om een 128GB model te kopen, ten eerste is de performance daar altijd minder bij dan een 256GB model en ten tweede het prijsverschil tussen beiden is te klein om 128GB te rechtvaardigen.wmn79 schreef op maandag 23 februari 2015 @ 13:29:
Heb inmiddels de Microserver Gen8 G1610T met 10GB ram thuis staan en ESXi geïnstalleerd op een microsd-kaartje. Nu ben ik me nog aan het oriënteren op een SSD van ongeveer 120GB die ik dan in de ODD (optical disk drive) bay wil installeren zodat ik daar VM-machines vanaf kan booten zonder dat de schijven in 4 bays daarvoor gebruikt hoeven worden.
Bij het zoeken naar een nieuwe SSD vind ik het nogal lastig om alle mitsen en maren mee te nemen. Het liefst heb ik een zo goed mogelijke SDD die de maximale performance haalt op de ODD poort en die ervoor zorgt dat de fan naar 6% kan. Daarnaast is het me niet helemaal duidelijk hoe het zit met trim. Kan ik dit nu beter wel of niet hebben op de SSD. Had zelf deze Sandisk al op het oog, zijn er betere kandidaten die ik over het hoofd heb gezien?
[ Voor 6% gewijzigd door Zenix op 23-02-2015 13:50 ]
Dankjewel voor deze informatie, dat geeft mij een goeie basis! Raad je het aan om PfSense in esxi te draaien? Lijkt mij erg handig m.b.t beheerbaarheid maar hoe zit het met de performance drain?Homer1983 schreef op zondag 22 februari 2015 @ 02:11:
[...]
pfSense in gebruik als router, proxy en firewall op gen8.
meer informatie over welke hardware bij welke snelheden:
https://www.pfsense.org/hardware/#sizing
Dit zijn ruwe schattingen, ik heb op een itx servertje met Atom 330 proc meer dan eens een volledige lanparty op 3 glas aansluitingen (load balancing, multigateway, firewall, DHCP, DNS en ips) laten draaien (specs: Dual core 1.6GHz, 4GB ram, 30GB SSD, quad gigabit pcie NIC)
350 aansluitingen ~300mbps down 120mbps up data (300pc's, tientallen xbox en playstations, wat draadloos spul en 12 ip telefoons) op één netwerk en het werkte (na vele tweaks in qos) naar behoren. inmiddels upgrade naar gen8 gedaan en draai nu pfsense als VM onder ESXi en gebruik ik ook de squid proxy functie.
Dus met de hardware van een N40L zit je wel goed, als pure pfsense machine. (denk bij de N40L wel om een 2e nic met low profile bracket. de gen8 heeft 2 aansluitingen dus niet echt een nic extra nodig.)
Bedankt voor de info, is Crucial het enige merk met power capacitators? Daarnaast zit ik te kijken naar een verloopkabeltje voor de fdd connector. Gaat dat lukken met deze? Vind de verzendkosten voor die vanuit Amerika wat hoog.Zenix schreef op maandag 23 februari 2015 @ 13:47:
[...]
Crucial MX100/M550 en liever de laatste, gezien beiden power capacitors hebben. Tevens ondersteunen alle SSD's tegenwoordig TRIM, alleen werkt dat niet met ESXi. Gelukkig hebben alle SSD's ook een vorm van GC garbage collection wat ervoor zorgt dat de performance acceptabel blijft. Als je wil dat je de performance altijd goed blijft bij de SSD moet je hem onderpartioneren als je dus een 256GB SSD hebt bijvoorbeeld dan zorg je ervoor dat je datastore maar 220GB is, dan heeft de SSD meer lege cellen tot zijn beschikking en blijft hij snel, ondanks dat er geen TRIM aanwezig is. Ik heb zelf nu drie jaar een Samsung 830 256GB met ESXi en heb daardoor nog steeds maximale performance. Ik raad je af om een 128GB model te kopen, ten eerste is de performance daar altijd minder bij dan een 256GB model en ten tweede het prijsverschil tussen beiden is te klein om 128GB te rechtvaardigen.
Wat ik gedaan heb is een 4 pins molex verleng stekker gepakt en een molex->sata hier op gemod.wmn79 schreef op dinsdag 24 februari 2015 @ 11:01:
[...]
Bedankt voor de info, is Crucial het enige merk met power capacitators? Daarnaast zit ik te kijken naar een verloopkabeltje voor de fdd connector. Gaat dat lukken met deze? Vind de verzendkosten voor die vanuit Amerika wat hoog.
een kant de molex los prikken en nieuwe stekkers er aanzetten waarbij de verlengkabel en de sata kabel aangesloten zijn, in de molexstekker prikken en ertussen zetten.
iPhone 11 | 3x HP Microserver gen8 E3-1265LV2 | www.applebuyguide.com
Nee, sommige Intels ook, maar crucial is stuk goedkoper. Over de aansluiting sluit ik mij aan bij de bovenbuurman.wmn79 schreef op dinsdag 24 februari 2015 @ 11:01:
[...]
Bedankt voor de info, is Crucial het enige merk met power capacitators?
[ Voor 10% gewijzigd door Zenix op 24-02-2015 17:35 ]
Met een gen8 kun je met ESXi meer software en/of modules draaien naast pfsense, en komen er meer verbindingen of meer bandbreedte dan heb je de processorkracht al in huis.W.Zijlstra. schreef op maandag 23 februari 2015 @ 14:22:
[...]
Dankjewel voor deze informatie, dat geeft mij een goeie basis! Raad je het aan om PfSense in esxi te draaien? Lijkt mij erg handig m.b.t beheerbaarheid maar hoe zit het met de performance drain?
Daarnaast vind ik de portabiliteit heel fijn, want ik kan zo in een paar minuten 'n X aantal servers repliceren, dupliceren en installeren.
Met een N40L of de andere AMD, zou ik geen virtualisatie gebruiken voor pfsense ivm gelimiteerde resources. 't kan wel en dan heb je wederom die zelfde prettige voordelen van ESXi, maar dan heb je nauwelijks of geen groei mogelijkheden.
Ik heb de vertragingen toevallig zitten uitzoeken: er zit een verschil tussen bare metal en virtueel van 0,3-1,5ms vertraging per fysieke interface. gemiddeld krijg ik 6ms ping op AMSIX in plaats van 4ms. dat is dus ping > PC >(em1)> PFsense >(em0)> WAN (glas) 97mbps dus 97% van max glasvezel snelheid.
en de snelheden zijn merkbaar hoger en de pings zijn merkbaar lager dan de standaard netgear die ik bij het abonnement kreeg.
(dit is @ 34% load van een enkele kern van de gen8 (CPU 1 kern gelimiteerd tot maximaal 2GHz, RAM gelimiteerd tot 512MB)) dan houd je met de goedkoopste celeron gen8 microserver met 2GB RAM, 512MB over (eigenlijk 1.5GB maar ik weet even zo snel niet waar die 1gb naartoe gaat. waarschijnlijk het systeem zelf) en je houd (bruikbaar) 2ghz over.
"Wat gebeurt er als ik ook dit knopje dr...."
Verwijderd
[ Voor 74% gewijzigd door Verwijderd op 25-02-2015 15:27 ]
http://h17007.www1.hp.com...?product=MicroServer_Gen8
een ps110 routerLightStar schreef op zondag 08 maart 2015 @ 18:36:
Onlangs kwam ik onderstaande foto tegen (op de HP site) iemand enig idee wat voor apparaat boven op de ps1800-8 switch staat ?.
http://h17007.www1.hp.com...?product=MicroServer_Gen8
roelbb
Tnx! Zo'n idee had ik al maar kon niks vinden met de toevoeging router.
Er komen initieel 3 SSD's in. 1 boot en 2 in raid0 voor VM's. 2x een velociraptor van 600GB in raid1 voor backups en non-vm data (denk aan downloads etc).
Later komt er nog een p420 raidcontroller bij en 2 extra velociraptors. (Alle velociraptors zullen dan in de drivebays zitten, de boot SSD in de ODD plek en de 2 raid0 SSD's met de special drive caddy aan de zijkant binnenin.)
Morgen komt het binnen, speulen!

Wat voor ding is dat en waar kun je deze krijgen?de special drive caddy
Dure, maar mooie G8 config trouwens.
pricewatch: Icydock 2.5" to 3.5" SSD & SATA Hard Drive Converterrookie no. 1 schreef op woensdag 11 maart 2015 @ 21:56:
[...]
Wat voor ding is dat en waar kun je deze krijgen?
Dure, maar mooie G8 config trouwens.
Daarmee kun je een 2,5" schijf monteren in de 3,5" caddy die standaard in de Gen8 zit.
Edit: ik was te snel, er wordt een caddy bedoeld waarmee je de drives in je behuizing kunt monteren. Met een beetje creativiteit passen er ong 5 drives meer in je server dan HP had bedacht.
[ Voor 16% gewijzigd door cdoens op 11-03-2015 23:17 ]
Ford Focus SW, Peugeot 106 Rallye (work-in-progress)
Die caddy ken ik, maar inderdaad met wat voor ding (merk/artikelnr. en waar koop je het) kun je een of twee extra 2.5" disks in de server zelf plaatsen? Ik heb er wel wat configs mee gezien, maar waar kan je dat kopen?cdoens schreef op woensdag 11 maart 2015 @ 23:16:
[...]pricewatch: Icydock 2.5" to 3.5" SSD & SATA Hard Drive Converter
Daarmee kun je een 2,5" schijf monteren in de 3,5" caddy die standaard in de Gen8 zit.
Edit: ik was te snel, er wordt een caddy bedoeld waarmee je de drives in je behuizing kunt monteren. Met een beetje creativiteit passen er ong 5 drives meer in je server dan HP had bedacht.
heb ongeveer de zelfde config, 3SSD en 2 greens + 2x 2,5inch disk ingebouwd = 5x 2,5inch en 2x 3,5... moet nog eens opzoek gaan naar een raid controle voor de gen8chaoscontrol schreef op woensdag 11 maart 2015 @ 13:16:
Ok heb ook maar een G8 gekocht.Kon de herrie van de bak uit m'n signature niet meer uitstaan. Heb er gelijk 16GB bijgehaald en een Xeon E3-1240V2.
Er komen initieel 3 SSD's in. 1 boot en 2 in raid0 voor VM's. 2x een velociraptor van 600GB in raid1 voor backups en non-vm data (denk aan downloads etc).
Later komt er nog een p420 raidcontroller bij en 2 extra velociraptors. (Alle velociraptors zullen dan in de drivebays zitten, de boot SSD in de ODD plek en de 2 raid0 SSD's met de special drive caddy aan de zijkant binnenin.)
Morgen komt het binnen, speulen!
mijn setup met 7 disks
http://gathering.tweakers...message/43464532#43464532
[ Voor 5% gewijzigd door iAbdel op 13-03-2015 11:00 . Reden: setup toegevoegd ]
Iedereen doet maar wat volgens mij. Ik ben van plan een stukje plaatstaal te buigen en gaatjes op de juiste plekken te boren.rookie no. 1 schreef op vrijdag 13 maart 2015 @ 10:17:
[...]
Die caddy ken ik, maar inderdaad met wat voor ding (merk/artikelnr. en waar koop je het) kun je een of twee extra 2.5" disks in de server zelf plaatsen? Ik heb er wel wat configs mee gezien, maar waar kan je dat kopen?
Als je de raid controller echt voor raid wil gebruiken zou ik een p420 halen, zolang je uit de voeten kan met de b120i, zou ik een HBA (h222) haleniAbdel schreef op vrijdag 13 maart 2015 @ 10:50:
[...]
heb ongeveer de zelfde config, 3SSD en 2 greens + 2x 2,5inch disk ingebouwd = 5x 2,5inch en 2x 3,5... moet nog eens opzoek gaan naar een raid controle voor de gen8
mijn setup met 7 disks
http://gathering.tweakers...message/43464532#43464532
Ja dat is mijn indruk ook, alleen ik had de hoop dat er inmiddels een officieel product voor zou zijn. Helaas...chaoscontrol schreef op vrijdag 13 maart 2015 @ 12:00:
[...]Iedereen doet maar wat volgens mij.
Waarom een HBA inzetten als de integrated Intel SATA controller met HP firmware ook voldoende is? Die P420 snap ik, want de b120i is geen volwaardige RAID controller (geen dedicated CPU, RAM en licenties).zolang je uit de voeten kan met de b120i, zou ik een HBA (h222) halen
Te weinig sata poorten zonder.rookie no. 1 schreef op vrijdag 13 maart 2015 @ 12:48:
[...]
Waarom een HBA inzetten als de integrated Intel SATA controller met HP firmware ook voldoende is? Die P420 snap ik, want de b120i is geen volwaardige RAID controller (geen dedicated CPU, RAM en licenties).
Heb nu elke schijf in een logische schijf gezet, maar kan ik dan gewoon bij de data erop als ik hem in een ander systeem hang?
Als jij elke schijf als een apart volume hebt gedefinieerd in je Array Configuration Utility, kun je die gewoon in een andere PC doen en uitlezen.AktiveHate schreef op vrijdag 13 maart 2015 @ 13:24:
Hoe zit het eigenlijk precies met de fake RAID van de b120i? Dit zijn gewoon de SATA poorten van de chipset?
Heb nu elke schijf in een logische schijf gezet, maar kan ik dan gewoon bij de data erop als ik hem in een ander systeem hang?
In dit topic horen alleen posts die betrekking hebben op HP Proliant Microservers. Onderwerpen als Synology/DSM en andere software horen hier niet thuis. Daarvoor graag in één van de Synology-topics posten. Berichten die off-topic zijn, kunnen worden getrashed.