Acties:
  • 0 Henk 'm!

  • Taartvarken
  • Registratie: Januari 2007
  • Laatst online: 24-09 10:17
FireDrunk schreef op woensdag 09 april 2014 @ 14:55:
Dat is een prima bordje, en een M500 is ook een prima oplossing als OS / Cache schijf.
Let wel op dat dat bord (voor zover ik weet) alleen maar ECC geheugen wil.
Maar uit alles wat ik tot nog toe heb gelezen kan ik toch wel opmaken dat je eigenlijk niet zonder ECC geheugen wil werken, zeker als je ook al voor een RAIDZ2 setup kiest?

Acties:
  • 0 Henk 'm!
Valt allemaal wel mee... ECC helpt, maar is niet verplicht. ECC is altijd beter dan niet ECC.
Het is vooral de vraag of je er het extra geld aan uit wil geven.

ZFS werkt prima zonder ECC.

Even niets...


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 11:47
Dat bordje kan ook overweg met non-ECC ram (zoals bijv. _Arthur).

Draait overigens bij mij >1 maand (met ECC), heel tevreden over (was een beetje bang na een aantal minder positieve verhalen online).

[ Voor 20% gewijzigd door Patatjemet op 09-04-2014 19:05 ]

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:02
Hoeveel euro scheelt ECC vs non-ECC?

Acties:
  • 0 Henk 'm!
10,- euro per 8GB (zo even snel uit de PW).

Even niets...


Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
FireDrunk schreef op woensdag 09 april 2014 @ 21:07:
10,- euro per 8GB (zo even snel uit de PW).
het prijsverschil zit meer in het moederbord.

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Verwijderd schreef op dinsdag 08 april 2014 @ 21:01:
@Q

Er werd gesteld dat als je wilt uitbreiden je een 2e pool moet aanmaken. Dat is niet zo. Je kunt met vdevs uitbreiden. Dat heb ik volgens mij allemaal goed uitgelegd, maar uit de uitleg die eerder werd gegeven zou je kunnen concluderen dat uitbreiden helemaal niet mogelijk is met ZFS. Je kunt wel degelijk je pool groter maken en alle ruimte als één groot blok beschikbaar krijgen, geen 2e pool met aparte vrije ruimte.
Nee want het belangrijkste heb je uit je verhaal weggelaten namelijk het feit dat een pool een RAID0 array wordt wanneer je meer dan 1 vdev (in dit geval de RAIDZ2 arrays) erin stopt. Gaat 1 vdev stuk dan is dus je hele pool stuk en ben je alle data die daarin staat kwijt. Het is bij dit soort setups uiterst cruciaal om goede redundantie te hebben in die vdevs naast een goede backup.

De veel betere en veiligere oplossing in deze is een nieuwe pool aanmaken en daarin de nieuwe array te hangen om vervolgens de data van de oude naar de nieuwe te kopiëren. Dan heb je in ieder geval geen risico op compleet dataverlies. Je hebt dan twee gescheiden storage pools. Gaat er wat mis in de een dan heeft dat geen invloed op de ander (tenzij het om datacorruptie gaat).
De manier van uitbreiden die ZFS ondersteunt kent nadelen maar ook voordelen die traditioneel RAID niet heeft. Daar staat ook wat over in de startpost van ZFS. :)
Het enige echte voordeel aan heel dat ZFS is de anti-bitrot feature die erin zit (overige features kun je heel dicht benaderen met reeds bestaande en bewezen technieken). Dat maakt het voor bepaalde soorten data heel interessant en voor andere juist absoluut niet. Als je alleen maar series opslaat die je toch weer kunt downloaden dan boeit bitrot heel wat minder dan je belastingaangifte die je nog jaren moet bewaren. Het gemak van je array uitbreiden is dan weer wat belangrijker. ZFS is wat dat betreft heel erg lastig en heeft het er helemaal niet makkelijker/beter opgemaakt dan de systemen die we al sinds jaar en dag kennen (wat te denken van distributed storage?). Je kunt hoogstens stellen dat ZFS minder of andere valkuilen heeft.

De voordelen tov andere oplossingen zijn in ieder geval een stuk beperkter dan men hier vaak doet vermoeden. Het is dan ook veel beter om alle eigenschappen (dus zowel de goede als slechte) in kaart te brengen zodat je niet voor verrassingen komt te staan. En natuurlijk zorgen voor adequate backups. Bij uitbreiden van je storage is het altijd handig om daar even goed over na te denken. Voor je het weet is je data stuk of kwijt. Het is in ieder geval goed om te zien dat er op storage gebied nog steeds allerlei ontwikkelingen plaatsvinden en ZFS is daar een heel mooi voorbeeld van.
Q schreef op woensdag 09 april 2014 @ 19:56:
Hoeveel euro scheelt ECC vs non-ECC?
Ligt een beetje aan welk type ECC je moet hebben maar het kan, zoals eerder gezegd, maar een tientje schelen. Voor mijn X9SCM-F moest ik helaas naar het duurdere ECC spul en was het verschil met het gangbare goedkopere ECC geheugen een 100 euro (2 jaar geleden inmiddels).

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Ik heb momenteel een 8 x 3TB RAID5 config op een Areca. Kan ik deze op de een of andere manier migreren naar een RAID6 config met 4TB schijven zonder een 2e Areca kaart nodig te hebben? Ik zie het niet, maar wellicht dat ik toch iets niet zie.

Ik zit trouwens bij de controllers van Areca te kijken en vraag me af wat nu het verschil is tussen een Areca ARC-1224-8i en een Areca ARC-1882ix. Ik kan alleen maar zien dat de 1224 een ARM I/O processor heeft en de ander een dual core processor en er is een verschil in de gebruikte geheugensoort. De prijs van de 1224 is echter een heel stuk lager dan die van de 1882. Is dat verschil geheel te verklaren door verschillen in processor en geheugen?

[ Voor 55% gewijzigd door -Moondust- op 10-04-2014 00:10 ]


Acties:
  • 0 Henk 'm!

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 03-10 20:09

DYX

Ik mis wat informatie over je bestaande kaart/setup. Indien je huidige kaart maar 8 poorten heeft, dan is het inderdaad niet mogelijk om deze te migreren naar een Raid6, aangezien deze 2 partity disks nodig heeft. Indien je een kaart heb met 12 of meer poorten dan zou het wel mogelijk moeten zijn om je array live te migeren van Raid5 naar Raid6.

Dit is een aanname, maar wat ik proef is dat je live de van de Raid5 array van 8x 3TB naar Raid6 8x4TB.
Afhankelijk van de hoeveelheid data is je enige optie om een aantal van je 4TB disks aan te sluiten via je moederbord. Al je data erheen kopieren, de Raid5 array + 3TB disks verwijderen en beginnen met een Raid6 van 4x 4TB. Hierna de data per losse 4TB disk kopieren naar de array en als de disk leeg is, deze toevoegen aan de array en dit per disk herhalen tot al je data op je array staat en deze uiteindelijk total uit 8x 4TB bestaat.

Ditzelfde heb ik ook moeten uitvoeren bij mijn migratie van 1TB drive Raid 5, naar 2TB Raid6

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Ik snap wat je bedoelt denk ik DYX, maar ik heb een Areca ARC1882i met 8 x 3TB die tot de nok toe gevuld is. Ik heb hier nog wel wat hdd's liggen, maar zelfs daarmee + 4 x 4TB kan ik niet alle data kwijt. Met 8 x 4TB in RAID6 heb ik overigens 24 GB (effectief ong. 22GB) terwijl ik nu 21GB (effectief ong.19GB) heb. De extra ruimte en de RAID6 vind ik nogal schril afsteken tegen de investering van ruim 1.500 euro aan 4TB schijven die ermee gemoeid is. Ik heb dus eigenlijk een Areca ARC-1882ix-12 (met 12 aansluitmogelijkheden dus) nodig. Dan heb ik RAID6 en de mogelijkheid om nog 16GB uit te breiden. Mijn huidige 8-controller en de 3TB schijven kan ik dan weer verkopen. De schijven hebben altijd aan een stuk door gedraaid sinds ik ze een jaar geleden heb gekocht en geinstalleerd. Dus dat is voordelig voor de slijtage.

[ Voor 3% gewijzigd door -Moondust- op 10-04-2014 12:57 ]


Acties:
  • 0 Henk 'm!

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 03-10 20:09

DYX

Ik had hetzelfde probleem met mijn Aceca 1222. Deze heb ik uiteindelijk verkocht en een Areca 1882i-24 voor teruggekocht.

Acties:
  • 0 Henk 'm!
Je kan natuurlijk tweedehands een goedkope Areca controller kopen met 8 poorten en die later tweedehands weer verkopen.

Of je leent er ergens 1 van iemand voor een klein bedrag...

Even niets...


Acties:
  • 0 Henk 'm!

  • fiepfiep
  • Registratie: December 2013
  • Laatst online: 17-11-2023
Hoi,
ik ga ook een nas maken, wat denken jullie van deze config?
:) :) :)
asrock E350 bordje met cpu
wd red 3TB 2x
8gb ram ecc
eolize mini itx behuizing


http://www.amazon.de/gp/p...&psc=1&smid=ABQJGLE2G5CGH

http://www.amazon.de/gp/p...psc=1&smid=A3JWKAKR8XB7XF

http://www.amazon.de/gp/p...psc=1&smid=A21ISB9LUWIYXR

http://www.amazon.de/gp/p...psc=1&smid=A1AL0IFPG5W1BM

Acties:
  • 0 Henk 'm!
Volgens mij doet die E350 helemaal geen ECC.

Even niets...


Acties:
  • 0 Henk 'm!

  • fiepfiep
  • Registratie: December 2013
  • Laatst online: 17-11-2023
FireDrunk schreef op donderdag 10 april 2014 @ 15:05:
Volgens mij doet die E350 helemaal geen ECC.
je hebt gelijk, dan maar non-ecc ram erin, denk niet dat dit veel uitmaakt bij zfs?

Acties:
  • 0 Henk 'm!
Het helpt, maar is niet verplicht.

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
De E350 is geen strepentrekker. Als je er puur een NAS van maakt en een beetje gunstige bestandsuitwisseling opzet dan kan het prima. CiPHER gebruikt(e) er bijvoorbeeld zelf één (van MSI). Maar zodra je er nog allerlei services opgooit (voor downloads of wat dan ook) dan zul je zien dat de prestaties terugzakken. (Lees: gigabit niet volledig meer benutten.) Dat komt ook omdat Samba onder FreeBSD een uitdaging is. Het single core en niet bijster efficiënt. En juist met de langzamere cores zul je dan zien dat je al snel niet meer tot 100-120MB/sec kont.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
-Moondust- schreef op donderdag 10 april 2014 @ 12:56:
Ik heb dus eigenlijk een Areca ARC-1882ix-12 (met 12 aansluitmogelijkheden dus) nodig.
Je bedoeld 12x intern en 4x extern? Dat kun je ook bereiken door een SAS expander aan je huidige controller te hangen. Je hebt dan zelfs 24 poorten. Volgens mij gebruikt Areca op alle controllers met meer dan 8 poorten een expander.
Wanneer je huidige 1882i voldoet het overwegen waard maar dat is nieuw kopen en je huidige verkopen waarschijnlijk ook wel.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
BartNL schreef op donderdag 10 april 2014 @ 17:15:
Je bedoeld 12x intern en 4x extern? Dat kun je ook bereiken door een SAS expander aan je huidige controller te hangen. Je hebt dan zelfs 24 poorten.
Hoe werkt dat precies? Ik verbind met een SFF-8087-naar-SFF-8087-kabel een van de SAS-poorten van mijn 1882i met een van de SAS-poorten van de expander en dan kan ik de overige SAS-poorten van de expander gebruiken met SAS-naar-SATA kabels? Dat zou mooi zijn ware het niet dat mijn Intel mobo geen leeg PCIe x4 of hoger over heeft. En een nieuw moederbord betekent dat ik mijn Win7 licentie ook weer moet vernieuwen. Was wel de meest goedkope en eenvoudige oplossing geweest, want dan kan ik de nieuwe schijven er zo aanhangen en alle data oversluizen met grote snelheid. Ik vrees toch dat ik 12-poort RAID-kaart moet gaan aanschaffen. Misschien kan ik dan beter gelijk een 16-poort of zelfs een 24-poort nemen, dat maakt het eenvoudiger de data over te sluizen. Stel ik heb 8 x 4TB in RAID 6 waar al mijn data op staat en ik ga daar 2 disks bijzetten. Hoe lang duurt het dan voordat de hele array gerebuild is? Zou het nog de moeite waard zijn om op de nieuwe Areca-modellen ARC-1883i-xx te wachten? Die zijn al geintroduceerd alleen nog niet verkrijgbaar.
BartNL schreef op donderdag 10 april 2014 @ 17:15:
Volgens mij gebruikt Areca op alle controllers met meer dan 8 poorten een expander.
Ahhh, dat verklaart waarom er zo'n groot prijsverschil zit tussen 8- en 12-poort, terwijl het verschil tussen de 12-, 16- en 24-poort tamelijk klein is.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
SAS expander werking is zoals je schrijft.
Ik weet dat de HP expander niet echt een PCIe x4 slot nodig hebben. Slot is alleen nodig voor de voeding van de expander. Een korter PCIe slot werkt ook heb alleen niet paraat of PCIe1x of 2x nodig is.
Chenbro heeft expanders die helemaal geen PCIe slot nodig hebben zie http://www.chenbro.eu/corporatesite/products_cat.php?pos=37
Bij de Chenbro expanders gaat voeding via normale 4-pin connector.
Zowel de HP als Chenbro expanders werken prima samen met Areca. Heb zelf de HP expander vervangen voor Chenbro exemplaar omdat deze in een 4U kast zonder moederbord zit.

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Dadona schreef op donderdag 10 april 2014 @ 16:02:
Dat komt ook omdat Samba onder FreeBSD een uitdaging is. Het single core en niet bijster efficiënt.
Een ander OS gaat het er niet beter opmaken. Samba is in dit geval gewoon lastig in elkaar gezet waardoor je onder ieder OS tegen de problemen aan zult lopen. Apple is er niet voor niets van afgestapt. Een alternatief kan zijn dat je fileserver en daadwerkelijke storage scheidt. Dat is iets wat in het bedrijfsleven veelvuldig wordt gedaan. De storage is dan puur opslag en wordt middels een LUN aan een fileserver gehangen (dan hebben we het over een SAN). De fileserver doet dan de daadwerkelijke fileserving naar de clients. Als je dan Windows als fileserver kiest heb je geen last van iets als Samba. Voor niet-Windows systemen kun je beter een ander protocol pakken zoals NFS of AFP. Helaas is het er niet mooier op te maken :(

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
@BartNL
De Intel RAID Expander Card RES2SV240 kan de stroom uit de PCIe halen of een molex, maar de PCIe x4 connector zal niet passen in mijn mobo, dus dat gaat niet werken. Blijft de Chenbro over denk ik. Deze kaart lijkt zeer slecht verkrijgbaar in Nederland voor een fatsoenlijke prijs. Ik zie nog geen licht aan het einde van de tunnel. Voor een Areca ARC-1882ix-16/24 kan ik ook een leuk servertje met ZFS in elkaar zetten.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
-Moondust- schreef op donderdag 10 april 2014 @ 21:28:
@BartNL
maar de PCIe x4 connector zal niet passen in mijn mobo, dus dat gaat niet werken.
even opgezocht en verloopje van PCIe x1 naar PCIe x16 zou moeten werken en kost maar een paar euro
Voor een Areca ARC-1882ix-16/24 kan ik ook een leuk servertje met ZFS in elkaar zetten.
wanneer je puur voor opslag van media gaat is een ZFSGuru of FreeNAS oplossing denk ik prima keuze.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
BartNL schreef op donderdag 10 april 2014 @ 21:50:
even opgezocht en verloopje van PCIe x1 naar PCIe x16 zou moeten werken en kost maar een paar euro
Heb je een link naar waar ik zo'n verloopje kan vinden?

edit:

Bedoel je zoiets? Waar kan ik de SAS expander dan insteken?

[ Voor 31% gewijzigd door -Moondust- op 11-04-2014 12:55 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
-Moondust- schreef op vrijdag 11 april 2014 @ 02:52:
[...]Bedoel je zoiets? Waar kan ik de SAS expander dan insteken?
ja, zoiets bedoel ik. De SAS expander steek je dan in het 16x slot. Enige wat de expander nodig heeft is de voeding via het PCIe slot en dat kan via zo'n verloop.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Ja ok, maar met zo'n kabeltje kan je de expander kaart niet fixeren. Ik bedoel, die bungelt dan aan dat verloopstukje. Hoe los je dat op zonder ductape?

Acties:
  • 0 Henk 'm!
Mecano, Lego, K'NEX 8-)

Even niets...


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Sowieso via PCI slot bracket schroefje en verder de SAS kabels :p

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Beetje knoeien dus. ;-)

Acties:
  • 0 Henk 'm!

Verwijderd

Hallo Moondust,

We hebben onze RVS series en die zijn maar 55 cm diep
BV de 3U: https://ri-vier.eu/rivier...6a-p-351.html?cPath=1_3_6
of de 4U: https://ri-vier.eu/rivier...6a-p-352.html?cPath=1_3_7
of de 2U: https://ri-vier.eu/rivier...6a-p-323.html?cPath=1_3_5

Als je vragen hebt, mail me dan via mijn site.

Groetjes,
Richard.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Hallo Richard,

Ik had er enige tijd geleden al over gemaild naar je via het contactformulier op de site, maar heb geen reactie terug ontvangen. Waar ik me met name zorgen om maakte is hoe stil deze serverkasten zijn. Ik vrees niet erg stil. Inmiddels zit ik op het spoor van de Silverstone GD07B. Daar passen 10 hdd's (met een 2x5.25"naar 3x3.5" cage) in en dat is alles wat ik nodig heb. Bovendien ziet de kast er mooi uit en is de verwachting dat hij niet al te luidruchtig is.

Acties:
  • 0 Henk 'm!

Verwijderd

Hi Moondust,

Dat is raar, Ik reageer altijd super snel....

De fans zitten aangesloten op de backplanes en draaien daar op 100%. De backplanes zijn niet uitgerust met warmte senzoren, vandaar die 100%. Het zijn wel PWM fans.
Je kan natuurlijk andere fans in zetten. Je kan makkelijk de fans vervangen op de fanwall.
In de RVS2 is ruimte voor 12 disken en zitten 4x 80mm fans op de fanwall. Je kan deze zo stil maken als je zelf wilt.
We hebben ook speciale air blockers die je in de trays kan doen die je niet gebruikt zodat alle lucht langs de tray gaat die je wel in gebruik hebt.

Gr, Richard.

Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 00:17
Hallo,

Ik zit met een probleem en hoop dat iemand me erbij kan helpen. Heb van alles geprobeerd maar nog niet het gewenste resultaat.

Omdat mijn onboard aansluitingen vol zitten heb ik een IBM M1015 (LSI 9211 IR/IT Mode) in het systeem geplaatst en daar een Samsung 840 250GB op aan gesloten. Daarna met AS SSD een test gedraaid en zag dat de read snelheden prima zijn. De write snelheden zijn slecht.

Write: 160MB/s
4K; 0,9MB/s
4K-64thrd- 8MB/s
Acc. Time 4.143ms

OS: Hyper-v 2012 r2 (Alle updates zijn reeds geïnstalleerd)
SSD: Samsung 840 250GB met de laatste firmware
Controller: IBM M1015 IR Firmware met laatste firmware
Kabel: SFF 8087 50CM van 3ware
Driver: Laatste versie van LSI (Dec 2013)

Bovenstaande test is rechtstreeks op de Hyper-V server uitgevoerd met de laatste driver versie. Ook heb ik de controller + schijf in een ander systeem geplaatst met hetzelfde resultaat. Om zeker te zijn dat het niet aan de SSD ligt heb ik een andere Samsung 840 EVO op de controller aangesloten en hierbij ook hetzelfde resultaat.

Controller is getest met de standaard firmware, met de IT firmware en nu met de IR firmware.

Iemand een idee wat de slechte writes zou kunnen veroorzaken? Of is de IBM M1015 niet goed genoeg voor gebruik met een SSD?

Alvast bedankt!

[ Voor 8% gewijzigd door Phorcys op 19-04-2014 20:10 ]


Acties:
  • 0 Henk 'm!
Ik heb al jaren ssds aan mijn m1015 hangen. Nooit zulke hoge acces times gezien... Ding al eens onboard gehangen?

Even niets...


Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 00:17
Heb 4 evo's aan de onboard hangen sinds december en die functioneren goed. Wanneer ik een ssd (dezelfde) aan de ibm hang zijn de writes erg slecht.

Zowel met de standaard lsi driver die in windows zit als met de laatste nieuwe.

De sff 8087 kabel is in orde, met een lsi 9260 met disk cache aan is het goed.

Access tijden wisselen per testn de 4k test kan goed een paar min duren

[ Voor 10% gewijzigd door Phorcys op 19-04-2014 20:27 ]


Acties:
  • 0 Henk 'm!
Raar... Word het ding te warm?

Even niets...


Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 00:17
Inderdaad! Nee helemaal niet, was eigenlijk het eerste wat ik controleerde. Kan evt alleen nog een ibm uit de storage server halen en testen om defecte controller uit te sluiten.

Gebruik jij de ibm met windows of linux? Heb de it firmware van lsi site gebruikt. In de 8087 kabel xou geen verschil moeten zitten lijkt me.

Acties:
  • 0 Henk 'm!
Heb de controller onder bsd en linux gebruikt. Momenteel onder Ubuntu met 5 SSDs.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 00:17
Zojuist een andere IBM M1015 getest en een andere 8087 kabel en hetzelfde resultaat. Erg vreemd dit.

Of het moet zijn dat AS SSD verkeerde write waardes geeft op schijven aan een controller al zou dit raar zijn omdat het bij de LSI 9260 wel een heel stuk beter is.

Kans dat 2 controllers niet goed zijn is redelijk onwaarschijnlijk.

UPDATE:
Het lijkt er op dat er niets mis is met de hardware/kabels. Heb de ssd uit de hyper-v host gehaald en aan een M1015 in de storage server gehangen en getest met CrystalDiskMark. Nu lijken de waardes goed te zijn....

259MB/s write, 257MB/s 512K, 80MB/s 4K

Lijkt er dus op dat AS SSD niet goed functioneert met elke controller. Was er niet vanuit gegaan dat AS SSD niet zou functioneren omdat hij bij de LSI 9260 wel de juiste waardes aangaf. Ervan uitgaande dat cystaldisk wel de juiste waardes weergeeft.

Bedankt voor je hulp firedunk!

[ Voor 45% gewijzigd door Phorcys op 19-04-2014 22:52 ]


Acties:
  • 0 Henk 'm!
Graag gedaan, probeer ook iometer eens. Daar ben ik altijd erg tevreden over.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 00:17
bedankt voor de tip. zal eens kijken of ik die rechtstreeks op de hyper-v host kan draaien.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Ik had op een m1015 read en write van bijna 1 GB/sec 10x7200 rpm 4TB hdd in raidz2.
Dus de adapter zou het probleem niet hoeven te zijn.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
IOPS gaat meer om latency dan om throughput.

Even niets...


Acties:
  • 0 Henk 'm!

  • Speculaasje
  • Registratie: Oktober 2010
  • Laatst online: 08-10 19:44
Beste Tweakers,

Ik zit te kijken naar een DIY NAS / Server en ik wil hierbij jullie advies vragen.

Waar ik de NAS / server het meeste voor gaan gebruiken en een aantal belangrijke eisen:
  • File server / download server (Sabnzdb + Sickbeard + Couchpotato + Plex etc.)
  • Virtualisatie (Windows Server 2012 R2 + HyperV, AD, SQL, CRM etc.) dus 32GB geheugen.
  • Stil, aangezien het apparaatje hoogstwaarschijnlijk in de woonkamer komt te staan
  • Bij voorkeur 6-8 HDD slots. Ik zal in eerste instantie starten met 8 TB maar wil dit uiteindelijk uitbreidbaar hebben mocht het nodig zijn.
Ik heb mijzelf nog niet genoeg verdiept in (software) RAID om hier een nuttige implementatie aan te geven.

De data die ik in eerste instantie op zal slaan is allemaal vervangbaar. Denk hierbij voornamelijk aan series/films/muziek etc.

Back-up zal worden verzorgt op basis van externe hardeschijven en cloud storage (OneDrive, Dropbox etc.).

Ik heb op Alternate het volgende lijstje aan hardware samengesteld waarbij mijn twijfels vooral zitten in de processor. Is deze voldoende om virtualisatie goed te kunnen ondersteunen?

#ProductPrijsSubtotaal
1Intel Core i3 2120T Boxed€ 88,17€ 88,17
1ASRock Z77 Pro4-M€ 75,06€ 75,06
2WD Red SATA 6 Gb/s WD40EFRX, 4TB€ 149,77€ 299,54
1Fractal Design Node 304 Zwart€ 62,95€ 62,95
1Kingston HyperX KHX16LC9K4/32X€ 253,-€ 253,-
1Seasonic X-400 Fanless€ 0,-€ 0,-
1Crucial M500 2,5" 480GB€ 187,-€ 187,-
Bekijk collectie
Importeer producten
Totaal€ 965,72


Het enige wat nog ontbreekt is eventueel een stille CPU koeler.

Mochten jullie adviseren om voor virtualisatie echt server hardware te nemen (ECC geheugen, XEON processor etc.) kan ik deze wens ook laten vallen aangezien de kosten dan wel flink toenemen. Dan kan het geheel nog een stukje goedkoper uitvallen door 8 of 16GB geheugen te nemen en een kleinere SSD als host schijf.

Het geheel zal gaan draaien op basis van Windows Server 2012 R2 of Windows 8.1 i.c.m. HyperV voor de virtualisatie.

Ik heb op mijn huidige desktop al een complete inrichting staan voor Sabnzbd, Sickbeard etc. dus dat kan ik gewoon overnemen op de server omgeving.

Het belangrijkste is voor mij dat ik overal bij mijn films/series/overige data kan zonder dat ik daarvoor perse mijn desktop aan hoef te zetten.

In ieder geval alvast bedankt voor jullie hulp! :)

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Waarom een oudere generatie processor en moederbord nemen? Kies de laatste generatie, het kost je niets extra's, maar je hebt vaak wel de nieuwere technologie te pakken.

Je weet dat je een mATX moederbord hebt gekozen en een mITX kast? Met andere woorden: dat gaat niet passen. ;)

Omdat je Hyper-V gaat draaien, betekent het niet dat je gelijk maxed out moet gaan met geheugen. Ik draai hier zo'n beetje alle services die jij hebt opgenoemd (met ramslurpende Exchange erbij) en ik heb meer dan genoeg aan 16GB.

Ik zou geen passieve voeding nemen in die kast. De kast is behoorlijk 'krap', waardoor het zomaar zou kunnen dat de voeding zijn warmte niet kwijt kan raken. Ik zou persoonlijk gaan voor een Seasonic G Serie zoals de G360 of G450.

Ik draai hier Hyper-V plus 5 VM's op een 256GB ssd'tje, en heb nog 65GB over, dus mocht je niet al te gekke dingen doen, dan kan je ook al af met 256GB.

Acties:
  • 0 Henk 'm!

  • Speculaasje
  • Registratie: Oktober 2010
  • Laatst online: 08-10 19:44
Dank voor je hulp Gio.

Verouderd CPU/Mobo was niet de bedoeling. Heb me al even niet meer bezig gehouden met het hardware wereldje, genoeg keuze in sockets tegenwoordig bij Intel. :)

Het enige ITX bord dat 32GB ondersteund is een ASRock van 300 euro.... Met wat aanpassingen kom ik nu op het volgende lijstje:
#ProductPrijsSubtotaal
1Intel Core i3 4130 Boxed€ 96,-€ 96,-
1ASRock Z87E-ITX€ 119,99€ 119,99
2WD Red SATA 6 Gb/s WD40EFRX, 4TB€ 149,77€ 299,54
1Fractal Design Node 304 Zwart€ 62,95€ 62,95
1Cooler Master Hyper TX3 Evo€ 18,-€ 18,-
1Kingston ValueRAM KVR16LN11K2/16€ 129,26€ 129,26
1Seasonic G-Serie 360Watt€ 51,-€ 51,-
1Crucial M500 2,5" 240GB€ 92,90€ 92,90
Bekijk collectie
Importeer producten
Totaal€ 869,64


Het valt me wel tegen hoe weinig mITX bordjes er zijn met een flink aantal aansluitingen. Anders toch even meten in het TV meubel of er ruimte is voor een uATX kast.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Dat is al een stap in de goede richting. ;)

Je gekozen moederbord heeft 6x sata, maar volgens mij kan je maar 4x sata gebruiken van de 6 poorten wanneer je gebruikt maakt van mSATA/eSATA. Dit moet je even voor de zekerheid voor jezelf uitzoeken.

Zelf heb ik gekozen voor Green schijven in plaats van Red. De Green schijven zijn praktisch hetzelfde als de Red, maar de Red heeft 1 jaar extra garantie en bij de Green schijven moet je met een tootltje (wdiddle3) de tijd van de koppen aanpassen, anders gaan de koppen elke 5 seconden heen en weer wat slijtage behoorlijk in de hand werkt. Voor de rest zijn de schijven hetzelfde (zelfde platters, verbruik etc), dus daar kan je misschien nog wat geld op besparen.

Ik heb zelf ook de Node 304, en ik weet niet of de Cooler Master Hyper TX3 Evo gaat passen, dit zal je even via Google moeten uitzoeken.

Voor de rest zit het er prima uit.

EDIT: ik gebruik zelf de Asus H87I Plus, dit bordje is niet de meest zuinige, maar heeft wel echt 6 volwaardige sata poorten. Misschien ook een optie voor jou?

[ Voor 8% gewijzigd door GioStyle op 21-04-2014 19:57 ]


Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 00:17
jacovn; kon bijna niet geloven dat het aan de controller zou liggen maar AS SSD gaf enorm vreemde waardes terug stopte soms tijdens de test. Vanochtend 2 vm's naar de ssd gekopieerd die aan de ibm zit en lijkt allemaal goed te gaan.

Kan ik binnenkort nog een paar evo's aanschaffen.

@jeroen
Waarom de keuze voor server 2012 + hyper-v en niet alleen de hypervisor? Makkelijker te kunnen beheren? Anders zou je de hypervisor op een USB stick kunnen installeren. Dan draait je OS niet op dezelfde schijf als je vm's.

[ Voor 3% gewijzigd door Phorcys op 21-04-2014 20:17 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Niet voor green gaan, maar voor red :)

De meerprijs is verwaarloosbaar, en de failrate van schijven is het hoogste tussen het 2de en 3de jaar. Dus dat 3de jaar garantie kan wel eens nuttig zijn.

Acties:
  • 0 Henk 'm!

  • Speculaasje
  • Registratie: Oktober 2010
  • Laatst online: 08-10 19:44
Phorcys schreef op maandag 21 april 2014 @ 20:16:

@jeroen
Waarom de keuze voor server 2012 + hyper-v en niet alleen de hypervisor? Makkelijker te kunnen beheren? Anders zou je de hypervisor op een USB stick kunnen installeren. Dan draait je OS niet op dezelfde schijf als je vm's.
Ik heb zelf geen ervaring met de bare-bone variant van Windows Server, wellicht iets om me in te verdiepen. Het is inderdaad meer uit gemak om het OS zelf te hebben met daarnaast specifiek een aantal VM's die gericht zijn op me werk (Microsoft CRM + SharePoint e.v.t.).

Aan de andere kant zou ik het file / download gedeelte ook in een losse VM kunnen stoppen zodat ik in feite alles kan virtualiseren, maar ik heb geen idee of dat kwa performance goed haalbaar is (rarren, parren etc.). Dan zou ik inderdaad af kunnen met puur een hypervisor die het spul draaiende houdt.

Sowieso moet ik nog een keer goed nadenken over hoe ik het geheel op ga zetten kwa file storage (zoals bijv. RAID) en hoe ik het geheel deelbaar kan maken buiten mijn eigen thuisnetwerk (VPN lijkt me niet erg rap voor bijv. streaming voor 720P+ content) maar dat is een andere uitdaging.

Moederbord en CPU koeler ga ik nog even naar kijken. Net als de afmetingen die ik kwa ruimte heb. Deze Fractal kast oogt wel het mooiste maar met uATX ben je toch nog wel een stuk flexibeler kwa hardware en ruimte.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Phorcys schreef op maandag 21 april 2014 @ 20:16:

@jeroen
Waarom de keuze voor server 2012 + hyper-v en niet alleen de hypervisor? Makkelijker te kunnen beheren? Anders zou je de hypervisor op een USB stick kunnen installeren. Dan draait je OS niet op dezelfde schijf als je vm's.
Ik zie geen toegevoegde waarde en juist alleen maar nadelen aan om Hyper-V vanaf een USB-stick draaien, maar waarom zou jij dat doen?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 15:43
Target je dat puur op de USB-stick?

Want een hypervisor niets anders laten doen dan hypervisoren is juist de best practice :) Je wilt niet dat er 100 VM's onderuit gaan omdat de hypervisor vastloopt vanwege iets wat je had kunnen voorkomen. De taken die je op de host zou willen draaien kun je net zo goed in een VM draaien.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 21 april 2014 @ 21:03:
Niet voor green gaan, maar voor red :)

De meerprijs is verwaarloosbaar, en de failrate van schijven is het hoogste tussen het 2de en 3de jaar. Dus dat 3de jaar garantie kan wel eens nuttig zijn.
Juist niet hè. Bij WD was het het eerste jaar een dip en daarna heel langzaam afzakken, dus op basis van die data heeft een jaar extra garantie juist weinig meerwaarde.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Puur op de USB-stick. ;)

Ik heb hier Windows Server 2012 + Hyper-V role geïnstalleerd op een 256GB ssd. Vervolgens 5 VM's op dezelfde ssd. Hierdoor is alles echt lekker vlotjes. Ik kan me voorstellen dat als je vanaf een USB-stick werkt, dan de boel toch even wat 'trager' kan zijn door hogere latency etc.

Ik ben zeker ook van mening dat de hypervisor puur moet hypervisoren en niets anders dan dat. ;) Echter heb ik niet alleen de Core versie geïnstalleerd, maar Server 2012 + Hyper-V role, zodat ik de alle drivers goed kan installeren en het verbruik wat lager ligt in vergelijking met de Core versie. :)

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 15:43
Ik weet niet hoe dat bij Hyper-V Server zit, VMware doet na het booten zo goed als niks meer met de USB-stick. Je kunt afaik Hyper-V Server ook gewoon op SSD installeren? Afaik gebruikt het dezelfde installer als Windows Server :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
Voor Hyper-V zou ik toch een USB stick aanraden die gemaakt is om een OS op te draaien (Iets als een Sandisk Extreme Pro ofzo, check even CiPHER's blog daarover, die heeft het perfect uitgelegd).

Microsoft's Hyper-V mini install is nog altijd 2.1GB ofzo, waar ESXi maar een paar honderd MB is.
Hyper-V is echt nog wel wat groter dan VMWare qua footprint. (het kan ook meer met die hypervisor, maar dat terzijde).

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 15:43
FireDrunk schreef op maandag 21 april 2014 @ 22:26:
het kan ook meer met die hypervisor, maar dat terzijde
Nou, eigenlijk vind ik dat wel interessant, volgens mij ontlopen VMware en ESXi elkaar niet zo heel veel qua features? Voor een deel heb je vCenter Server of SCVMM nodig, waarbij de ene bepaalde dingen kan waar de ander zijn managementserver bij nodig heeft en andersom maar ik dacht dat ze behoorlijk vergelijkbaar waren?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
Ik bedoel meer, de Hyper-V onderlaag is uitgebreider dan ESXi. Hyper-V heeft een volledige Windows installatie onder zich waar je (in theorie) alle software gewoon op kan installeren, mits deze headless kan draaien. Zo kan je gewoon backup clients installeren die gewoon bij de lokale disks kunnen enzo.

Onder ESXi draait het allemaal via rare temp constructies in RAM, en moeten configuratie changes 'gecommit' worden naar USB (of de disk waar ESXi op staat).

Ook is het driver model van ESXi onderhevig aan VIB installaties, waar je bij Windows gewoon via de reguliere weg drivers kan installeren.

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 15:17
Paul schreef op maandag 21 april 2014 @ 22:35:
[...]
Nou, eigenlijk vind ik dat wel interessant, volgens mij ontlopen VMware en ESXi elkaar niet zo heel veel qua
8)7 :+
features? Voor een deel heb je vCenter Server of SCVMM nodig, waarbij de ene bepaalde dingen kan waar de ander zijn managementserver bij nodig heeft en andersom maar ik dacht dat ze behoorlijk vergelijkbaar waren?
Zonder extra licenties, buiten de licenties voor Windows zelf (en dat is dus dan ineens je hypervisor) kan je out of the box inderdaad meer met Hyper-V dan met ESXi alleen. Zonder SCVMM kan je al prima HA en Live Migrations hebben, bij VMware betaal je je daar relatief blauw aan...

Acties:
  • 0 Henk 'm!
Ook dat :) hoezo elkaar lekker aanvullen :p

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 15:43
FireDrunk schreef op maandag 21 april 2014 @ 23:00:
Ik bedoel meer, de Hyper-V onderlaag is uitgebreider dan ESXi. Hyper-V heeft een volledige Windows installatie onder zich waar je (in theorie) alle software gewoon op kan installeren, mits deze headless kan draaien. Zo kan je gewoon backup clients installeren die gewoon bij de lokale disks kunnen enzo.
Hyper-V Server is onder water misschien een Windows-installatie, het is er echter niet voor bedoeld en het zal ook niet mogen van de licentie :P Als je op Windows Server de Hyper-V-rol installeert dan kan en mag je er inderdaad een heleboel meer op doen. Die installatie is echter ruim groter dan 2.1 GB :P
Onder ESXi draait het allemaal via rare temp constructies in RAM, en moeten configuratie changes 'gecommit' worden naar USB (of de disk waar ESXi op staat).
Wat is daar raar aan? Dat is onder Windows ook, alleen zie je het daar wat minder. Je zit maar zelden rechtstreeks een bestand te bewerken, meestal bewerk je een kopie in het geheugen die je daarna 'commit' :)
Ook is het driver model van ESXi onderhevig aan VIB installaties, waar je bij Windows gewoon via de reguliere weg drivers kan installeren.
.inf of .vib, what's the difference? Ik download een bestandje, ik zeg tegen de computer: "Hier staat het, veel plezier er mee" en ik ben klaar? :w
Oeps :P
Zonder extra licenties [..] kan je out of the box inderdaad meer met Hyper-V
Dat is een keuze van de leverancier, inderdaad. XenServer kan zonder licentie helemaal niks, Citrix heeft graag dat je ieder jaar je gratis licentie vernieuwd :X (Of is dat ondertussen verbeterd?). Dat wil niet zeggen dat de hypervisor meer of minder kan, enkel of je het mag :+ Ik dacht dat FireDrunk bedoelde dat je er meer mee kan :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
INF of VIB maakt nogal een verschil... Voor Hyper-V hoef je geen specifiek installatie mechanisme te gebruiken, maar werken gewone normale drivers van de fabrikant zelf.

VIBjes moeten of door VMware gemaakt zijn, of door de fabrikant zelf, speciaal voor ESXi. Dat bedoel ik er vooral mee...

Over dat RAM verhaal, op ESXi als je zelf naar /etc/hosts schrijft, word dat niet direct op je USB stick gezet.
C:\Windows\system32\drivers\etc\hosts is onder Windows wel gewoon direct op disk. Tuurlijk edit je in RAM, maar bij ESXi schrijf je zelfs naar RAM alsof het naar disk is. Daarna moet je het met de hand committen naar USB...

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 15:43
Persoonlijk vind ik dat een voordeel: geen afhankelijkheid van je OS-schijf na het booten :)

Waarom wil je trouwens je host-file editten? Daar heb je toch DNS-servers voor?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
Het was maar een voorbeeld :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 15:43
Jammer... Want ik heb nog nooit op een hypervisor in hoeven loggen om een setting aan te passen die niet via de management console kon, vandaar dat ik benieuwd ben :) T.b.h. zou ik niet eens weten hoe ik zoiets commit in VMware :X

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 10-10 02:16
Hoe is het ooit afgelopen met de Queen of Raid? Heb sinds 2008 nooit meer wat gehoord van geom_raid5 en draai al jaren blij op mdadm + LVM...

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Een kennis van mij heeft mij gevraagd of ik even kan nadenken over een efficiënte oplossing voor diverse problemen binnen zijn MKB netwerk.

De volgende problemen spelen momenteel:
- ~300GB (netwerk) opslagruimte is over niet al te lange tijd te weinig.
- Performance van het netwerk laat te wensen over:
- De huidige back-up capaciteit (LTO-3 Tape) is nauwelijks voldoende.
- De omgeving is niet flexibel, er is bijvoorbeeld geen mogelijkheid om wat simpele taken te virtualiseren.

Nu zijn probleem één & twee direct aan elkaar gerelateerd, want de netwerkshares zijn aangemaakt op een Windows Small Business Server 2008 machine die is voorzien van een enkele raid 5 array opgebouwd met 4x 146GB 10k schijven. Het OS, de exchange database, de userprofiles, en de netwerkshares staan allemaal op deze raid 5 array. Ik heb vastgesteld dat de matige netwerk performance waar men over klaagt niets meer is dan teveel I/O operaties op één enkele raid array.

Nu zou ik de opslagruimte & back-up probleem kunnen oplossen door schijven bij te plaatsen en een LTO-5 tapedrive aan te schaffen met SAS HBA. Echter, met het oog op de virtualisatie wens en de flexibiliteit zit ik eigenlijk te denken aan een zelfbouw ZFS nas echter heb ik een aantal zaken waarover ik eigenlijk even wat advies en ervaringen van meer ervaren mensen wil horen. De exacte functionele en technische requirements en bijbehorende hard en software moet ik nog even verder uitwerken, ik wil nu eerst even globaal de haalbaarheid van een zelfbouw NAS en de voor en nadelen van de verschillende mogelijke technieken bekijken.

Hoe zijn hier de ervaringen met een ZFS nas als datastore voor Hyper-V of esxi?
Ik gebruik zelf in mijn lab thuis soms mijn FreeNAS machine via iSCSI of NFS en dit werkt eigenlijk prima echter ben ik wel benieuwd naar ervaringen op het gebied van betrouwbaarheid in een productie omgeving.

Zou een FreeNas machine met Active Directory koppeling verstandig zijn of zou een iSCSI connectie tussen SBS en NAS betrouwbaarder zijn?
De active directory koppeling heb ik ook wel eens gebouwd in mijn lab opstelling echter had ik toch mijn twijfels bij de betrouwbaarheid van deze opstelling. Een reden om hiervoor te kiezen zou zijn dat al het verkeer voor de NAS niet door de Small Business Server heen moet wat met iSCSI wel het geval zou zijn.
De wens vanuit de klant is om de rechten zoveel mogelijk op AD niveau te regelen, men ziet het niet zitten om gebruikersaccounts ook direct op de NAS te moeten beheren, dus vandaar dat ik hierover wat vragen heb.

Is het verstandig om een SSD only pool te maken voor virtual machines?
Ik weet dat ik SSD's kan inzetten als SLOG en L2ARC maar zou een volledige op SSD's gebouwde pool niet net zo efficiënt zijn? Voor virtualisatie zijn naar mijn mening voornamelijk hoge IOps en lage latency van belang (disk direct op moederbord dus?). Schijfruimte voor de virtual machine is in mijn situatie nu en ook in de toekomst van ondergeschikt belang, één 128GB SSD zou namelijk al voldoende schijfruimte bieden voor de hosts die men op korte zou kunnen virtualiseren.

Nu staat mij echter iets bij over een relatie tussen de (gewenste) snelheid van een pool en de hoeveelheid benodigd geheugen echter denk ik dan logischerwijs dat een trage pool ervoor zorgt dat de transaction groups niet snel genoeg verwerkt kunnen worden waardoor het geheugen volloopt. Klopt dit of zit ik er dan helemaal naast?

Edit:
Ik ben mij wel bewust van het feit dat investeren in RAM voor grotere ARC altijd verstandig is en dat SSD's wel snel kunnen slijten in de door mij geschetste situatie. Waarschijnlijk is een set 10K schijven met slc SSD's erbij de verstandige keuze echter ben ik wel nieuwsgierig naar de te verwachten levensduur en performance van een SSD only pool.


Mocht blijken dat een zelfbouw ZFS NAS haalbaar is dan zijn er nog wel meer zaken waarover ik een aantal vragen heb echter lijkt het me verstandig om het voor nu even bij bovenstaande lap tekst te laten :*) .

[ Voor 6% gewijzigd door dutch_warrior op 22-04-2014 18:07 ]


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 10-10 12:23
dutch_warrior schreef op dinsdag 22 april 2014 @ 17:52:
Een kennis van mij heeft mij gevraagd of ik even kan nadenken over een efficiënte oplossing voor diverse problemen binnen zijn MKB netwerk.
Het eerste grote nadeel dat in mij opkomt: wie gaat die zelfbouw NAS onderhouden? En wie geeft support mocht het ding uitvallen? Voor mij zou het een te groot risico vormen om dit hobbymatig te doen (met behulp van tweakers.net ;) )

Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Waarom niet een Synology neermikken met 2/4/6/10 schijven en hun mail lekker bij Google Apps of Office 365 in de cloud gooien. Scheelt beheer, gekloot met VM's en weet ik wat en die Synology zit gewoon support op + dat het enorm stabiel is.

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
EnerQi schreef op dinsdag 22 april 2014 @ 19:12:
[...]


Het eerste grote nadeel dat in mij opkomt: wie gaat die zelfbouw NAS onderhouden? En wie geeft support mocht het ding uitvallen? Voor mij zou het een te groot risico vormen om dit hobbymatig te doen (met behulp van tweakers.net ;) )
Klopt, het hobby gehalte is een risico :).
Onderhouden is het probleem niet, daar is al over nagedacht en kunnen we goede afspraken over maken met een kleine regionale beheerpartij waar behoorlijk veel kennis zit.
De op dit moment al aanwezige ZFSguru archiefserver beheert men ook zelf en het upgraden en vervangen van disks lukt de aanwezige medewerkers wel.

@Dennus
Een Synology is zeker een goede optie, past ook makkelijk binnen het budget, zaken zoals e-mail extern onder brengen is op dit moment geen optie vanwege de trage adsl verbinding.
Een kant en klare NAS wordt ook zeker serieus overwogen maar men had mij gevraagd om eens mee te denken over opties op zelfbouw/semi zelfbouw gebied. Nu heb ik zelf wel ervaring met hobby oplossingen voor thuisgebruik maar zoals ik ook al aangaf ben ik ook wel benieuwd naar eventuele ervaringen met het gebruik van een DIY oplossing in productie omgevingen.

Sommige van mijn vragen kunnen misschien beter in het ZFS topic maar dat terzijde :P.
Persoonlijk neig ik ook naar een kant en klare NAS want dan heb ik er zelf weinig omkijken naar.
Daarnaast zijn de wensen en het scenario niet dermate specifiek of bijzonder dat een maat oplossing noodzakelijk is en het virtualiseren van twee low load VM's gaat met een snellere kant en klare NAS ook nog wel lukken.

Ik zal eens in de topics van QNAP en Synology gaan rondkijken, maar wil toch even het zelfbouw scenario iets verder uitwerken zodat ik ook kan aangeven waarom dit scenario niet voldoende meerwaarde heeft.

Acties:
  • 0 Henk 'm!

  • The Lord
  • Registratie: November 1999
  • Laatst online: 14:54
dutch_warrior schreef op dinsdag 22 april 2014 @ 17:52:
Een kennis van mij heeft mij gevraagd of ik even kan nadenken over een efficiënte oplossing voor diverse problemen binnen zijn MKB netwerk.
Ik heb zelf nu een aantal keren Windows 2012 R2 met Storage Spaces ingezet in een vergelijkbare situatie.

Hier ging het om bestaande merk (Dell, HP en IBM) servers waarbij de hardware support contracten verlopen waren.

Nieuwe server en software licenties met korting; respectievelijk hardware inruil en update licenties. Heeft de klant meteen weer meerdere jaren volledige 'volgende werkdag reparatie op locatie' garantie.

Die paar honderd euro extra per jaar afschrijving weegt ruim op tegen een 'oeps, kapot, nieuwe onderdelen komen binnen een paar dagen'.

Daarnaast krijg je meteen (zij het beperkt) rechten om nog één of meerdere Windows Server installatie in een VM te draaien.

geeft geen inhoudelijke reacties meer


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
The Lord schreef op dinsdag 22 april 2014 @ 20:14:
[...]

Ik heb zelf nu een aantal keren Windows 2012 R2 met Storage Spaces ingezet in een vergelijkbare situatie.

Daarnaast krijg je meteen (zij het beperkt) rechten om nog één of meerdere Windows Server installatie in een VM te draaien.
Dat is een zeer goed argument, hardware moet hoe dan ook aangeschaft worden dus alleen de Windows licentie zou de kosten doen stijgen. Storage spaces was ik helemaal vergeten als oplossing terwijl ik daar notabene een tijd geleden nog mee heb getest :*). Storage spaces in combinatie met de juiste hardware kan ook voorzien in de gewenste groei mogelijkheden.

Bedankt voor de suggestie deze oplossing sluit goed aan op de wensen van mijn kennis, voor een dergelijke standaard situatie en zonder uitgebreide kennis in huis biedt een volledige zelfbouw oplossing gewoon niet voldoende meerwaarde.

Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
dutch_warrior schreef op dinsdag 22 april 2014 @ 20:01:
zaken zoals e-mail extern onder brengen is op dit moment geen optie vanwege de trage adsl verbinding.
Hoeveel verkeer denk jij dat e-mail trekt als het gewoon gesynct is met IMAP? Zowat niets... behalve als er een nieuw mailtje binnen komt. Maar die moet nu ook door je 'trage' ADSL lijntje naar binnen...

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
_eXistenZ_ schreef op dinsdag 22 april 2014 @ 17:32:
Hoe is het ooit afgelopen met de Queen of Raid? Heb sinds 2008 nooit meer wat gehoord van geom_raid5 en draai al jaren blij op mdadm + LVM...
Heb er een hele tijd geleden ook nog een post aan gewijd, maar iirc geen reactie op gekregen.
Jammer, waren altijd interessante posts en geom_raid5 was z'n tijd ver vooruit.

Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 00:17
GioStyle.

Omdat ik de hypervisor wil scheiden van de VM's. Heb een 2e usb stick liggen die een exacte clone is. Stel dat de USB kapot gaat kan ik de 2e USB stick in het systeem stoppen en verder gaan.

Feitelijk is een Hyper-V gewoon een OS en heb deze graag op een aparte schijf/stick staan.

Heb zelfs de pages files/snapshots/vm config op een aparte disk staan.

Laten we zeggen dat ik graag bepaalde zaken wil scheiden van elkaar.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Grappig, ik heb juist alles op 1 ssd staan. Windows Server 2012 + Hyper-V inclusief 5 VM's. Als de ssd stuk gaat, dan pak ik een nieuwe ssd, laatste backup uitrollen en klaar.

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Ik ben ook weer aan de hobby geslagen.

Op dit moment heb ik een VM draaien met FreeNAS dmv een IBM 1015 IT via passtrough. Hier hangen 5 seagates .15's aan van 4TB in zraid. Deze geef ik via iSCSI door aan VMware over 10Gb.

Nu wil ik de VM gaan verhuizen naar fysieke hardware. Zo komen er weer wat resources vrij in Vmware, krijgt FreeNAS een memory upgrade, en krijgt de NAS een mooie eigen behuizing.

De volgende hardware gaat FreeNAS draaien met bovenstaande disks en controller:

ASRock B75 Pro3-M
Intel Pentium G2020 Boxed
Kingston ValueRAM KVR1066D3N7K2/8G
- IBM 1015 IT
- 5x 4TB Seagate .15
Myricom 10Gb NIC

nadat de boel is verhuist en weer beschikbaar is onder ESX ga ik een nieuwe pool toevoegen voor de ESX storage, zodat die van mijn media pool af kan.
Deze pool gaat bestaan uit 8x 1TB disks van samsung (uit mijn oude zelfbouw NAS).

De pool wordt een stripe over 4 mirrors.

Ik zit alleen even te denken hoe ik de disks ga aansluiten.

Plan is nu om de 4TB disks aan de IBM 1015 te hangen, en de 1TB disks allemaal aan de onboard poorten van het asrock bord.

In principe zijn SATA 300 poorten snel genoeg voor de disks, maar ik heb een paar puntjes in mijn achterhoofd.
In de toekomst wil ik 2 SSDs bijplaatsen voor sLOG en cache. Deze lijken me het best te presteren op de IBM, of op de onboard SATA600 poorten.

Daarnaast wil ik in de toekomst uit kunnen breiden, waarschijnlijk met behulp van een SAS expander.
Met dat laatste puntje in het achterhoofd, als ik de SSDs op de 1015 aansluit, en een SAS expander op de andere SAS poort, dan lijkt me dat alleen voor de device aan de expander de bandbreedte gedeeld wordt, en niet die van de andere devices direct op de 1015?

Als de boel draait koop ik een extra setje 16GB memory zodat er totaal 24GB in zit, met de mogelijkheid om naar 32 te groeien.

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 11:47
Anandtech review (maar niet van bijzonder hoog niveau) van de Asrock c2750d4i.

[ Voor 11% gewijzigd door Patatjemet op 30-04-2014 08:21 . Reden: review gelezen ]

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 13:49

_Arthur

blub

Patatjemet schreef op woensdag 30 april 2014 @ 08:01:
Anandtech review (maar niet van bijzonder hoog niveau) van de Asrock c2750d4i.
The only issue that surrounds the C2750D4I since its release is the use of Marvell controllers. Users have been reporting that in Linux and FreeBSD, high intensity read/write workloads cause the controller to reset and elements to any software array are lost.
Ook met Windows Server 2012 zijn de drivers voor de Marvell controllers prut. Als ze ipv die Marvell nu een betere/andere 2e controller hadden gebruikt, was het een perfect bordje geweest. Nu kan je je beter beperken tot de 6 intel poorten en net doen alsof die Marvell er niet is ;)

Acties:
  • 0 Henk 'm!
1250W voeding gebruiken... Wat een stelltje sufkutten....

Even niets...


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 11:47
_Arthur schreef op woensdag 30 april 2014 @ 09:10:
[...]


[...]


Ook met Windows Server 2012 zijn de drivers voor de Marvell controllers prut. Als ze ipv die Marvell nu een betere/andere 2e controller hadden gebruikt, was het een perfect bordje geweest. Nu kan je je beter beperken tot de 6 intel poorten en net doen alsof die Marvell er niet is ;)
Is jou array er wel eens uitgeklapt en zo ja onder welke load? Met mijn setup (10 disk raidz-2 onder freenas) heb ik geen stabiliteitsproblemen. Hij draait sinds opbouw 24/7 (mijn zwaarste belasting is de twee wekelijkse scrub +/- 300 MB/s).

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 14:33
Ik vind het verbruikt nog wat tegen vallen ook " using the 300W PSU on a 240V line was 52 W at idle " , mijn Silverstone DS380 met een Asus P8H77-I bordje + 6xWD20EARX verbruikt 46Watt idle, dus zonder spindown, ik had deze C2750D4I zuiniger verwacht.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is altijd zo. Als een kaal systeem 7W verbruikt dan zie je in reviews vaak 40W+ door gebruik van inefficiente voeding of andere meuk. Soms wordt er gebruik gemaakt van discrete GPU bijvoorbeeld, of onzuinige componenten zoals sterke fans.

Bijna ieder modern moederbord en processor zou kaal rond de 10 en 15W moeten draaien, DC power. Voor al mijn quadcore Intel bordjes geldt dat in elk geval.

Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 12:34
Power consumption was tested on the system as a whole with a wall meter connected to the OCZ 1250W power supply, while in a single MSI GTX 770 Lightning GPU configuration. This power supply is Gold rated, and as I am in the UK on a 230-240 V supply, leads to ~75% efficiency > 50W, and 90%+ efficiency at 250W, which is suitable for both idle and multi-GPU loading.
Zo gek is die 52W dus niet.

specs


Acties:
  • 0 Henk 'm!

Verwijderd

Het zegt in feite niets als je geïnteresseerd bent in low idle power. Dat moet je onder nauwkeurige condities meten en ook met goede apparatuur. Zie bijvoorbeeld mijn project over 8.4W idle power van een Intel 3570 quadcore: Stroomverbruik Processor+Moederbord+Geheugen - zonder hardware mods zoals Mux bijvoorbeeld wel heeft gedaan met zijn zuinige builds.

Acties:
  • 0 Henk 'm!
Als je een 1250W voeding gebruikt om een bordje te testen waarvan de CPU een max TDP heeft van 25W, heb je het gewoon echt niet begrepen.
Hij roept iets over 75% efficientie bij 10% load, nou... Ik denk het niet...

Ik denk dat het daar ver onder zit... Maar goed, neemt niet weg dat de C2750 waarschijnlijk niet een super zuinig bord is, maar dat leren we niet uit deze review iig...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Maar 10% van 1250W is nog steeds 125W. Dus als we 12,5W als werkelijk verbruik zouden nemen, zit je op 1% load.

Afbeeldingslocatie: http://tweakers.net/ext/f/fe8ujuqaOhLEOalSIUMpHvhe/full.png

Als je dit zo ziet krijg je de indruk dat onder een bepaald percentage load de efficiency compleet inzakt. Dus dan huiver ik wat echt lage loads zouden doen qua efficiency. Tegenwoordig zijn computersystemen heel zuinig idle van nature, tussen de 10 en 15W. Dus jammer dat je voor low idle power bijna verplicht een PicoPSU moet nemen.

Acties:
  • 0 Henk 'm!
Nou ja, het is vooral dat idle zo laag is en de piek zo hoog. Echt dikke videokaarten doen al snel 200W.
Dat is te veel voor een PicoPSU (-achtige) PSU's.

Voedingbouwers kunnen prima lichtere voedingen maken. Het risico dat een eindgebruiker zo'n ding alleen in zet in combinatie met een Vette GPU en het ding opblaast is alleen te groot.

Dus dan gaan ze maar veilig zitten.

In mijn Antec ISK300-65, zit keurig een PicoPSU.

Maar voor de rest heb je helemaal gelijk. Het zal mij niets verbazen als die 1250W voeding maar 50% efficiënt is op dat niveau.

[ Voor 13% gewijzigd door FireDrunk op 30-04-2014 16:08 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Als je op zoek bent naar een hardeschijfcontroller voor ZFS zoals de beroemde IBM M1015 (geflasht), maar niet voor 8 schijven, maar 1 controller voor 16/32 schijven, wat is dan eventueel een (betaalbare) optie?

Acties:
  • 0 Henk 'm!

Verwijderd

Er is een LSI variant met 4x Mini-SAS dus voor 16 hardeschijven geschikt, maar die is wel een stuk duurder dan 2x IBM M1015.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
of een 36 poorts SAS expander aan een M1015 hangen. Kun je kiezen of 2x uplink van de M1015 gebruiken met 28 poorten of 1x uplink en dan houd je 4x 6Gb over voor 32 schijven ;)

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Thanks, dan zit ik toch in de goede hoek te kijken. ;)

Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 11:47
Ga je voor 16 /32 2.5" disks? :9~

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!
pricewatch: LSI SAS 9201-16i
pricewatch: Highpoint DC7280 DATACenter HBA

De highpoint is wel een beetje... lastig... Highpoint staat nogal berucht om slechte drivers, maar ze hebben geloof ik belooft met deze HBA wel goede IT firmware te leveren voor alle operating systems..

Maar dat is natuurlijk wel vaker beloofd...


http://www.highpoint-tech.com/USA_new/cs-series_DC7280.htm

En het valt tegen...

[ Voor 8% gewijzigd door FireDrunk op 01-05-2014 09:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:52
Ik zit een beetje te kijken wat voor hardware ik zou nemen als ik wil gaan uitbreiden. Ik denk dat ik dan ga voor een 4U 24 bays case van Rivier. Met grote nadruk op als, want mijn huidige 18TB zit nog niet vol, maar er komt elke dag een aantal GB's erbij. ;)

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 01 mei 2014 @ 09:09:
pricewatch: LSI SAS 9201-16i
pricewatch: Highpoint DC7280 DATACenter HBA

De highpoint is wel een beetje... lastig... Highpoint staat nogal berucht om slechte drivers, maar ze hebben geloof ik belooft met deze HBA wel goede IT firmware te leveren voor alle operating systems..

Maar dat is natuurlijk wel vaker beloofd...


http://www.highpoint-tech.com/USA_new/cs-series_DC7280.htm

En het valt tegen...
Als je ze mag geloven dan is er Linux ondersteuning en zou je ZoL kunnen doen. Mits ze het deze keer wel voor elkaar hebben gekregen is de prijs per poort erg aantrekkelijk (ca. 15 euro per poort).

Maar de pech is wel dat er een onderbuikgevoel als gevolg van eerdere slechte ervaringen begint op te borrellen. In het verleden meerdere keren in de clinch gelegen met Highpoint Taiwan over de combi van HPT en Linux die toch niet zo goed werkte als dat zij hadden gevonden.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
Ik heb persoonlijk de wat oudere Areca 16 ports HBA gebruikt. Dat is een 4 poorts Marvell controller met een sas expander erachter. Die werkte prima icm ZFS en de driver was zo slecht nog niet. Was een vrij simpele AHCI achtige SAS driver.

Gewoon simpel IT mode. Volgens mij is die driver alleen niet voor de DC- modellen... :(

[ Voor 10% gewijzigd door FireDrunk op 01-05-2014 10:46 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 01 mei 2014 @ 10:45:
Ik heb persoonlijk de wat oudere Areca 16 ports HBA gebruikt. Dat is een 4 poorts Marvell controller met een sas expander erachter. Die werkte prima icm ZFS en de driver was zo slecht nog niet. Was een vrij simpele AHCI achtige SAS driver.

Gewoon simpel IT mode. Volgens mij is die driver alleen niet voor de DC- modellen... :(
De wens van iedere ZFS liefhebber is een pure AHCI HBA (met iets als een Intel Panther point ofzo). Gewoon een simpele SATA insteekkaart met pak hem beet 16 SATA poorten in de vorm van een 4x SAS mini naar 4x SATA fan-out kabel, SATA-III ondersteuning, die zijn weg weet met 6 TB disks en een prijsstelling die te berappen is.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 13:49

_Arthur

blub

Patatjemet schreef op woensdag 30 april 2014 @ 11:45:
Is jou array er wel eens uitgeklapt en zo ja onder welke load? Met mijn setup (10 disk raidz-2 onder freenas) heb ik geen stabiliteitsproblemen. Hij draait sinds opbouw 24/7 (mijn zwaarste belasting is de twee wekelijkse scrub +/- 300 MB/s).
Jep, maar ik gebruikte toen dan ook de raid-functionaliteiten van Marvell zelf: draai nu met losse disks op de Intel controller.

In raid1 config klapte de zooi er uit met een bluescreen onder Windows2012R2. Met softraid (pools) was de performance dramatisch (40/60mb/s of minder op de Marvels.)
Habana schreef op woensdag 30 april 2014 @ 15:03:
Ik vind het verbruikt nog wat tegen vallen ook " using the 300W PSU on a 240V line was 52 W at idle " , mijn Silverstone DS380 met een Asus P8H77-I bordje + 6xWD20EARX verbruikt 46Watt idle, dus zonder spindown, ik had deze C2750D4I zuiniger verwacht.
De C2750D4I doet idle, met niets er aan en 0 load, 26Watt verstoken. Dus met 6 disks er bij die niet gespinneddown zijn, is het een nette waarde.

Acties:
  • 0 Henk 'm!

Verwijderd

De C2750D4I doet idle, met niets er aan en 0 load, 26Watt verstoken.
Hoe kom je aan deze gegevens? Waarschijnlijk kloppen die niet namelijk, anders zou het betekenen dat de zuinige SoC-chip van Intel ongeveer drie keer onzuiniger is dan hun reguliere 80W quadcore chips. Dat lijkt mij erg onaannemelijk. Het zou juist zuiniger moeten zijn (zoals 4 tot 7 watt) omdat er geen southbridge chipset meer is; deze is nu geïntegreerd in de processor net als de northbridge, geheugencontroller, graphics en andere meuk al is geïntegreerd.

Ik zou binnenkort een J1900 kunnen hebben; ben benieuwd naar de idle power. Maar als de boven de 20W zou zijn - wat vrijwel zeker niet zo is - dan zou dat het hele argument voor deze producten wegnemen.

Kortom, ik denk dat je met 26 watt misschien in de buurt zit van een test zoals veel reviewsites uitvoeren met onzuinige componenten, maar met een PicoPSU setup zou je toch echt véél zuiniger moeten kunnen draaien.

De 52W waarde in de review is niet met 6 hardeschijven erbij; enkel een SSD. Maar ze hebben er wel een dikke 7970 videokaart in gepropt; in een Avoton serverbord inderdaad... :F

[ Voor 8% gewijzigd door Verwijderd op 01-05-2014 14:19 ]

Pagina: 1 ... 148 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.