Verwijderd

Punt is dat de voltages heel stabiel moeten blijven, omdat bij een voltage-fluctuatie er corrupte gegevens worden geschreven, ook op gebieden die helemaal niet beschreven zouden/mochten worden.

Zelf iets rommelen kan werken, met de nadruk op kan. Als het om wat voor reden een keer niet werkt, kun je al je 20 terabyte wegdonderen omdat je pool corrupt is en dus alles verloren is. Dat is best wel een heftig risico.

Vandaar dat ik ZIL disk alleen aanraad met een veilige SSD en tenminste pool versie 19. Met pool versie 19 blijft je pool behouden als je ZIL corrupt raakt of niet aanwezig is (UNAVAIL).

Er zijn interessante RAMdisks met een soort supercapacitor; maar geeneen gebruikt DDR3 geheugen en heeft vaak een langzame interface (SATA/150 als je RAM 2GB/s kan doen is niet zo leuk!). Maar zoiets als ZIL kan dus ook; in feite DDR3 met een supercapacitor. Merk op dat je aan random I/O niet zo heel veel hebt; ZIL is voornamelijk sequential write en nooit reads; alleen bij recovery na een crash. Dus NAND is eigenlijk helemaal niet zo geschikt als ZIL. Phase Change weer wel.

  • zzattack
  • Registratie: Juli 2008
  • Nu online
Als je al een UPS voor de PSU hebt zitten, heeft dit dan nog zin?
Dan ben je beschermt tegen outages, en dus is je ZIL log (bijna) altijd secure. je moet dan natuurlijk wel je UPS inrichten dat hij netjes je OS afsluit :P anders heeft het nog geen zin :)

Even niets...


Verwijderd

En die beschermt nog niet tegen een defecte PSU, wat een super capacitator wel doet, net als een BBU bij een RAID controller.

Verwijderd

Een UPS beschermt niet tegen zaken als:
- een foute PSU/voeding die voltagefluctuaties geeft
- een stroomsplitterkabeltje wat naar je SSD gaat wat eventjes geen contact maakt (komt vaker voor dan je denkt!)

Persoonlijk zou ik die ZIL niet gebruiken als er persoonlijke data op staat; zonder aparte ZIL staat de ZIL gewoon op je main array en geniet dus ook redundancy.

Van de zomer als ZFS v19+ al beter is ingeburgerd en we nieuwe 3e generatie SSDs met supercapacitor hebben, dan is ZIL een hele leuke feature. Alleen sync writes gaan naar de ZIL, dus met 100MB/s kun je veel hoger halen op je pool. Alleen NFS workloads zijn vaak 100% sync.

  • Q
  • Registratie: November 1999
  • Laatst online: 00:43
zzattack schreef op dinsdag 08 februari 2011 @ 11:43:
Hmm nee zo simpel werkt het zeker niet. Iedere vdev in de pool levert ongeveer de I/O van 1 disk extra. Een pool van veel kleine vdevs is dus zeer veel sneller.
Vreemd, ik ben blijkbaar te onbekend met ZFS.

Mijn simpele geest zegt: dat is eigenlijk het stapelen van RAID levels. Mijn ervaring met het stapelen van RAID levels: geen performance winst tov gewoon lekker 1 dikke array waar je gewoon een disk bij smijt. Weer een extra disk die wat io kan afhandelen. Stapelen van levels geeft overhead.

Verwijderd

Die ervaring deel ik niet Q, in elk geval op Linux en BSD. Stapelen van RAID werkt prima, RAID1+0 of RAID5+0. Overhead is er nauwelijks, behalve parity RAID dat is wat complexer en vergt meer CPU cycles; normale RAID nauwelijks.

ZFS werkt zo: je begint met een pool, zie dit als een RAID0 array bestaande uit vdevs. Een vdev is dan weer een RAID-Z of mirror of enkele disk. Dus elke vdev die je toevoegt, gaat in RAID0. Als dus 3 vdevs hebt die elk 100MB/s kunnen doen en 100IOps, dan zou je pool tot 300MB/s en 300IOps kunnen doen.
Maar waarom zou een vdev van 4 disks in raidz even snel zijn als een vdev van 8 disks in raidz.
Die logica volg ik even niet...

Even niets...


Verwijderd

Even snel qua IOps, niet even snel qua throughput.

Dus als je grote bestanden leest of schrijft dan geldt dit eigenlijk niet, maar je HDDs moeten altijd wel eens seeken, en RAID-Z werkt zo dat voor elke I/O *alle* disks betrokken worden. Dus als er 43KiB moet worden gelezen, dan lezen al je 8 schijven een paar kilobytes daarvan. Alle schijven moeten dus ook seeken voor dezelfde I/O; dus heb je ook dezelfde IOps als een enkele schijf.

Een mirror of stripe heeft die beperkingen niet. Een mirror leest maar iets slechter dan RAID0.

  • zzattack
  • Registratie: Juli 2008
  • Nu online
CiPHER, heb jij ervaring met het mixen van verschillende typen hdd binnen een pool en binnen een vdev? Ik heb momenteel een aantal disks van Hitachi (pricewatch: Hitachi Deskstar 7K2000, 2TB) maar sinds Hitachi een nieuwe, snellere 2TB schijf heeft uitgebracht (pricewatch: Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB) zou ik de pool liever hiermee afmaken. Momenteel zitten er 6 van het oude type in. Kan het helemaal geen kwaad om deze disks in een vdev te mixen? Of kan ik beter eerst de 2e vdev afmaken met nog 4 van het oude type, en dan 2 vdevs van beide 5x de nieuwe disk?

Verwijderd

Kan opzich geen kwaad maar je array/pool wordt er niet sneller van. Alle snelheidswinst van die nieuwere schijven gaat dus wel verloren; je oudere schijven vormen de bottleneck. Maar verder werkt het prima, dus ik zie hier niet zo'n probleem in. Performanceverschil moet natuurlijk niet te groot worden. Ook is het zo dat RAID-Z wat gevoelig is. In feite werken alle schijven in een RAID-Z aan dezelfde I/O. Als één van je schijven er langer over doet, doen ze er effectief allemaal even zo lang over; dus echt de langzaamste factor telt hier. Als je dus één schijf hebt flinke uitschieters naar beneden (seektime) kun je daar mogelijk rare performance van zien.

Maar ik heb heel wat pools gemaakt met alle schijven die ik heb inclusief heel oude; je kunt bijna hardware nog gebruiken en met ZFS weer nuttig laten worden, dat is wel leuk.

Overigens zou ik zelf voor 5K3000 gaan met op zijn tijd een SSD voor de I/O performance. Lage rpm disks doen het prima met sequential I/O (grote bestanden lezen en schrijven) zo verslaat de 5400rpm Samsung F4 2TB de (vorige generatie) 10.000rpm Velociraptor in sequential I/O. De IOps die met 5400rpm tekort komt heb je niet nodig als je een SSD voor L2ARC/ZIL gebruikt, dus lage rpm + SSD is de perfecte combinatie de HDDs doen sequential en de SSDs doen random I/O.

Zonder SSDs is 7200rpm wel iets beter, 30-40% betere IOps. Een SSD scheelt gigantisch veel meer, dus lig er niet wakker van het verschil tussen 7200rpm en 5400rpm! Vooral de nieuwe 5400rpm schijven zijn erg goed vind ik; pakweg 5 jaar geleden waren dat toch 'budget schijven' dat is nu wel anders.

  • zzattack
  • Registratie: Juli 2008
  • Nu online
Bedankt CiPHER. Begrijp ik het dan goed dat zelfs de traagste vdev de snelheid zal bepalen? En dat ervoor zorgen dat een vdev uit enkel gelijke disks bestaat zinloos is als er een andere vdev in de pool zit die wel uit andere disks bestaat?
Overigens kies ik speciaal voor deze Hitachi schijven omdat ze 512b sectors hebben (en dat ook rapporteren). Vrijwel alle huidige disks rapporteren 512b sectors voor compatibility met XP/2003 en lager, maar hebben eigenlijk 4k sectors, en om een aantal redenen kost dit veel ZFS performance.
Verder heb ik vandaag een SSD uit de V&A ontvangen die ik als L2ARC wou inzetten.. maar i.t.t. tot wat de ad beweerde is het een Vertex 1 i.p.v. Vertex 2 :(

Verwijderd

Begrijp ik het dan goed dat zelfs de traagste vdev de snelheid zal bepalen?
Stel je hebt 4 disks in RAID-Z en elke disk doet 100MB/s. We nemen even aan dat de leessnelheid van de pool dan neerkomt op 400MB/s (zal in de praktijk lager zijn). Stel je verwijdert de RAID-Z en maakt een nieuwe aan met de 4 oude en nog 2 nieuwe schijven die 150MB/s kunnen doen. Maar dat betekent dat de performance maar tot 600MB/s zal stijgen. De nieuwe schijven passen zich dus aan aan de langzamere snelheid (100MB/s per disk) van de bestaande schijven. In feite draait alles op latency, maar MB/s praat makkelijker.
Overigens kies ik speciaal voor deze Hitachi schijven omdat ze 512b sectors hebben
Mwa de Samsung F4 2TB lijkt me juist perfect voor ZFS. 4K sectoren is ook een voordeel, want 512B schijven kunnen vrij snel last van geheugenverlies krijgen; massale sectoren die onleesbaar zijn. Niet door fysieke schade ofzo (echt bad sector) maar gewoon niet meer recoverable. Heb meerdere mensen gehad die duizenden Current Pending Sector in hun SMART output hadden. Opzich kan ZFS goed tegen uBER (uBER is dus Bit Errors die NIET gerecovered kunnen worden; in feite een soort corruptie op je HDD die niet weggaat totdat je naar die corrupte/onleesbare sectoren schrijft, wat ZFS ook doet).

4K sector kan problemen geven in RAID-Z performance, maar:
- performance is vrij goed zolang je je houdt aan de optimale disk counts. Voor RAID-Z is dat 3, 5 of 9 disks, bij RAID-Z2 is dat 6 of 10 disks. Bij die configuraties heb je eigenlijk geen tweaks meer nodig.
- voor andere configuraties kun je nog een sectorsize override trucje uitvoeren, tenminste als je op BSD platform zit

Dus om die 4K sectoren hoef je je echt geen zorgen te maken. Koop alleen geen WD EARS 2TB met 4 platters die heeft hele trage 512B emulatie, de nieuwe WD EARS met 3 platters is al beter maar Samsung F4 heeft mijn voorkeur, in elk geval qua snelheid. Arrays van 8 disks scoorden gemiddeld 100MB/s hoger dan de WD EARS schijven; toch een redelijk verschil.

Die vertex 1 is een Indilinx SSD, veel minder snel dan Sandforce, maar zeker niet belabberd. Wel heeft Indilinx slechts 4 kanalen, dus random read IOps zal echt niet zo hoog zijn. Maar wel beter dan JMicron/Samsung wat maar ietsje beter is dan unmanaged CompactFlash.

  • zzattack
  • Registratie: Juli 2008
  • Nu online
Je spreekt hier enkel over pools en niet zozeer over vdevs. Maakt dit nog verschil?
Stel ik maak een pool van 2 vdevs. De eerste bestaat uit 5 schijven die ieder 100MB/s doen. De tweede bestaat uit 5 schijven die ieder 150MB/s doen. De eerste vdev zal (zeg) 100MB/s doen, de tweede 150MB/s. Maar wat doet de pool zelf, 200MB/s? Of wel 250MB/s?

Ik zit nu al met een redelijk aantal Hitachi schijven, dus daar maak ik het mee af, maar wellicht goed om te weten dat dit niet zo nauw komt voor een volgende keer.

  • 0rbit
  • Registratie: Maart 2000
  • Laatst online: 18-03-2021
Heeft iemand van jullie wel eens Subversion onder FreeNAS geinstalleerd?

Ik ben geheel voldaan, dank u wel!


  • zzattack
  • Registratie: Juli 2008
  • Nu online
Niet onder FreeNAS, wel onder FreeBSD.

Verwijderd

zzattack schreef op woensdag 09 februari 2011 @ 13:17:
Je spreekt hier enkel over pools en niet zozeer over vdevs. Maakt dit nog verschil?
Zit zeker verschil in, goeie vraag!
Stel ik maak een pool van 2 vdevs. De eerste bestaat uit 5 schijven die ieder 100MB/s doen. De tweede bestaat uit 5 schijven die ieder 150MB/s doen. De eerste vdev zal (zeg) 100MB/s doen, de tweede 150MB/s. Maar wat doet de pool zelf, 200MB/s? Of wel 250MB/s?
250MB/s
Ik zit nu al met een redelijk aantal Hitachi schijven, dus daar maak ik het mee af, maar wellicht goed om te weten dat dit niet zo nauw komt voor een volgende keer.
De nieuwe Hitachi's zijn best goed geloof ik hoor, alleen BER kan dus een klein probleem vormen. Stel je gebruikt RAID-Z wat maar één disk redundantie heeft, en er gaat één disk kaduuk. Dan stop je een nieuwe disk in plaats en gaat rebuilden, maar als dan BER/onleesbare sectoren op je oude schijven naar voren komen, kan het zijn dat bepaalde bestanden corrupt en inaccessible worden. ZFS detecteert dit en laat je zien om welke bestanden het gaat. ZFS metadata kan niet (zo snel) corrupt raken omdat het altijd 'ditto blocks' gebruikt; dubbele kopien.

Dus als je zegt: 'het is niet erg als een paar bestanden corrupt zijn als ik maar weet welke' dan is RAID-Z voldoende, anders kun je beter RAID-Z2 nemen en voor belangrijke data altijd copies=2. Dat vergt dubbele capaciteit, maar je meest belangrijke dingen zijn vaak niet zo groot dus dan is copies=2 een no-brainer.

Dit 'probleem' is dus minder met 4K sectoren, omdat het meer ECC heeft en dus minder vaak onleesbare sectoren zouden moeten optreden.

[ Voor 4% gewijzigd door Verwijderd op 09-02-2011 14:45 ]


  • zzattack
  • Registratie: Juli 2008
  • Nu online
Ah, helder. In dat geval maak ik de huidige vdev af met de oude Hitachi's, en maak ik de twee laatste vdevs van de nieuwe Hitachi schijven. Bedankt!

Verder: mijn huidige pool zal vervangen moeten worden (1 vdev bestaat uit 6 schijven). Op zich is er niet heel veel data in gebruik (7TB ofzo), maar een goede backup plaats van voldoende grootte heb ik niet. Zodoende begin ik een nieuwe pool met eerst 5 schijven. Hierna migreer ik de data van de oude pool naar de nieuwe. Vervolgens destroy ik de oude pool en hergebruik ik de schijven voor een nieuwe vdev. Op dit moment is de distributie van de data dus erg slecht, alle content staat op 5 van de 10 disks. Hoe kan ik dit makkelijk herdistribueren?

  • Q
  • Registratie: November 1999
  • Laatst online: 00:43
Verwijderd schreef op woensdag 09 februari 2011 @ 01:47:
Die ervaring deel ik niet Q, in elk geval op Linux en BSD. Stapelen van RAID werkt prima, RAID1+0 of RAID5+0. Overhead is er nauwelijks, behalve parity RAID dat is wat complexer en vergt meer CPU cycles; normale RAID nauwelijks.

ZFS werkt zo: je begint met een pool, zie dit als een RAID0 array bestaande uit vdevs. Een vdev is dan weer een RAID-Z of mirror of enkele disk. Dus elke vdev die je toevoegt, gaat in RAID0. Als dus 3 vdevs hebt die elk 100MB/s kunnen doen en 100IOps, dan zou je pool tot 300MB/s en 300IOps kunnen doen.
Als ik mijn 'chunksize' goed kieze wordt voor iedere io request max 1 disk getroffen als ik 1 grote array heb van zeg 20 disks.

Maar stel nu dat ik RAID50 opzet op basis van 4 x een RAID5 set van ieder 4 disks. Dus dan heb ik een RAID0 van 4 virtuele disks.

Het os werkt dan met die RAID0. Stel dat de chunksize 64k is en ik doe een request binnen de 64k dan hou ik met 1 request een hele RAID5 zoet van 4 disks. 3 disks doen dan niets nuttigs. Ik laat met 1 request 4 disks seeken of in ieder geval 3 uit hun neus vreten.

MAW: ik zie niet in hoe dit beter performed dan 1 grote array qua random io. Ik ben misschien simpel en misschien begrijp ik het echt niet. Maar een RAID50 ofwel het stapelen van raid arrays is niet goed voor IO. Voor troughput is het niet zo'n punt lijkt me, als je het goed opzet.

RAID10 is natuurlijk een heel ander verhaal. Maar daar heb ik het niet over. RAID50 en RAID60 is niet goed voor IO, zou ik zeggen. Ga dan voor RAID10 of voor een grote RAID5/6.

[ Voor 8% gewijzigd door Q op 09-02-2011 21:21 ]


Verwijderd

Q schreef op woensdag 09 februari 2011 @ 20:39:
[...]


Als ik mijn 'chunksize' goed kieze wordt voor iedere io request max 1 disk getroffen als ik 1 grote array heb van zeg 20 disks.

Maar stel nu dat ik RAID50 opzet op basis van 4 x een RAID5 set van ieder 4 disks. Dus dan heb ik een RAID0 van 4 virtuele disks.

Het os werkt dan met die RAID0.
Tot zover volg ik het, behalve dit laatste stukje. Het OS werkt op een volume, niet wetende wat daar achter zit (ZFS uitgezonderd). Het filesystem is verantwoordelijk voor het toepassen/verhogen van queue depth op het volume, en de RAID engine is verantwoordelijk voor het distribueren van die I/O over de RAID member disks.
Stel dat de chunksize 64k is en ik doe een request binnen de 64k dan hou ik met 1 request een hele RAID5 zoet van 4 disks.
Als het om een read-request gaat dan hou je maar 1 van de 4 disks bezet en de andere 3 zijn beschikbaar voor andere I/O die zij kunnen afhandelen. Bij writes is het ingewikkelder en hangt het af of er een read-modify-write moet volgen of niet, dus hier houd je mogelijk wel meerdere of alle RAID5 members bezet. Voor dit soort writes moet de RAID5 ook gaan lezen, en het kan pas schrijven als die leesacties voltooid zijn (sync reads) en dat is dus héél erg langzaam.
3 disks doen dan niets nuttigs. Ik laat met 1 request 4 disks seeken of in ieder geval 3 uit hun neus vreten.
In dit voorbeeld zal maar één disk van de 16 gebruikt worden, je doet immers maar één I/O. Met een RAID50 (RAID0 van 4x RAID5 met 4 disks = 16 disks) zal dus één disk die 64KiB serveren (uitgaande van stripe-aligned I/O).

Dat geldt ook voor een 2-disk RAID0 of een 20-disk RAID5. Maar het wordt natuurlijk anders als je meerdere I/O requests tegelijk gaat sturen. Heb je het over 1000 I/O's, dan kun je wel alle disks tegelijk bezig houden. Queue depth is dus cruciaal.

Dit geldt overigens niet of veel minder voor writes, omdat die door de HDDs als write-back worden verwerkt; eerst naar de DRAM dan zeggen dat de I/O al klaar is nog voordat de data op de disk staat. Dat betekent dat je effectief aan queue depth wint; ook met queue depth = 1 kun je dan meerdere I/O requests sturen en op enig moment kunnen je schijven meer dan 500 I/O's in de buffer hebben staan allemaal veroorzaakt door queue depth = 1.

Voor reads gaat die trucje niet op, daarom zie je random read met queue depth = 1 altijd heel laag op alle RAIDs, en dus ook SSDs (die intern RAID0 gebruiken).

Voor dit verhaal maakt het ook niets uit of je RAID nu stapelt of niet, de queue depth wordt niet door de RAID engine bepaalt, die voert het alleen maar uit. Denk aan je multicore CPU, en queue depth is het aantal threads dat je applicatie heeft. Singlethreaded betekent maar één cpu core tegelijk. Multithreaded kun je mogelijk alle cores geruiken tot max lineair performance schalen (wat natuurlijk grote winsten oplevert). Queue depth wisselt altijd sterk. van 1 naar 850 springen is normaal als een applicatie opeens zijn databestand bijwerkt (thunderbird mailclient bijvoorbeeld). Veel desktop applicaties gebruiken alleen blocking reads, dus queue depth = 1 reads. Daarom schaalt RAID0 op de desktop niet altijd geweldig, afhankelijk van de workload. Voor serverapplicaties geldt dit veelal niet en is queue depth geen probleem.

[ Voor 8% gewijzigd door Verwijderd op 09-02-2011 23:06 ]

Waar je natuurlijk nog even snel omheen praat is dat je niet maar 1 applicatie draait op een server/desktop. Als je per applicatie queuedepth=1 kan genereren, heb je al snel een queuedepth van > 5 aangezien er wel 10 processen tegelijkertijd de disk aanspreken als je een beetje lekker bezig bent..
Op mijn server genereren een paar VM's al snel een grotere QueueDepth dan 1 ;)

Even niets...


Verwijderd

Zowel een enkele applicatie kan meer queues genereren (standaard bij non-blocking I/O) behalve voor sync reads (blocking reads). Het filesystem kan ook Queue depth verhogen. Zo moet het filesystem metadata lezen, past het read-ahead toe en write buffering. Dus queue depth=1 is niet 'normaal'. Voor sommige dingen als booten en een applicatie starten zit je wel vaak op qd=1.

Hoe meer queue depth des te beter, want dan kun je meer hardware aan het werk zetten. Zelfs als multicore CPUs; je hebt geen vier applicaties nodig om alle 4 de cores bezig te houden; een enkele applicatie kan doordat het systeem ook cpu cycles nodig heeft al meer dan één core gebruiken (windows doet wel heel veel dingen single-threaded dus maximaal 2 threads in dat geval). Maar als je dus een goede applicatie hebt (iemand die kan programmeren) dan zijn er tenminste evenveel threads als er CPU cores zijn. Duizenden threads is ook mogelijk, wil overigens niet zeggen dat die allemaal gelijkmatig de CPU gebruiken.

[ Voor 6% gewijzigd door Verwijderd op 10-02-2011 12:24 ]

Ik ben al langer op zoek naar een beetje een goede modulaire voeding voor mijn server, aangezien mijn Nexus 430 niet echt bevalt (veel teveel kabels...).
Nou viel mijn oog op deze:

nieuws: Scythe komt met midrange-Gouriki 3-voedingen
Specs:
http://www.scythe-eu.com/...ly/gouriki-3-plug-in.html

500W 80-plus.. Mijn nominale load is +- 100W, en dat betekent dus dat ik binnen die 20% van 80-plus bronze zit, en deze voeding dus 80% efficient zou moeten zijn... Prijs is ook een van de goedkoopste 500W 80plus bronze voedingen, dus die valt wel mee.

Even niets...


Verwijderd

Kan je helaas niet adviseren over voedingen, daar heb ik niet zoveel verstand van. :)

Maar doorgaans kun je op 80plus.org de testrapporten lezen en kun je zien hoe efficient je PSU is onder 20% load. Het beste kun je tussen de 40 en 60 procent load zitten nominaal. Dus dat zou betekenen een 220W voeding ofzo. Hangt helemaal van je hardware af, heb je een flinke videokaart of veel HDDs met een hoog piekvermogen, dan gaat 220W niet genoeg zijn, ook zijn die zeer zeldzaam. Het is kennelijk veel goedkoper een (redelijk inefficiente) voeding van 550W+ te maken; onder de 350W kom je al bijna niet meer tegen.

Dus misschien dat je kunt kijken wat je piekvermogen nu is en dan weet je ook beter hoeveel vermogen je nodig hebt. Mijn ervaring zegt niet: meer is beter. Vooral 800W voedingen en dan op een efficient 35W systeem aansluiten gaat helemaal fout, de voeding gebruikt/verspilt dan mogelijk nog meer stroom dan de hele computer zelf.

Zolang je boven de 20% load blijft zie ik niet zo'n probleem, maar ik wil wel opmerken dat 100W idle load vrij hoog is. Ik zit op 29W, en op een tweakblog hier kun je zien hoe een core i3 naar onder 10W wordt getweaked. Als je geen lawaai, vibraties en continue hittevorming wilt, kun je nu ook heel zuinige hardware bouwen die toch heel snel is. Zelf lijkt het me stukken beter als je PC rond de 10W gebruikt als je er niks mee doet, en pas 100W+ gaat gebruiken als je een spel opstart ofzo. 100W verstoken in idle is eigenlijk wel zonde.

Hangt allemaal af van je situatie en je eigen prioriteiten natuurlijk, maar denk er eens over, liefst nog voordat je je voeding koopt. :)
Verwijderd schreef op donderdag 10 februari 2011 @ 15:19:
Kan je helaas niet adviseren over voedingen, daar heb ik niet zoveel verstand van. :)

Maar doorgaans kun je op 80plus.org de testrapporten lezen en kun je zien hoe efficient je PSU is onder 20% load. Het beste kun je tussen de 40 en 60 procent load zitten nominaal. Dus dat zou betekenen een 220W voeding ofzo. Hangt helemaal van je hardware af, heb je een flinke videokaart of veel HDDs met een hoog piekvermogen, dan gaat 220W niet genoeg zijn, ook zijn die zeer zeldzaam. Het is kennelijk veel goedkoper een (redelijk inefficiente) voeding van 550W+ te maken; onder de 350W kom je al bijna niet meer tegen.

Dus misschien dat je kunt kijken wat je piekvermogen nu is en dan weet je ook beter hoeveel vermogen je nodig hebt. Mijn ervaring zegt niet: meer is beter. Vooral 800W voedingen en dan op een efficient 35W systeem aansluiten gaat helemaal fout, de voeding gebruikt/verspilt dan mogelijk nog meer stroom dan de hele computer zelf.

Zolang je boven de 20% load blijft zie ik niet zo'n probleem, maar ik wil wel opmerken dat 100W idle load vrij hoog is. Ik zit op 29W, en op een tweakblog hier kun je zien hoe een core i3 naar onder 10W wordt getweaked. Als je geen lawaai, vibraties en continue hittevorming wilt, kun je nu ook heel zuinige hardware bouwen die toch heel snel is. Zelf lijkt het me stukken beter als je PC rond de 10W gebruikt als je er niks mee doet, en pas 100W+ gaat gebruiken als je een spel opstart ofzo. 100W verstoken in idle is eigenlijk wel zonde.

Hangt allemaal af van je situatie en je eigen prioriteiten natuurlijk, maar denk er eens over, liefst nog voordat je je voeding koopt. :)
Mijn specs:
Nexus 430 Value voeding
Intel Xeon 3430 (quadcore 2.93Ghz)
8GB ECC DDR3 1333Mhz
4 x WD 1.5TB 5400RPM
4 x Seagate 1.5TB 5900RPM
4 x Samsung F4EG 2TB 5400RPM
1 x Intel 80GB SSD
1 x LSI 3068E-R RAID Controller

Dus ik mag toch wel verwachten dat het meer dan 27W bij verstookt :)
Ik moet de downspin van de disks nog instellen, dus het word nog wel 'iets' minder, maar onder de 70W idle ga ik niet halen.. :)

Even niets...


  • zzattack
  • Registratie: Juli 2008
  • Nu online
Met onboard graphics? Denk dat je met een 550W voeding al heel erg goed zit. Persoonlijk ben ik heel tevreden over be quiet! voedingen, zoals
pricewatch: be quiet! Straight Power 480W
en
pricewatch: be quiet! Straight Power BQT E7-CM-480W
maar er zijn er ontzettend veel die goed presteren voor jouw setup.

Verwijderd

FireDrunk schreef op donderdag 10 februari 2011 @ 15:42:
[...]


Mijn specs:
Nexus 430 Value voeding
Intel Xeon 3430 (quadcore 2.93Ghz)
8GB ECC DDR3 1333Mhz
4 x WD 1.5TB 5400RPM
4 x Seagate 1.5TB 5900RPM
4 x Samsung F4EG 2TB 5400RPM
1 x Intel 80GB SSD
1 x LSI 3068E-R RAID Controller

Dus ik mag toch wel verwachten dat het meer dan 27W bij verstookt :)
Ik moet de downspin van de disks nog instellen, dus het word nog wel 'iets' minder, maar onder de 70W idle ga ik niet halen.. :)
Mooie config hoor! En als je 12 schijven spindown zou down zou je 12*4= 48W maximaal kunnen besparen; ik gok rond de 40W in het echt. Dat scheelt dan al bijna de helft van je totale idle power dus best veel!

Maar je kunt ook zeggen alleen spindown op deze en die RAID-set en geen spindown op mijn actieve RAID-set die gewoon altijd paraat moet zijn. Bijvoorbeeld data die je niet zovaak aanspreekt op je spindown HDDs doen en data die je dagelijks gebruikt op je primaire/actieve array zonder spindown. Normaal moet je wel iets van 10 seconde wachten wat soms wel geduld vergt. ;)
mjah, de 4x2TB disks hangen aan een Windows VM waarop backup software geinstalleerd staat (TIP: CrashPlan.com) en de andere 8 disks hangen in RAID6 in een Linux VM. Daarnaast heb ik nog een sabnzbd linux vm die over NFS (lokaal dus eigenlijk) de data array benaderd en daarop download.

Over NFS haal ik 300MB/s lezen en schrijven, op de VM zelf haal ik 500MB/s lezen en 350MB/s schrijven.
Enige minpunt aan de hele server is tot nog toe eigenlijk het kabelmanagement (want die nexus is niet modulair) dus het is een teringzooi in de kast, maar ik heb net nieuwe kabeltjes gekocht bij Highflow.nl.
4 x Sata power naar 1 x molex, dat scheelt me dus al weer een buts verloopjes.
Nu nog een modulaire voeding met maar 1 molex plug en dan hebben we dus maar 1 kabel naar de disks lopen en is alles (hopelijk) weer netjes!

Deze dus:
http://highflow.nl/aanslu...remium-sleeved-white.html
Alleen dan in het zwart ;)

[ Voor 8% gewijzigd door FireDrunk op 10-02-2011 22:13 ]

Even niets...


  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
FireDrunk schreef op donderdag 10 februari 2011 @ 15:42:
[...]


Mijn specs:
Nexus 430 Value voeding
Intel Xeon 3430 (quadcore 2.93Ghz)
8GB ECC DDR3 1333Mhz
4 x WD 1.5TB 5400RPM
4 x Seagate 1.5TB 5900RPM
4 x Samsung F4EG 2TB 5400RPM
1 x Intel 80GB SSD
1 x LSI 3068E-R RAID Controller

Dus ik mag toch wel verwachten dat het meer dan 27W bij verstookt :)
Ik moet de downspin van de disks nog instellen, dus het word nog wel 'iets' minder, maar onder de 70W idle ga ik niet halen.. :)
Welk moederbord heb je?

iRacing Profiel


Verwijderd

Geacht Forum,

Het volgende:

In 2008 heb ik een NAS voor thuisgebruik gebouwd (Squeezebox, Samba, Website en Email), Destijds gekozen voor een prijsvriendelijk systeem bestaande uit een ASUS H3A-H bord en Athlon 4450e etc etc. Bedoeling toen was om gelijk met een 64b kernel aan de slag te gaan, helaas bleek zowel de Linux als de FreeBSD 64b varianten beide problemen te hebben: Onder linux werden files via samba/netwerk corrupt en nat wat zoekwerk bleek dat op willekeurige plekken in een file het 3de bitje in een byte fout zat (na een compare van bestanden) en FreeBSD 64b wilde na installatie vaak niet booten. Destijds verder gegaan met FreeBSD i386 wat de de afgelopen jaren stabiel liep en nog steeds loopt.

Door toenemende behoefte aan opslagruimte wou ik het systeem gaan uitbreiden en ook ZFS in gebruk gaan nemen ipv GEOM, dus terug naar een 64b kernel omdat ZFS daar stabieler is en ook minder aangepast hoeft te worden zoals dat voor i386 moet.

Eerder deze week in een andere PC (oude dell met intel p4) een disk voorzien van 64b freebsd met daarop enkele ports. Deze disk voor een test in mijn server gezet en het systeem startte en leek verder goed te lopen. Hoeraa dacht ik. Heb de disk toen helemaal opgetuigd en enkele dagen geleden in "productie" genomen.....helaas, na 2 uur kon ik terug gaan naar de oude disk want er ging weer van alles fout de imap exec van dovecot was ineens weg en toen ik samba opnieuw compileerde kwamen tijdens de autoconf stap meldingen op het scherm als 'segmentation fault'. de make install clean klapte er steeds weer op andere plekken uit. De schijf weer terug in de oude dell met P4 gezet en het compileren loopt als een trein.

Schijnbaar is het moederbord en/of de cpu 'brak' i.c.m. een 64b OS......het was in 2008 niet zo duur, geloof met ram erbij nog geen 130 euro. Dus geen man over boord om nieuwe hardware te kopen.

Als ik nu naar de prijzen kijk (b)lijkt AMD nog altijd een prijsvriendelijkere oplossing te zijn maar ik ben na deze ervaring: in oude dell van 10 jaar geleden geen probleem, in amd van 4 jaar geleden wel een probleem, wel een beetje kopschuw geworden.

Ik zou het leuk vinden, op prijs stellen, dat als iemand die dit leest en een AMD cpu heeft met een FreeBSD 64b kernel stabiel mij zou kunnen laten weten welke combinatie van moederbord en cpu hij heeft. Dus specifiek een oproep aan FreeBSD 8.x gebruikers.

Apropos, het mogen ook thumbs up's zijn voor server moederborden met opteron.

Dank.
Huib

Verwijderd

Huib, heb je memtest86+ al gedraaid voor 24 uur? Zo ja kun je nog proberen ACPI uit te schakelen, maar corruptie is vrij ernstig en doet eerder denken aan brak geheugen.

  • zzattack
  • Registratie: Juli 2008
  • Nu online
Huib: ik draai nu sinds een kleine 2 weken een Opteron 6128 op een ASUS KGPE-D16 met FreeBSD 8.1. Erg tevreden, tot nogtoe geen problemen gehad.
Hiervoor heb ik zo'n 2 jaar een Athlon 64 setje gedraaid, onder FreeBSD 8.0 / AMD64. Eigenlijk ook geen hardwarematige problemen die ik hiermee heb gehad.

Verwijderd

Verwijderd schreef op vrijdag 11 februari 2011 @ 14:04:
Huib, heb je memtest86+ al gedraaid voor 24 uur? Zo ja kun je nog proberen ACPI uit te schakelen, maar corruptie is vrij ernstig en doet eerder denken aan brak geheugen.
Dank voor de suggestie.

Memtest heb ik 2008 al eens gedaan toen ik dezelfde problemen had : alles okay, alles paletti.

Het stomme is dat het onder FreeBSD i386 super stabiel loopt, afgelopen 3 jaar, naast wat geplande downtime geen enkele core dump of panic of wat dan ook. Maar zo gauw ik een 64b kernel gebruik wordt het systeem brak.

Huib

Verwijderd

Toch maar even opnieuw testen dan, als 3 jaar geleden je laatste test was. Testen kost je 1MB download en een blank cdtje. i386 kan een deel van je geheugen niet gebruiken, wat dus mogelijk juist de corruptie vertoont. Dus dat zegt allemaal niks, je moet eerst weten of je systeem stabiel is. Aannames hierover zijn meestal fataal.

http://www.memtest.org/#downiso

[ Voor 5% gewijzigd door Verwijderd op 11-02-2011 17:01 ]


Verwijderd

zzattack schreef op vrijdag 11 februari 2011 @ 14:40:
Huib: ik draai nu sinds een kleine 2 weken een Opteron 6128 op een ASUS KGPE-D16 met FreeBSD 8.1. Erg tevreden, tot nogtoe geen problemen gehad.
Hiervoor heb ik zo'n 2 jaar een Athlon 64 setje gedraaid, onder FreeBSD 8.0 / AMD64. Eigenlijk ook geen hardwarematige problemen die ik hiermee heb gehad.
Dat is bepaald geen misselijk moederbord en cpu, iets aan de prijs voor mij, dubbele 8 core opteron verwacht ik ook niet nodig te hebben thuis :) een 4-core 1381 is al meer dan voldoende want het ding staat 95% van de tijd idle....

Wat ik wel interessant vndt is dat er de Intel 82574L server NIC's op zitten en dat die bij jou stabiel loopt. Je komt deze nic op veel serverboards tegen en ik was al aan het googlen naar FreeBSD / hardware issues en kwam 2 meldingen tegen over stabiliteits problemen met deze specifieke NIC. Maar T'is niet altijd kommer en kwel :)

Huib

Verwijderd

Verwijderd schreef op vrijdag 11 februari 2011 @ 17:00:
Toch maar even opnieuw testen dan, als 3 jaar geleden je laatste test was. Testen kost je 1MB download en een blank cdtje. i386 kan een deel van je geheugen niet gebruiken, wat dus mogelijk juist de corruptie vertoont. Dus dat zegt allemaal niks, je moet eerst weten of je systeem stabiel is. Aannames hierover zijn meestal fataal.

http://www.memtest.org/#downiso
Heb je natuurlijk gelijk in. Is trouwens maar 2GB ram, dus wel binnen het bereik van de i386 kernel. (de geleende PC heeft zelfs maar 1GB en daar loopt de 64b kernel zonder probleem)

Probleem is mijn server langdurig offline halen wegens eigen mail/postfix en de speciefieke opzet met bepaalde data op raid-10 disks, disks die ik in de geleende pc niet kan aansluiten (oude meuk met slechts 2 sata poorten).

maar goed, ik zal vannacht het systeem wel een paar uurtje down laten en memtest draaien, als het serieus brak is zal het snel openbaren want de ellende met de 64b kernel begint direct naar het booten
Intel S3420GPC

Even niets...


Verwijderd

i386 betekent maximaal 1 gigabyte kernel geheugen, dat geheugen is niet voor normale processen beschikbaar. Als corrupt geheugen daarin zich manifesteert, verklaart dat corrupt geheugen terwijl je onder i386 niets hebt gemerkt.

  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Nice, ik heb net de Supermicro X8SI6-F-O gekocht. Even wachten op CentOS 6 voor de resultaten alleen ;)

iRacing Profiel

OH! He kun jij dan mijn LSI kaarten eens testen??? Even kijken of het aan het chipset ligt of aan het BIOS :D

Even niets...


  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
FireDrunk schreef op vrijdag 11 februari 2011 @ 20:59:
OH! He kun jij dan mijn LSI kaarten eens testen??? Even kijken of het aan het chipset ligt of aan het BIOS :D
Sure.. Stuur maar op. Wie weet krijg je hem nog eens terug ;)

iRacing Profiel

Rofl, nee dan kom ik wel een keer langs (toch leasebak) :D

Even niets...


Verwijderd

Bij mij mag je ook wel even komen testen als je wilt, heb hier op het moment 2 stuks Intel S5000 plankjes liggen en een M3A32 MVP Deluxe. Mocht je heel toevallig nog een AMD proc rond hebben slingeren heb ik zelfs een spare M3A32 liggen die ook langere tijd getest mag worden. Mijn enige AMD proc zit in mijn fileserver, daar zijn inmiddels meer mensen dan alleen ik aan gehecht :p

edit: Omgeving is Almere-Buiten trouwens.

[ Voor 5% gewijzigd door Verwijderd op 12-02-2011 02:28 ]


Verwijderd

Heb memtest vannacht enkele uren laten lopen. Geen probleem gevonden.

Ook ACPI uitschakelen en dan onder 64b kernel booten: geen soelaas: ook instabiel.

Blijft raar dat die 64b kernel problemen heeft met de hardware (of andersom).

Ach ja, ik had toch al min of meer besloten nieuwe hardware in elkaar te zetten.
Verwijderd schreef op vrijdag 11 februari 2011 @ 17:00:
Toch maar even opnieuw testen dan, als 3 jaar geleden je laatste test was. Testen kost je 1MB download en een blank cdtje. i386 kan een deel van je geheugen niet gebruiken, wat dus mogelijk juist de corruptie vertoont. Dus dat zegt allemaal niks, je moet eerst weten of je systeem stabiel is. Aannames hierover zijn meestal fataal.

http://www.memtest.org/#downiso

Verwijderd

Geacht Forum,

Ben dus in de markt voor nieuwe hardware voor een thuis server en ben mij een beetje aan het inlezen over wat er momenteel te krijgen is inzake chipsets, cpu's en onboard nic's

Chipset:
Intel 3420 is in principe gelijk aan de P55 alleen de 3420 praat met ECC ram en heeft ondersteuning voor PCI-X

CPU:
I5-750 2.6Ghz is vrijwel identiek aan de Xeon 2.53Ghz alleen de Xeon heeft Hyoerthreading actief en VT-d (dus op de i5-570 geen Virtualisatie??), beide kosten ongeveer evenveel.

Moederbord:
Servermoederborden hebben tov de desktop borden vaak ' betere' NIC's, vaker ook 2, en embeded graphic (of ipmi) voor beheer. Sommige borden hebben ook nog vaak een SAS controler naast de standaard 6 sata poorten.

Klopt mijn eerste inventarisatie een beetje op de belangrijkste kenmerken?

Huib
Je doet van een aantal dingen een verkeerde aanname...

VT-d != VT-x, VT-x zit op alle desktop i3/i5/i7 CPU's die Intel maakt volgens mij, en VT-d niet.
Alleen Xeon's en een enkele i7 hebben VT-d.

IPMI heeft niets met Graphics te maken, maar met de manier waarop tooling de status van je moederbord kan uitlezen (en die word aangestuurd door de BMC)

Hyperthreading heeft ook weer niets met Xeon te maken, want mijn i3 had het wel, en mijn Xeon heeft het weer niet.

Even niets...


Verwijderd

euh ja, ik vergeleek even specifiek de i5-570 en de xeon 3440.
FireDrunk schreef op zaterdag 12 februari 2011 @ 15:36:
Je doet van een aantal dingen een verkeerde aanname...

VT-d != VT-x, VT-x zit op alle desktop i3/i5/i7 CPU's die Intel maakt volgens mij, en VT-d niet.
Alleen Xeon's en een enkele i7 hebben VT-d.

IPMI heeft niets met Graphics te maken, maar met de manier waarop tooling de status van je moederbord kan uitlezen (en die word aangestuurd door de BMC)

Hyperthreading heeft ook weer niets met Xeon te maken, want mijn i3 had het wel, en mijn Xeon heeft het weer niet.

  • soulrider
  • Registratie: April 2005
  • Laatst online: 27-11-2017
Verwijderd schreef op zaterdag 12 februari 2011 @ 10:52:
Geacht Forum,

Ben dus in de markt voor nieuwe hardware voor een thuis server en ben mij een beetje aan het inlezen over wat er momenteel te krijgen is inzake chipsets, cpu's en onboard nic's

Chipset:
Intel 3420 is in principe gelijk aan de P55 alleen de 3420 praat met ECC ram en heeft ondersteuning voor PCI-X

CPU:
I5-750 2.6Ghz is vrijwel identiek aan de Xeon 2.53Ghz alleen de Xeon heeft Hyoerthreading actief en VT-d (dus op de i5-570 geen Virtualisatie??), beide kosten ongeveer evenveel.

Moederbord:
Servermoederborden hebben tov de desktop borden vaak ' betere' NIC's, vaker ook 2, en embeded graphic (of ipmi) voor beheer. Sommige borden hebben ook nog vaak een SAS controler naast de standaard 6 sata poorten.

Klopt mijn eerste inventarisatie een beetje op de belangrijkste kenmerken?

Huib
Beste Huib,

lees even de FAq, en post dan je vraag in het juiste topic ;-)
Het gaat hier specifiek over eigenbouw NAS-servers, niet willekeurige thuisservers.

de specificatie's van de verschillende CPU's vind je perfect op het internet ev. via $zoekmchine
net zoals de verschillen van de moederborden

greet, GoT :+

ps: hier groet men vanzelf ;)
Ik durf er wel donder op te zeggen dat FreeBSD op mijn Opteron bak wil werken, maar dat zou ik moeten testen.
Misschien kan je er nog even bij vermelden op welke errors in de kernel ofzo de mensen hier moeten letten.

De term 'stabiel' is natuurlijk lastig te meten...

Even niets...


Verwijderd

Welgemeende excuses hiervoor.

Huib
soulrider schreef op maandag 14 februari 2011 @ 06:43:
[...]


Beste Huib,

lees even de FAq, en post dan je vraag in het juiste topic ;-)
Het gaat hier specifiek over eigenbouw NAS-servers, niet willekeurige thuisservers.

de specificatie's van de verschillende CPU's vind je perfect op het internet ev. via $zoekmchine
net zoals de verschillen van de moederborden

greet, GoT :+

ps: hier groet men vanzelf ;)

Verwijderd

Beste Firedunk,

Op het moment dat ik een programma uit de ports collection, bv samba in /usr/ports/net/samba35 met "make install clean" ga compileren dan loopt het op willekeurige momenten spaak: of segmentation faults of core dumps: dit kan gebeuren op het moment dat bv autoconf loopt of de gcc compiler.

hang ik dezelfde disk weer terug in de geleende computer met Intel cpu gaat alles ook weer goed. Ik had de disk met freebsd in deze PC opgetuigd zonder problemen, toen ik hem daarna in 'productie' nam op mijn AMD systeem ging het mis.

Het betreft hier dus FreeBSD 8.1 met de standaard 64b kernel versie, dus geen eigen geconfigureerde/gecompileerde kernel).

FreeBSD 8.1 met de i386 kernel loopt als een zonnetje op mijn AMD systeem.

Groet,

Huib

Ps. Memtest kon na 8 uur draaien niks vinden.

[ Voor 4% gewijzigd door Verwijderd op 14-02-2011 10:18 ]

Heb je al eens een schone install geprobeerd? En heb je dingen als ACPI in het BIOS aanstaan of juist uit staan?

Even niets...


Verwijderd

Ja, dat was een schone install en ja, acpi aan/uit brengt geen verandering.

Doet er niet meer toe, ik ga nieuw nb+cpu+ram kopen anyway,

Mijn vraag hier was te doen om of ik nu gewoon pech had of dat AMD processoren/chipsets onder FreeBSD met 64b kernel meer problematisch zijn dan Intel.
FireDrunk schreef op maandag 14 februari 2011 @ 10:25:
Heb je al eens een schone install geprobeerd? En heb je dingen als ACPI in het BIOS aanstaan of juist uit staan?

Verwijderd

Had nog even gegoogled op jouw bord, las dingen als mensen die een oudere BIOS probeerden en daar hun Linux systeem wel mee konden booten; dus het kan gewoon een gaar BIOS zijn. Moederbordfabrikanten testen vaak alleen onder Windows; als er dan fouten zijn in hun BIOS wat niet aan het licht komt onder Windows dan laten ze die er meestal gewoon inzitten.

Ik heb zelf ook een bord met SB700 southbridge, en die boot FreeBSD gewoon prima. Dus de chipset zelf enzo zou gewoon moeten werken. Ik heb aardig wat AMD systeempjes getest met FreeBSD en eigenlijk maar zelden problemen gehad, b.v. een vreemde onboard NIC die niet herkend werd; maar geen zaken als instabiliteit.

Opzich is Asus wel een redelijk merk, dus een modern Asus bordje zou ik van verwachten dat het prima werkt onder Solaris, Linux of BSD. Enige wat wel eens gebeurt is dat de onboard NIC niet wordt ondersteund, nouja dan gooi je er een intel kaartje in. Dus ik zou het gewoon op pech houden. Zeker gezien meerdere OSen (Linux/BSD) problemen hebben op jouw moederbord.
En van de meeste (fatsoenlijke) nic's bestaan toch ook gewoon FreeBSD drivers?

Even niets...


  • 0rbit
  • Registratie: Maart 2000
  • Laatst online: 18-03-2021
Ik zou er sowieso een fatsoenlijk Intel kaartje in stoppen; je kunt dan met wat getweakte settings op je Windows bak je doorvoer bijna verdubbelen. Allesinds de moeite waard voor 20 euro.

Ik ben geheel voldaan, dank u wel!


Verwijderd

Als je bedoelt closed-source binary drivers die je kunt downloaden van een website; dat moet je niet doen. Je wilt échte drivers: open source drivers geschreven door echte developers netjes onderdeel van het OS, en niet zo'n Taiwanees die iets in elkaar flanst. Bovendien werken die closed source drivers alleen maar op bepaalde BSD releases en draai je iets nieuwers dan heb je pech.

Dus ik zou alleen kijken naar drivers die standaard in FreeBSD (of linux kernel als het om linux gaat) zitten. Dat hoeft niet te betekenen dat het out-of-the-box werkt, sommige drivers moet je activeren in de /boot/loader.conf.

Een netwerkinterface bestaat ook uit twee delen:
- MAC (de netwerk 'controller' die bijvoorbeeld ingebakken in de chipset zet zoals bij nVidia vaak het geval was)
- PHY (de chip die fysieke signalen van ethernet verwerkt; PHY staat voor PHYsical, denk aan de fysieke laag (de kabel-signalling) wat het laagste niveau is in de ISO OSI TCP/IP-stack.

Dus een voorbeeld is nVidia onboard ethernet, maar de PHY chip kan per moederbord verschillen. Dus het is mogelijk dat je NIC opzich wel wordt ondersteund, maar de PHY niet die op dat moederbord zit.

In principe gewoon kijken of je netwerkinterface herkend wordt en zo niet in de log kijken naar "no driver attached" en kijken of je de juiste netwerkmodule kunt laden. Als die niet beschikbaar is gewoon een Intel NIC erin pleuren (PRO/1000 CT gigabit PCIe voor 20 euro). Maar mijn ervaring is dat een onboard NIC even goed kan presteren als een Intel. Zelf getest en het maakt niets uit tussen realtek gigabit en intel PCIe PRO/1000 PT. Maar als je een ouderwetse PCI ethernet chip gaat vergelijken met Intel dan zie je natuurlijk wel verschillen; maar dat moet je ook niet willen. ;)

  • 0rbit
  • Registratie: Maart 2000
  • Laatst online: 18-03-2021
Verwijderd schreef op maandag 14 februari 2011 @ 19:08:
In principe gewoon kijken of je netwerkinterface herkend wordt en zo niet in de log kijken naar "no driver attached" en kijken of je de juiste netwerkmodule kunt laden. Als die niet beschikbaar is gewoon een Intel NIC erin pleuren (PRO/1000 CT gigabit PCIe voor 20 euro). Maar mijn ervaring is dat een onboard NIC even goed kan presteren als een Intel. Zelf getest en het maakt niets uit tussen realtek gigabit en intel PCIe PRO/1000 PT. Maar als je een ouderwetse PCI ethernet chip gaat vergelijken met Intel dan zie je natuurlijk wel verschillen; maar dat moet je ook niet willen. ;)
Ik heb een jaar geleden nog een Realtek chip (op een Core 2 duo moederbord van 2,5 jaar oud) getest tegenover een Intel CT en merkte toch duidelijk het verschil. Bij grote bestanden trok ik met de Realtek een krappe 60 Mb/s. Met de Intel zat ik gemiddeld tegen de 100 Mb/s aan. Voor kleinere bestanden maakt het minder uit.

Ik ben geheel voldaan, dank u wel!


Verwijderd

Weet je nog welke Realtek chip? Gaat het om PCI-express?

De oude PCI chips van Realtek zijn wel slecht, daar komt hun reputatie ook vandaan. Maar ik heb meerdere moderne Realtek PCIe (addon of onboard) getest die allemaal 950Mbps+ throughput geven op mijn netwerk met enkele gigabit switch.

Gebruik van Cat6 bekabeling (of tenminste Cat5e tot 35 meter ofzo) is wel een aanrader om performanceverlies door de kabel uit te sluiten; normaal cat5 kan wel op gigabit linken op korte afstanden maar ik kan me voorstellen dat je zeker niet de volle bandbreedte kunt benutten; mogelijk omdat frames vaak overnieuw gestuurd moeten worden door interferrentie.

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 10:49

heuveltje

KoelkastFilosoof

0rbit schreef op maandag 14 februari 2011 @ 19:15:
[...]


Ik heb een jaar geleden nog een Realtek chip (op een Core 2 duo moederbord van 2,5 jaar oud) getest tegenover een Intel CT en merkte toch duidelijk het verschil. Bij grote bestanden trok ik met de Realtek een krappe 60 Mb/s. Met de Intel zat ik gemiddeld tegen de 100 Mb/s aan. Voor kleinere bestanden maakt het minder uit.
Mwah met de onboard lan op mijn 2 mobo's (realtek, en whatever er op een asus m2n zit) is 90+ MB/s geen probleem. en das dan ook nog eens over 20M cat5e en een goedkoop gigabit switchje :)

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d

Vergis je vooral niet in goedkope gigabit switchjes... De gemiddelde layer 3 switch van €1k+ heeft een lagere throughput dan een huis-tuin-en-keuken switchje... Dit komt vooral omdat die layer 3 switches veel meer moeten processen, en veel meer beveiligingen hebben dan zo'n kneutding...

Vooral D-Link en Asus hebben vaak voor weinig geld switches die >110MB/s kunnen halen.

Even niets...


  • zzattack
  • Registratie: Juli 2008
  • Nu online
Wanneer begin je daar iets van te merken? Bij hoge load alleen, of wordt het zelfs moeilijk om in de buurt van gbit te komen bij een beperkt aantal poorten?

Verwijderd

De meeste redelijke switches hebben een 'volledige' backbone, dus voor een 8-port gigabit switch heb je 16Gbps backbone, als ik het goed begrepen heb. De verdubbeling komt door full-duplex: je kunt 1Gbps sturen en 1Gbps verzenden tegelijk dus moet hij het dubbele aantal interne bandbreedte hebben.

Zou je ergens in de specs of datasheet moeten kunnen zien. Maar door allerlei omstandigheden (software protocol issues) kun je toch lagere snelheden krijgen.

  • AlterMann
  • Registratie: December 2000
  • Laatst online: 23:32
Met dit ding haal ik het volgende:

NETIO - Network Throughput Benchmark, Version 1.26
(C) 1997-2005 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 113855 KByte/s Tx, 112719 KByte/s Rx.
Packet size 2k bytes: 113784 KByte/s Tx, 113740 KByte/s Rx.
Packet size 4k bytes: 113722 KByte/s Tx, 114024 KByte/s Rx.
Packet size 8k bytes: 114044 KByte/s Tx, 112596 KByte/s Rx.
Packet size 16k bytes: 114221 KByte/s Tx, 112510 KByte/s Rx.
Packet size 32k bytes: 113729 KByte/s Tx, 111803 KByte/s Rx.
Done.

Aan beide kanten een (goedkoop) Intel-kaartje (82574L, Intel PRO/1000). Met m'n oude Realtekjes deed ie ongeveer hetzelfde. Ik denk dat [Gbit] Betaalbare en goede Gigabit switches wel een nuttig topic is om verder te gaan over de switches :)
Klopt. Ook ik heb in mijn server gewoon de onboard nics gebruikt... En die doen het prima.

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 28-01 16:23
Mn nas is aan het rebuilden. Afgelopen weekend heeft mdadm een schijf uit de array gegooid omdat deze bad sectors had.

Verwijderd

Phoenix1337 schreef op dinsdag 15 februari 2011 @ 21:52:
Mn nas is aan het rebuilden. Afgelopen weekend heeft mdadm een schijf uit de array gegooid omdat deze bad sectors had.
Wat voor controller gebruik je? Gebruik je virtualisatie?

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 28-01 16:23
Een intel sasuc8i en nee, geen virtualisatie.

Verwijderd

Heb je de controller naar IT-firmware geflashed? Zo niet dan kun je inderdaad disconnects krijgen bij bad sectors.

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 28-01 16:23
Ik heb m naar de IT firmware geflashed. Mdadm heeft de schijf zelf gemarkeerd als faulty spare dus vraag me af of het echt een disconnect is geweest.
Waarom kan hij niet gewoon écht kapot zijn? :+

Even niets...


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 29-01 23:02

OMX2000

By any means necessary...

Heeft of gaat iemand zijn vingers al gebrand(en) aan de Amd Brazos voor een NAS? Het leek me een goede deal, maar als je het vergelijkt met een goedkoop AM3 + Athlon 240 CPU dan valt het eigenlijk best tegen. De Brazos kan best zuiniger zijn, maar het verschil in prijs verdien je echt niet zo snel terug.

Dè developers podcast in je moerstaal : CodeKlets Podcast

Leuke van Brazos is dat het een redelijk goede GPU heeft ingebakken, maar meer is het niet...

Even niets...


Verwijderd

OMX2000 schreef op woensdag 16 februari 2011 @ 11:31:
Heeft of gaat iemand zijn vingers al gebrand(en) aan de Amd Brazos voor een NAS? Het leek me een goede deal, maar als je het vergelijkt met een goedkoop AM3 + Athlon 240 CPU dan valt het eigenlijk best tegen. De Brazos kan best zuiniger zijn, maar het verschil in prijs verdien je echt niet zo snel terug.
Stroomverbruik is inderdaad een primaire reden. Maar de 6xSATA/600 vind je niet overal terug, wel bij AMD's nieuwste desktop southbridge (SB850). En met zo'n traditioneel bord heb je ook een traditioneel relatief hoog stroomverbruik, 24/7 continu verspilde energie. Als je je verbruik van 40W naar 15W kan krijgen is dat een grote prestatie voor een NAS wat echt veel fijner is. Bovendien krijg je een Mini-ITX bord wat passief gekoeld is, wat zo'n NAS bijvoorbeeld geschikt maakt voor in de slaapkamer of mensen die geen vibraties/lawaai willen.

Ben het wel met je eens dat als deze factoren er niet of minder toe doen, je evengoed een normaal AMD setup kunt bouwen zonder Zacate. Het is relatief prijzig nog 150 euro voor een Zacate bord. Maar echt veel goedkoper zal je met een klassieke AMD setup ook niet zitten (65 moederbord + 45 cpu = 110 euro minimaal).

  • ZodiacQ
  • Registratie: Maart 2009
  • Laatst online: 27-01-2025
Hoi,

Ik ben mijn RAID-server aan het uitbreiden, mijn case is een Antec mini P180 en er zouden 10 HDD's in moeten komen. 9x3,5 en 1x2,5 en een DVD-ROM.

Nu blijk ik niet genoeg plaats te hebben, dus was ik aan het uitkijken naar een Sharkoon 2x5,25 naar 3x3,5 wisselframe. Heeft iemand hier ervaring mee? Is deze niet dieper dan een standaard DVD-ROM station? Ik heb namelijk schrik dat de ventilators van dat ding tegen de kabels van mijn voeding komen te liggen...

Of als jullie een ander idee weten om deze in de case te proppen... :)

Rest van de specs:

9x 3,5inch HDD (4x in RAID + 4x in RAID + 1disk apart)
1x 2,5inch HDD (systeem schijf)
1x DVD-RW

Moederbord: Asus M3N78-EM met onboard videokaart
CPU: AMD Athlon II X2 250 (3GHz)
GPU: Onboard NVIDIA GeForce 8300
RAM: (2x2Gb)
TV-kaart: Hauppage WinTV PCI FM
Controller: Supermicro AOC-USAS-L8i

Server OS is Ubuntu Server 10.04 LTS
mdadm software voor RAID

Tnx.

  • powerboat
  • Registratie: December 2003
  • Laatst online: 08:30
Hallo allemaal,

Ik ben bezig met een shared storage tank te bouwen voor mijn linux-kvm (test)omgeving, dit wil ik doen dmv. NFSv4

Heb al eindeloze tutorials doorgenomen en handleidingen maar kom er niet helemaal uit. Het is nl. zo dat dat het maken van de share en mounten gewoon werkt. Ik kan er naar toe schrijven (dus bestanden op aanmaken) verwijden en veranderen geen probleem, Maar zodra ik dit via virt-manager doe (ben als root ingelogd) en een nieuwe image based disk wil aanmaken dan doet ie niets.

Kijk ik naar de bestanden zelf die op de share aanmaak dan kan ik de eigenaar ook niet veranderen die staat op -2.

Is er iemand ook op dit probleem gestuit ? :(
mounten met no_root_squash? :)

Even niets...


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 23:32
*Kick*
M'n LSI kaart (van DX) is toch niet gaar :) Gister uit frustratie een andere kabel besteld bij webconnexxion, vandaag binnen, en werken maar :) Dus of m'n ebay-kabels zijn beide rot.. of het zijn stiekem toch reverse breakouts. Naja, na dik 3 maanden na de eerste bestelling kan ik er eindelijk van genieten :D
Nice, de kaart werkt neem ik aan dus ook prima met jou moederbord? (Wat voor plank heb je eigenlijk?)

Even niets...


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 23:32
Ik heb (in m'n NASje) een Asus M4A78LT-M LE (6x SATA onboard :9). De kaart zit in het (enige) PCIe 16x slot.

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
Ik ben al maanden bezig met het samenstellen van een server maar wacht constant op nieuwe ontwikkelingen (SSD G3 met supercapacitor, Z68 mobo, etc.). Vandaag had ik er genoeg van en ben gaan kijken hoe ik mijn doelen kan realiseren met hardware die NU te koop is. Ik kom tot onderstaande config.

#ProductPrijsSubtotaal
1Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB€ 95,-€ 95,-
6Western Digital Caviar GreenPower WD20EARS, 2TB€ 72,90€ 437,40
1Cooler Master CM 690 II Advanced€ 74,46€ 74,46
23Ware SFF8087OCF Multi-lane SATA (1m)€ 19,11€ 38,22
1Scythe Mugen 2 Rev. B€ 34,90€ 34,90
3Scythe Kama FLEX 140mm - 1200RPM , 140mm€ 15,50€ 46,50
1Intel RAID Controller SASUC8I€ 132,01€ 132,01
1Intel Core i7 2600€ 244,90€ 244,90
1Netgear WNDR3700 Simultaneous Dual-Band€ 93,-€ 93,-
1Seasonic S12II-330€ 43,-€ 43,-
1Intel X25-M SSDSA2MH120G2K5 120GB€ 186,-€ 186,-
1Kingston ValueRAM KVR1333D3N9K2/8G€ 77,-€ 77,-
1Lian Li CR-36B€ 18,30€ 18,30
1Intel Desktop Board DH67CL€ 92,62€ 92,62
Bekijk collectie
Importeer producten
Totaal€ 1.613,31


"Is dit een server?" zal je denken. Nope, het is een multimedia-pc en een server in één. Maandenlang heb ik het idee gevolgd een aparte server te bouwen, maar daar ben ik vanaf gestapt toen ik me realiseerde dat de multimedia-pc bij ons toch altijd aanstaat. En hoe energiezuinig je het ook insteekt, 2 pc's verbruiken gewoon meer dan 1. De gedachte is om voor de kritieke onderdelen wat meer te investeren (cpu, geheugen, SSD) zodat server en gebruikersactiviteiten elkaar niet of amper in de weg zitten.

Het server-gedeelte houdt zich voornamelijk bezig met downloaden via torrents en usenet (incl. parren en unrarren). Het multimedia-gedeelte voornamelijk met mailen, surfen, rommelen met foto's, audio en video (hd). Een aparte videokaart is niet nodig. Belangrijkste is kwaliteit van de hardware (duurzaamheid) en in 2e instantie energiezuinigheid.

Ondanks dat het geen dedicated server is zou ik jullie op- en aanmerkingen en wellicht ook suggesties erg op prijs stellen.

Verwijderd

Moondust: ik begrijp goed dat het wachten op nieuwe hardware behoorlijk kan tegenvallen met uitstel enzo. Toch wat opmerkingen:
  • Sandy Bridge moederborden hebben nog geen B3 revisie; eind maart kun je die verwachten; nog een maand uitstel dus (ik zou er ook niet blij om worden!). Misschien is een oplossing om een bord te kopen wat je later mag omruilen voor een B3 versie; dat had ik ergens gelezen. Lijkt me prima oplossing voor jou!
  • Dit is mijn favo Sandy Bridge mobo: pricewatch: MSI H67MA-ED55
  • Geeft de i2500 je niet meer waar voor je geld? De 2600 doet idle wel evenveel als de 2500 dus opzich qua stroom hoef je het niet te laten; alleen de piekstroom is hoger wat niet erg is omdat je ook eerder klaar bent met task-based jobs, alleen gaming enzo zou wat hoger kunnen liggen; maar dat doe je toch niet neem ik aan?
  • Ik zou zelf voor de Samsung F4 kiezen ipv WD EARS; maar beide zijn opzich prima schijven. WD heeft mogelijk wel het probleem van hoge load cycle counts (LCC) maar dat kun je met wdidle DOS utility aanpassen geloof ik. Gaat hier om de head park functie, die staat op 7 seconden ofzoiets; veels te laag.
  • Je controller is breed inzetbaar en kun je met IT-firmware naar non-RAID controller omtoveren
Ik mis alleen watvoor OS je gaat draaien. In principe is je systeem wel geschikt als ZFS server. Maar als je met Windows wilt beginnen is het mogelijk wel een voordeel dat je later alsnog voor ZFS kunt kiezen. Daarbij moet je je controller wel flashen naar IT-firmware.

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 02-12-2025

lampie1979

Hoepla!

Multimedia PC en Server combineren is niet aan te raden.

Je kan ook een energiezuinige server bouwen (Atom of lowergrade i3) en de rest spenderen aan een MM pc.

MM pc's verouderen ook relatief sneller, voor een server is dit minder van toepassing. Dus over een tijd zit je met een overpowered server opgescheept... (laat staan alle complicaties en risicos van combineren).

[ Voor 8% gewijzigd door lampie1979 op 24-02-2011 22:08 ]

They call her... c*ck juggeling Thunderc*nt!


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
Bedankt voor je reactie.
Verwijderd schreef op donderdag 24 februari 2011 @ 18:10:
Sandy Bridge moederborden hebben nog geen B3 revisie; eind maart kun je die verwachten; nog een maand uitstel dus (ik zou er ook niet blij om worden!). Misschien is een oplossing om een bord te kopen wat je later mag omruilen voor een B3 versie; dat had ik ergens gelezen. Lijkt me prima oplossing voor jou!
Aangezien er op H67-mobo's toch hooguit 6 SATA-porten zitten heb ik de SAS-kaart erbij genomen. De SSD en Hitachi 7200rpm downloadschijf zet ik dan op de SATA3 aansluitingen en alle storageschijven op de SAS-kaart. Dan loop ik iig niet tegen de SATA2 bug aan. Later zou ik het mobo idd nog kunnen omruilen.
Ik ben het helemaal met je eens, maar de ED55 heeft helaas geen PCI-slot en die heb ik wel nodig voor mijn ESI Juli@ geluidskaart. MSI heeft wel een bordje met PCI (E35), maar die heeft volgens mij geen clickbios en geen militaryclass II componenten zoals de ED55. Van de Intel weet ik dat die dat ook niet heeft, maar iig wel UEFI en Intel LAN (beter dan Realtek). Bovendien komt het Intelbordje als zuinigste uit alle test.
Verwijderd schreef op donderdag 24 februari 2011 @ 18:10:
Geeft de i2500 je niet meer waar voor je geld? De 2600 doet idle wel evenveel als de 2500 dus opzich qua stroom hoef je het niet te laten; alleen de piekstroom is hoger wat niet erg is omdat je ook eerder klaar bent met task-based jobs, alleen gaming enzo zou wat hoger kunnen liggen; maar dat doe je toch niet neem ik aan?
Ik had eerst een i5 2500 op mijn wensenlijstje staan, maar toen ik zag wat de pc zou gaan kosten vond ik de 80 euro meer voor de i7 2600 ook niet zo'n punt meer. Ik doe geregeld e.e.a. met transcoderen, extracten en muxen van audio en video en dan is die power wellicht toch wel fijn. Ik wil toch graag een jaar of 3-4 met de pc gaan doen, net als met mijn huidige pc. Maar goed, een i3 2500 zal voor wat ik ermee gaan doen waarschijnlijk ook prima voldoen. Ik doe het nu met een AMD BE-2350 (dualcore op 2 GHz), maar meot soms erg lang wachten op parren, transcoderen, etc. Die wachttijd wil ik met de nieuwe pc tot een minimum gaan beperken. Gamen doe ik er idd niet op.
Verwijderd schreef op donderdag 24 februari 2011 @ 18:10:
Ik zou zelf voor de Samsung F4 kiezen ipv WD EARS; maar beide zijn opzich prima schijven. WD heeft mogelijk wel het probleem van hoge load cycle counts (LCC) maar dat kun je met wdidle DOS utility aanpassen geloof ik. Gaat hier om de head park functie, die staat op 7 seconden ofzoiets; veels te laag.
Ik ga geen RAID gebruiken (al doet mijn post in dit topic wellicht anders vermoeden). Verandert dat de zaak nog? Ik heb overigens voor de WD's gekozen, omdat deze in idle mode een stuk zuiniger zijn dan de Samsungs (3,7W versus 6W). Maar goed, als de Samsungs meer voordelen hebben ben ik natuurlijk best bereid die te nemen.
Verwijderd schreef op donderdag 24 februari 2011 @ 18:10:
Je controller is breed inzetbaar en kun je met IT-firmware naar non-RAID controller omtoveren.
Wat is het voordeel van het flashen? Ik kan de controller toch ook gewoon zo in een non-RAID config gebruiken?
Verwijderd schreef op donderdag 24 februari 2011 @ 18:10:
Ik mis alleen watvoor OS je gaat draaien. In principe is je systeem wel geschikt als ZFS server. Maar als je met Windows wilt beginnen is het mogelijk wel een voordeel dat je later alsnog voor ZFS kunt kiezen. Daarbij moet je je controller wel flashen naar IT-firmware.
Ik heb altijd met Windows gewerkt en mijn vrouw en kinderen weten ook niet beter. Dus ik ga voor Windows 7 Professional 64-bits. Ben niet bekend met ZFS, maar uit jouw woorden maak ik op dat dat te combineren is met Windows?

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
lampie1979 schreef op donderdag 24 februari 2011 @ 21:01:
Multimedia PC en Server combineren is niet aan te raden.

Je kan ook een energiezuinige server bouwen (Atom of lowergrade i3) en de rest spenderen aan een MM pc.

MM pc's verouderen ook relatief sneller, voor een server is dit minder van toepassing. Dus over een tijd zit je met een overpowered server opgescheept... (laat staan alle complicaties en risicos van combineren).
Ik moet zeggen dat ik ook echt heel lang heb zitten twijfelen, nog steeds eigenlijk wel, maar ik heb nu feitelijk ook al een multimedia-server-combi en dat levert eigenlijk geen problemen op behalve dat de pc soms een beetje traag wordt als ik vanalles tegelijk aan het doen ben. Maar met de beoogde nieuwe hardware moet dat geen probleem meer zijn. Power zat. Als de pc over zeg 4 jaar niet meer voldoet, kan de hardware doorschuiven naar mijn kinderen en koop ik weer wat nieuws.

Ik ben nog niet zover dat ik helemaal zeker ben van de beoogde aankoop. Jouw opmerkingen brengen me toch weer lichtjes aan het twijfelen. Ik wil natuurlijk voorkomen dat ik volgend jaar alweer hardware ga kopen, omdat ik de verkeerde keuzes heb gemaakt. Ik zal er dus nog even goed over nadenken en mogelijk dit weekend toch nog even een financieel plaatje maken van een gescheiden config.

[ Voor 15% gewijzigd door -Moondust- op 24-02-2011 22:55 ]


Verwijderd

ik overweeg een klein servertje/nasje te bouwen met wat onderdelen die ik nog heb liggen.
nou herinnerde ik mij een leuk kastje van een paar jaar geleden, de Chenbro ES34069

Afbeeldingslocatie: http://mswhs.files.wordpress.com/2008/01/pcchs-front-inner-l.jpg

nu blijkt dat kastje niet meer leverbaar.
weet iemand een net vergelijkbaar kastje ?

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
Verwijderd schreef op donderdag 24 februari 2011 @ 22:53:
ik overweeg een klein servertje/nasje te bouwen met wat onderdelen die ik nog heb liggen.
nou herinnerde ik mij een leuk kastje van een paar jaar geleden, de Chenbro ES34069

[afbeelding]

nu blijkt dat kastje niet meer leverbaar.
weet iemand een net vergelijkbaar kastje ?
Niet meer leverbaar? Bij Azerty staat ie nog op de website. Daarnaast kan je ze ook via ebay ook volop krijgen in Duitsland. Is erg mooi kastje. Alleen beetje luidruchtig fannetje, maar als je die wat langzamer laat lopen is dat opgelost. Vergelijkbare kastje zijn er eigenlijk niet. Dus als het ontwerp je erg aanspreekt zou ik er zeker voor gaan.

Verwijderd

-Moondust- schreef op donderdag 24 februari 2011 @ 22:58:
[...]

Niet meer leverbaar? Bij Azerty staat ie nog op de website. Daarnaast kan je ze ook via ebay ook volop krijgen in Duitsland. Is erg mooi kastje. Alleen beetje luidruchtig fannetje, maar als je die wat langzamer laat lopen is dat opgelost. Vergelijkbare kastje zijn er eigenlijk niet. Dus als het ontwerp je erg aanspreekt zou ik er zeker voor gaan.
hahahaha.. had ik overal gekeken (althans waar ik normaal pc spul koop)

bedankt.. zijn wel duur (geworden)

  • fikkie_84
  • Registratie: Januari 2004
  • Laatst online: 29-01 18:12
Verwijderd schreef op donderdag 24 februari 2011 @ 23:02:
[...]


hahahaha.. had ik overal gekeken (althans waar ik normaal pc spul koop)

bedankt.. zijn wel duur (geworden)
Ik denk dat ze duurder geworden zijn omdat voor dit model er al een opvolger is, nl de chenbro ES34169.
Die zou je tegen de 150-160 euro moeten kunnen vinden

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
fikkie_84 schreef op vrijdag 25 februari 2011 @ 11:26:
[...]


Ik denk dat ze duurder geworden zijn omdat voor dit model er al een opvolger is, nl de chenbro ES34169.
Die zou je tegen de 150-160 euro moeten kunnen vinden
In de pricewatch staan iig geen prijzen, maar een zoekactie bij de 10 bekendste online winkels zal wellicht wat opleveren. En via ebay zijn de Chenbro kastjes (oude en nieuwe model) ook te vinden voor rond de 150 euro en rond de 200 euro voor een 180Watt model.

Verwijderd

Afbeeldingslocatie: http://brainspike.files.wordpress.com/2010/08/htpc5.jpg

ziet er wel geinig uit.. beetje proppen dat wel 8)

  • Q
  • Registratie: November 1999
  • Laatst online: 00:43
Ziet er schattig uit, leuk ding. Meer pics, ook van de voorkant?

  • Q
  • Registratie: November 1999
  • Laatst online: 00:43
Thunderbolt

Met de introductie van Thunderbolt (TB) mogen ook de mensen met een NAS blij worden. Gigabit ethernet is vaak een beperkende factor bij het versturen van data. Als er straks ook Thunderbolt PCIe controllers komen, kun je een NAS aansluiten op een ander device en theoretisch met 1 GB/s overpompen. Mijn NAS kan dat aan (lezen) ;) alleen de rest van mijn apparatuur niet.

Verwijderd

Q schreef op vrijdag 25 februari 2011 @ 20:52:
Ziet er schattig uit, leuk ding. Meer pics, ook van de voorkant?
> http://brainspike.wordpre...s-zotac-h55itx-a-e-board/
> http://www.adamretter.org.uk/blog/entries/diy-nas-build.xml

[ Voor 10% gewijzigd door Verwijderd op 25-02-2011 23:00 ]


  • 0rbit
  • Registratie: Maart 2000
  • Laatst online: 18-03-2021
Q schreef op vrijdag 25 februari 2011 @ 21:06:
Thunderbolt

Met de introductie van Thunderbolt (TB) mogen ook de mensen met een NAS blij worden. Gigabit ethernet is vaak een beperkende factor bij het versturen van data. Als er straks ook Thunderbolt PCIe controllers komen, kun je een NAS aansluiten op een ander device en theoretisch met 1 GB/s overpompen. Mijn NAS kan dat aan (lezen) ;) alleen de rest van mijn apparatuur niet.
Dat is wel een fijn vooruitzicht. Helaas zit mijn NAS aan een ethernetswitch, waaraan vervolgens al mijn andere computers hangen. Komen er ook Thunderbolt switches? :9~

De koperen kabels mogen maar 3 meter lang zijn... de optische kabels zouden echt uitkomst bieden voor een thuisnetwerkje.

Ik ben geheel voldaan, dank u wel!


  • Q
  • Registratie: November 1999
  • Laatst online: 00:43
Thunderbolt kent geen switches. Er komen waarschijnlijk wel apparaten die als een hub werken om ook USB/Firewire/eSATA devices aan te sluiten. Door dit soort hubs als verlengstuk of repeater te gebruiken kun je grotere afstanden afleggen.

  • tomdabom
  • Registratie: Maart 2010
  • Laatst online: 20-11-2025
Ik heb gister mijn onderdelen binnen gehad, alles in elkaar gezet en kijken of ik WHS kon installeren.
Dat lukte niet want ik kon dus niet meer in mijn moederbord bios komen :(

Ik haalde de RAID kaart eruit en kon gewoon van de installatiedisk booten :'(

Bios geupdate hij deed het alweer wat beter kon nu de raid controller erin laten zitten.
Maar toe ik de Mini-SAS naar 4x S-ATA er weer in deed wilde hij weer eens niet booten :(

Misschien is er hier iemand die weet wat ik moet doen want ik weet het niet meer.

Dit zijn de specs van de server was niet echt bedoeld als zuinig ofzo ;)

#ProductPrijsSubtotaal
1Highpoint RocketRAID 2680€ 158,46€ 158,46
4Samsung EcoGreen F4EG HD204UI, 2TB€ 68,99€ 275,96
1Microsoft Windows Home Server 10 Users UK OEM€ 84,50€ 84,50
1Cooler Master Elite 370€ 33,50€ 33,50
3Cooler Master Silent Fan 120 SI1 , 120mm€ 4,-€ 12,-
1Highpoint RocketRAID ENK-060101-1136€ 39,57€ 39,57
1AMD Athlon II X3 445€ 56,91€ 56,91
1OCZ ModXStream Pro 500W€ 52,81€ 52,81
1OCZ Gold DDR3 PC3-8500 Low Voltage Dual Channel€ 29,49€ 29,49
1Asus M4N68T-M V2€ 39,95€ 39,95
Bekijk collectie
Importeer producten
Totaal€ 783,15


Alvast bedankt :) :)

  • tasqa1004
  • Registratie: April 2009
  • Laatst online: 16-01 11:44
Beste Leute,

Ik ga binnenkort mijn zelfbouw NAS compleet maken met de nodige opslagruimte, en ik wilde jullie daarom om advies vragen. Ik wil 6TB in raid5 gaan draaien. Welke schijven raden jullie mij aan dan? Ik ben zelf altijd erg tevreden geweest met WD schijven, dus ik wilde gaan voor 3x WD20EARS schijven. Echter zij iemand mij bij de poll "Can I haz NAS?' dat die schijven niet goed werkten icm met linux/solaris. En ik wilde het liefst ZFS gaan gebruiken.

Groetjes

EDIT: Dit is het systeempje :)

[ Voor 10% gewijzigd door tasqa1004 op 26-02-2011 20:12 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 00:43
tasqa1004 schreef op zaterdag 26 februari 2011 @ 20:11:
Beste Leute,

Ik ga binnenkort mijn zelfbouw NAS compleet maken met de nodige opslagruimte, en ik wilde jullie daarom om advies vragen. Ik wil 6TB in raid5 gaan draaien. Welke schijven raden jullie mij aan dan? Ik ben zelf altijd erg tevreden geweest met WD schijven, dus ik wilde gaan voor 3x WD20EARS schijven. Echter zij iemand mij bij de poll "Can I haz NAS?' dat die schijven niet goed werkten icm met linux/solaris. En ik wilde het liefst ZFS gaan gebruiken.

Groetjes

EDIT: Dit is het systeempje :)
Gemene vraag van mij, maar waarom wil je ZFS gaan draaien als je niet in staat lijkt te zijn om zelfstandig aan de hand van de honderden topics over 'welke schijf moet ik kopen' en alle informatie die op internet is te vinden, te bepalen welke schijf geschikt is?

  • fjskmdl2
  • Registratie: Februari 2011
  • Laatst online: 23:39
1) Momenteel gebruik ik handmatig pm-suspend om nas in standby te zetten, maar ik zou willen dat dit gebeurd na bvb 15 minuten inactiviteit. Ik weet dat dit kan via een gui zoals gnome of kde, maar hoe kan ik dit via de cli? Ik gebruik namelijk ubuntu server. (man pm-utils heeft mij hierbij niet verder geholpen.)

2) Verder maak ik ook gebruik van wake on lan om de nas te starten. Dit werkt als ik een magic packet verstuur via een programma die hiervoor gemaakt is. Is dit de enige manier waarop dit mogelijk is? Ik dacht dat wanneer er netwerkactiviteit naar de nas is, deze vanzelf zou opstarten (zodat ik zonder extra apps de nas uit standby kan halen).

3) Is er eigenlijk een web gui beschikbaar voor een diy nas die niet moet onderdoen voor deze van een synology of qnap? Momenteel gebruik ik webmin op mijn ubuntu server maar dit is toch niet hetzelfde...
Het enige die ik tegenkwam die richting de qnap software gaat, is openmediavault, maar dit is nog niet beschikbaar. Is het bvb niet mogelijk om de gui cgi scripts uit de gpl code van qnap, synology te gebruiken? (alhoewel ik deze niet terug vind in de zip)
Pagina: 1 ... 43 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.