• CooleSmurf
  • Registratie: Januari 2010
  • Laatst online: 20-12 21:09
@FireDrunk: Ik neem direct van je aan dat serverborden van SuperMicro en Tyan altijd werken. Door mijn gebrek aan ervaring heb ik alleen geen idee over welke borden je het hebt. Ook met google als vaste vriend lukt het met niet om b.v. SuperMicro borden te vinden welke voldoen aan mijn specificaties uit mijn post van 15:36. (+non-ECC memory)

Welke borden refereer je naar?
Kom op, de site van Supermicro is nou niet zo slecht...

http://www.supermicro.com...otherboard/Xeon3000/#1155

-LM controllers werken niet out of the box met ESXi.
-L wel volgens mij.

Dus je moet even een bord kiezen met 2 -L controllers er op. (of je moet genoegen nemen met 1 NIC, of je moet toch een VIBje willen toevoegen.. maar dat is aan jou).

Verder hebben de -F versie een onboard KVM, en dat kan handig zijn.

Deze bijvoorbeeld: http://www.supermicro.com...n/C202_C204/X9SCM-iiF.cfm

Of dit bord ook met non-ECC geheugen werkt weet ik niet zeker. Vast wel iemand hier die dat zeker weet.

Even niets...


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FireDrunk schreef op zaterdag 23 februari 2013 @ 17:14:
Weet je zeker dat die NIC's direct in ESXi herkent worden? Want volgens mij is er wel een VIB hack voor nodig om die NIC's werkend te krijgen. (niet dat dat heel moeilijk is, maar toch).
Nee klopt, ik was daar helemaal niet zeker van. Blijkbaar is het idd. niet native supported, ik dacht dat de meeste Intel Gbit NIC's wel ondersteund zouden zijn. Ik zal mijn bericht aanpassen.

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 22:08
FireDrunk schreef op zaterdag 23 februari 2013 @ 17:14:
Weet je zeker dat die NIC's direct in ESXi herkent worden? Want volgens mij is er wel een VIB hack voor nodig om die NIC's werkend te krijgen. (niet dat dat heel moeilijk is, maar toch).

Als je echt safe wil, waarom ga je dan niet voor een serverbord ala SuperMicro of Tyan? Die werken altijd?
Ik heb op mijn DH67BL bordje de Intel 82579V werkend gekregen door een custom ESXi ISO te maken, zie mijn post: ThinkPadd in "Zuinige ESXi Server"

  • B2
  • Registratie: April 2000
  • Laatst online: 23:01

B2

wa' seggie?

FireDrunk schreef op zaterdag 23 februari 2013 @ 18:02:
Kom op, de site van Supermicro is nou niet zo slecht...

http://www.supermicro.com...otherboard/Xeon3000/#1155

-LM controllers werken niet out of the box met ESXi.
-L wel volgens mij.

Dus je moet even een bord kiezen met 2 -L controllers er op. (of je moet genoegen nemen met 1 NIC, of je moet toch een VIBje willen toevoegen.. maar dat is aan jou).

Verder hebben de -F versie een onboard KVM, en dat kan handig zijn.

Deze bijvoorbeeld: http://www.supermicro.com...n/C202_C204/X9SCM-iiF.cfm

Of dit bord ook met non-ECC geheugen werkt weet ik niet zeker. Vast wel iemand hier die dat zeker weet.
Dat bord heeft ECC geheugen nodig. Verder wel een erg goed bord, ik heb zelf de X9SCM-F.

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 14-12 13:36
*edit* verkeerde topic

[ Voor 94% gewijzigd door DrFlash op 26-02-2013 11:13 ]

Wowhead profiel


  • Delta1981
  • Registratie: Juni 2011
  • Laatst online: 16:16
FireDrunk schreef op zaterdag 23 februari 2013 @ 18:02:
Kom op, de site van Supermicro is nou niet zo slecht...

http://www.supermicro.com...otherboard/Xeon3000/#1155

-LM controllers werken niet out of the box met ESXi.
-L wel volgens mij.
Bij de X9SCM-IIF moederborden worden beide ethernetcontrollers direct herkent door ESXI.
B2 schreef op zaterdag 23 februari 2013 @ 19:23:
[...]


Dat bord heeft ECC geheugen nodig. Verder wel een erg goed bord, ik heb zelf de X9SCM-F.
Volgens mij werkt dit bord ook met NON-ECC geheugen als je een i3 CPU plaatst ipv een Xeon CPU.

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Ja, de L-werkt, LM niet. Was voor mij een reden om voor de X9-SCA-F te gaan ipv SCM. Enige nadeel: waar dat SCA bord een x16 slot heeft, heeft de SCM er 2 van 8x . Dat is voor ZFS dan net weer iets leuker omdat je meer insteekkaarten kan plaatsen...

Ben je zeker van dat NON-ECC verhaal als je er in een i3 in plaatst?

:o Dat X9SCM-IIF bestond toen nog niet, anders had ik dat genomen. Zund... :(

[ Voor 68% gewijzigd door HyperBart op 26-02-2013 11:46 ]


  • Delta1981
  • Registratie: Juni 2011
  • Laatst online: 16:16
HyperBart schreef op dinsdag 26 februari 2013 @ 11:43:

Ben je zeker van dat NON-ECC verhaal als je er in een i3 in plaatst?
Ik dacht dat ergens gelezen te hebben maar begin nu aardig te twijfelen, misschien dat ik e.e.a. nog kan terugvinden.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Ik draai nu met een i3-2100t op een supermicro X9SCM-F moederbord met ECC geheugen. Net wel een Xeon E3-1220 gekocht om weer het ECC te kunnen gebruiken.
Die i3 was toen de goedkoopste zuinige cpu die ik kon vinden toen de E3-1265L v2 niet goed werkte in dat bord.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Heb je een bankje non-ECC geheugen liggen? Dan weten we het snel genoeg...

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Nee, alleen ECC geheugen. 4 en 8 GB modules.
Het was ook geen antwoord op de vraag, meer een mededeling dat deze combinatie wel werkt.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Ik ben een ZFS howto video inelkaar aan het draaien. Wat voor oude hardware je kan omtoveren tot een NAS met ZFS. Nu zit ik beetje met 1 vraag vooral.

kunnen grote HD's in oudere 2007 2008 systemen? Kan je zonder problemen 3tb / 4tb disken op een socket775 systeem gebruiken met ZFS. of zie je dan maar 2.2tb? ik heb helaas geen grote los disk om het te testen.

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Verwijderd

Dat kan prima ja. Met Windows is dat moeilijker omdat Windows UEFI-ondersteuning nodig heeft om te kunnen booten van GPT partities. GPT partities zijn nodig om meer dan 2TiB te kunnen adresseren met standaard 512-byte sectorsize. FreeBSD kan echter gewoon met een normaal BIOS van GPT booten; iets wat Windows niet kan.

De reden is dat FreeBSD veel moeite heeft gestoken in bootcode, die enorm geoptimaliseerd moet worden omdat het begint met 512-bytes en vanaf dat punt bijvoorbeeld van een RAID-Z3 moet kunnen booten. Succes! :D

De bootcode moet eerst:
  • alle disks vinden
  • kijken welke ZFS pools er zijn
  • welke pool heeft bootfs property ingesteld
  • boot van die pool, zoek naar boot filesystem
  • localiseer en start de zfsloader
  • lees de loader.conf en laad alle kernel modules in
  • lees de kernel en start deze als PID 0 (ja, de kernel is een proces, net als de task scheduler bijvoorbeeld, kun je zien met top en shift+S.
  • de kernel leest de fstab en mount de systeemfilesystems
  • de kernel start in multi-user mode; vanaf dat moment is het systeem pas echt draaiende en worden de processen gestart die automatisch gestart worden (de rc.d scripts)
De enige beperking met oude BIOS met 24 of 32-bit LBA is dat je tijdens de bootfase geen data kunt lezen die NA 2TB op een enkele disk plaatsvindt (128GiB voor 24-bit LBA). Dit kun je simpel oplossen door een aparte boot pool te gebruiken die 10-20GB groot is en aan het begin van de disks wordt geplaatst in een mirror ofzo. Dat is meestal toch wel het beste omdat anders je bootprocedure lang kan gaan duren.

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Het kan wel ook nog zo zijn dat je BIOS hangt op een 3 TB drive. Dat had ik met mijn oude Athlon XP3000+ en dan wordt het wat lastiger.

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Met het oog op 2 nieuwe disken daarnet een dd'tje gedaan op mijn mdadm array, blijkt dat ie niet meer bove 95MB/s gaat. Na wat zoeken vinden we een cache_size op 0 en dit:
code:
1
2
Layout : left-symmetric
     Chunk Size : 4K


Blijkt dus dat in sommige gevallen bij het growen van een mdadm array (x maand geleden van 3 naar 4) de chunk naar 4 K gaat als je niet expliciet de chunck size meegeeft bij het growen.

Op de koop toe kan ik de chunk niet verhogen naar 512K want:
code:
1
Array Size : 5860540272 (5589.05 GiB 6001.19 GB)

Lekker niet deelbaar door 512 dus.
Ziet er naar uit dat ik een weekendje data backupen en mdadm-from-scratch in het vooruitzicht heb.

tl;dr: Altijd je chunk size meegeven als je een mdadm array laat groeien :(.

  • Hero
  • Registratie: Maart 2001
  • Laatst online: 22:34

Hero

Duck power!

Na het lezen van de verschillende topics over NAS en ZFS heb ik besloten een NAS in elkaar te gaan klussen met onderstaande config en die dan te laten draaien op ZFSguru. Als jullie nog verbeteringsvoorstellen hebben: graag!

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 50,45€ 50,45
1ASRock B75 Pro3-M€ 56,90€ 56,90
5Western Digital Green WD20EZRX, 2TB€ 79,80€ 399,-
1Fractal Design Define Mini€ 78,-€ 78,-
1Fractal Design Define R4 Pearl Black€ 89,90€ 89,90
1Corsair CMV16GX3M2A1333C9€ 71,95€ 71,95
1Seasonic G-Serie 360Watt€ 62,99€ 62,99
1Crucial m4 CT064M4SSD2 64GB€ 65,-€ 65,-
Bekijk collectie
Importeer producten
Totaal€ 874,19


De SSD wil ik als boot-schijf en L2ARC gaan gebruiken om op die manier de HDD's niet steeds op te laten spinnen. Dat is de reden dat ik niet voor de Intel 320 heb gekozen. Zoals ik het wil gebruiken is het nut van supercaps beperkt, toch?

Wat betreft de case zoek ik eigenlijk een zo klein mogelijke die ook nog stil is (desktop model bv). Tot op heden heb ik niets gevonden dat evenveel mogelijkheden qua schijven biedt als een van opgenomen kasten. Hebben jullie evt. suggesties?

Wat ik me nog even afvraag over RAID-Z: het werkt het beste met drie of vijf schijven heb ik in de startpost van Het grote ZFS topic gelezen.
Heb je bij de eerste config met drie schijven niet heel veel 'overtollige' ruimte? Zoals ik het begrijp is het principe bij drie schijven 2+1 en bij vijf schijven 4+1. Dan lijkt het mij dat je bij drie schijven nogal veel ruimte opoffert om redundantie te hebben, omdat je bij vijf schijven nog steeds één schijf als redundantie hebt. Of zie ik dat verkeerd?

Is het trouwens mogelijk om te beginnen met drie schijven in een vdev en later deze vdev op een eenvoudige manier uit te breiden naar vijf schijven?

Dan nog een laatste sanity check: een NAS wil je juist bedraad aan je netwerk hangen en niet draadloos toch?

"If I have seen farther than others, it is because I was standing on the shoulder of giants." - Isaac Newton


  • jadjong
  • Registratie: Juli 2001
  • Niet online
Hero schreef op dinsdag 12 maart 2013 @ 21:06:
De SSD wil ik als boot-schijf en L2ARC gaan gebruiken om op die manier de HDD's niet steeds op te laten spinnen. Dat is de reden dat ik niet voor de Intel 320 heb gekozen. Zoals ik het wil gebruiken is het nut van supercaps beperkt, toch?
Oui,
Wat ik me nog even afvraag over RAID-Z: het werkt het beste met drie of vijf schijven heb ik in de startpost van Het grote ZFS topic gelezen.
Heb je bij de eerste config met drie schijven niet heel veel 'overtollige' ruimte? Zoals ik het begrijp is het principe bij drie schijven 2+1 en bij vijf schijven 4+1. Dan lijkt het mij dat je bij drie schijven nogal veel ruimte opoffert om redundantie te hebben, omdat je bij vijf schijven nog steeds één schijf als redundantie hebt. Of zie ik dat verkeerd?
Dat zie je goed. Met 21 schijven wordt de verhouding nog beter... :+
Is het trouwens mogelijk om te beginnen met drie schijven in een vdev en later deze vdev op een eenvoudige manier uit te breiden naar vijf schijven?
Dat lukt niet. Je kan wel een tweede vdev toevoegen van 2+1 schijven, dan heb je effectief 4+2 redundant.
Dan nog een laatste sanity check: een NAS wil je juist bedraad aan je netwerk hangen en niet draadloos toch?
Draadloos doe je alleen als het echt niet anders kan. Je kan bakken met geld uitgeven aan wireless N met 803.1AEUDKSJK certificering terwijl een draadje van nog geen euro het veel beter doet.
jadjong schreef op dinsdag 12 maart 2013 @ 21:24:
Dat lukt niet. Je kan wel een tweede vdev toevoegen van 2+1 schijven, dan heb je effectief 4+2 redundant.
Dat is niet waar. Je hebt welliswaar twee schijven met pariteit, maar er mag maar 1 schijf per vdev falen.
Het is dus RAID50 en geen RAID6.

Even niets...


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
mdevaal schreef op zaterdag 23 februari 2013 @ 15:36:
Ik loop stuk op het zoeken naar een geschikt moederbord voor een I5-3570. Bord moet VT-d voor ESXI 5.1 ondersteunen, 32GB kunnen adresseren en ruimte bieden aan minimaal 2 maal PCI-e*4 en 1 maal PCI-e*8. Dit laatste voor de AOC-USAS2-L8i SAS controller die ik middels VT-d wil doorgeven aan OpenIndiana. Tevens moet de onboard NIC(s) herkent worden door ESX.

In mijn (online) zoektocht zie ik in het zuinige ESX topic dat er veel gebruik gemaakt wordt van Intel borden als het gaat om de combinatie I5 en VT-d. Echter de genoemde borden aan het begin van dat topic zijn uit 2011 en ik vraag me af of dit voldoende 'toekomst proof' is.
Modernere borden (op basis van de Z77 chipset) van ASRock en Gigabyte(b.v. GA-Z77X-UD5H) kom ik regelmatig tegen in verband met ondersteuningsproblemen met ESX. Of de onboard NIC wordt niet herkent of het doorgeven via VT-d werkt niet goed of het opstarten vanaf onboard SATA controller werkt niet. Sommige van deze problemen lijken op te lossen met additionele drivers, maar werkt dus niet standaard.

Ik ben op zoek naar een zo zeker mogelijke optie voor een (up-to-date) moederbord met ongeveer de bovenin genoemde configuratie. Dit moederbord hoeft niet perse het zuinigste/goedkoopste bord te zijn wat er te krijgen is, ik vind het belangrijker dat het werkt en snel is.

Suggesties?
Is de Intel Desktop Board DX79SI niet iets. Wel aan de dure kant, maar samen met een Intel Xeon E5-2609 heb je wel iets in huis.

De Intel Desktop Board DX79SI is ook nog voorzien van twee NIC -L controllers. Namelijk de 82579L en
82574L Gigabit Ethernet Controllers.

  • Hero
  • Registratie: Maart 2001
  • Laatst online: 22:34

Hero

Duck power!

Bedankt voor deze antwoorden! Ik ga bijna op de bestelknop drukken, de komende dagen ga ik nog zoeken of er stille desktopkasten zijn waar vijf schijven ingehangen kunnen worden.

"If I have seen farther than others, it is because I was standing on the shoulder of giants." - Isaac Newton

Fractal Design R4 of Define XL. :)

Even niets...


  • jadjong
  • Registratie: Juli 2001
  • Niet online
Neptunus schreef op woensdag 13 maart 2013 @ 11:58:
[...]


Is de Intel Desktop Board DX79SI niet iets. Wel aan de dure kant, maar samen met een Intel Xeon E5-2609 heb je wel iets in huis.

De Intel Desktop Board DX79SI is ook nog voorzien van twee NIC -L controllers. Namelijk de 82579L en
82574L Gigabit Ethernet Controllers.
Scoor dan een x9srl-f. Meer pci-lanes en ipmi.
Een bord bepaald niet het aantal lanes. Dat doet de cpu. Er zitten hoogstens meer sloten op met een lagere snelheid.

Even niets...


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
jadjong schreef op donderdag 14 maart 2013 @ 16:25:
[...]

Scoor dan een x9srl-f. Meer pci-lanes en ipmi.
MMMmmm de x9srl-f is ook wel nice. Alleen waar kan je die in NL kopen?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Daar passen er wel meer in.
Maar, ik neem aan dat het echt om desktop kasten gaat, wat ze tegenwoordig ook wel HTPC kasten noemen. Silverstone heeft een aantal van die kasten, LC17, LC13, ... De LC17 is misschien wel de populairste, komt niet in ieder geval geregeld op V&A langs. Zo staat er nu een zilverkleurige versie voor 35 euro op V&A.

De CSL/OT kroeg !


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 22:56

  • analog_
  • Registratie: Januari 2004
  • Niet online
Pci-e lanes worden volgens mij toch echt wel door chipset bepaald hoor Firedrunk, als je de ruimte heb kan je het doen, anders zou ik voor m-atx gaan. Wat mij betreft is atx en zeker e-atx dood.

Verwijderd

Klopt wel hoor. De CPU levert direct PCI-express, bij normale consumentenprocessors is dat 16 lanes zodat je moederbord 16/0 kan draaien wanneer je alleen één slot gebruikt, of 8/8 in twee slots. Bij het LGA2011 platform heeft de processor 40 lanes tot zijn beschikking, dus dat betekent 5 keer PCI-express x8 en dus veel meer dan normaal socket 1155.

Naast de directe PCI-express lanes heeft een processor ook een PCIe-achtige verbinding met de chipset. Standaard is dit PCIe 2.0 x4 en dus 2GB/s capped. Daar valt alles onder, dus de SATA en USB functionaliteit van de chipset, de gigabit ethernet en vaak PCIe x1 of een enkele x4 slot.

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Afbeeldingslocatie: http://sphotos-c.ak.fbcdn.net/hphotos-ak-prn1/601968_503769809659451_693509633_n.jpg

Teaser van mijn komende video! :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Will it blend?

De CSL/OT kroeg !

Verwijderd schreef op vrijdag 15 maart 2013 @ 04:27:
Klopt wel hoor. De CPU levert direct PCI-express, bij normale consumentenprocessors is dat 16 lanes zodat je moederbord 16/0 kan draaien wanneer je alleen één slot gebruikt, of 8/8 in twee slots. Bij het LGA2011 platform heeft de processor 40 lanes tot zijn beschikking, dus dat betekent 5 keer PCI-express x8 en dus veel meer dan normaal socket 1155.

Naast de directe PCI-express lanes heeft een processor ook een PCIe-achtige verbinding met de chipset. Standaard is dit PCIe 2.0 x4 en dus 2GB/s capped. Daar valt alles onder, dus de SATA en USB functionaliteit van de chipset, de gigabit ethernet en vaak PCIe x1 of een enkele x4 slot.
Om te verduidelijken... Niet echt PCIe, maar inderdaad lijkt het er op.

Wikipedia: Direct Media Interface

Word in ieder geval gebruikt in mijn Q77 chipset... En is dus 20Gbit tegenwoordig (2.5GB/s)

Even niets...


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
analog_ schreef op zondag 17 maart 2013 @ 19:53:
maxtor singleplatter. oude seagate, een nog oudere maxtor, single platter maxtor, dan een oude seagate, weer single platter maxtor, maxtor, seagate, wd, seagate, wd, maxtor, seagate, wd.
goed,Samsung,goed,goed,goed,goed,Seagate 500gb,Samsung 500gb sata,Samsung 500gb sata,goed,seagate,goed,goed,seagate.

Ik ben een howto aan het maken hoe je een wat oudere (2006/2007) computer kan ombouwen tot ZFS homeserver. Dus voor de fun heb ik deze stapel gemaakt als opvulling in de video :D

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
In deze link staan de chipsets voor de southbridge beschreven: Wikipedia: Platform Controller Hub

Zo te zien allemaal 8x pci-e in diverse combinaties.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Bachatero
  • Registratie: December 2007
  • Laatst online: 10-02 00:56
Vier jaar geleden heb ik een storage server gebouwd met een RAID5 setup met acht Samsung 500GB schijven. Hiervoor heb ik DEBIAN 5.0.3 gebruikt.
Nu ben ik een nieuwe set-up aan het maken met dezelfde hardware. Omdat ik acht schijven in mijn server heb zitten heb ik afgelopen weekend FreeNAS 8.3.0 geïnstalleerd.

Hiervoor heb ik een RAIDZ2 configuratie gekozen voor alle acht de schijven. Achteraf, door wat in dit forum te lezen kom ik er achter dat dit niet de ideale RAIDZ2 set-up is. Ik overweeg nu om een aantal 2TB schijven aan te schaffen en een andere set-up te maken.

Zal ik de setup met acht schijven in RAIDZ2 zo laten of zal ik het aanpassen naar een meer idealer setup.

Een andere vraag is nog:

Wat gebeurt er met een RAIDZ setup als de boot disk defect raakt. Stel ik vervang de disk en installeer FreeNAS weer opnieuw op de nieuwe disk. Is mijn volledige RAIDZ2 array nog volledig onaangetast?

Johan

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Bachatero schreef op dinsdag 19 maart 2013 @ 22:20:


Wat gebeurt er met een RAIDZ setup als de boot disk defect raakt. Stel ik vervang de disk en installeer FreeNAS weer opnieuw op de nieuwe disk. Is mijn volledige RAIDZ2 array nog volledig onaangetast?

Johan
Zpool import -f poolnaam. Dat is alles. :)
En ik zou je array lekker zo laten, dat kleine beetje prestatie verlies is verwaarloosbaar. (hooguit 10%, meestal eerder richting de 0-5%)

Even niets...


Verwijderd

jacovn schreef op dinsdag 19 maart 2013 @ 08:05:
In deze link staan de chipsets voor de southbridge beschreven: Wikipedia: Platform Controller Hub

Zo te zien allemaal 8x pci-e in diverse combinaties.
De southbridge heeft een behoorlijke overboeking. Dus het kan zelf wel bijvoorbeeld twee keer PCIe x4 leveren, maar heeft deze bandbreedte niet naar de CPU toe. Idem voor de SATA functionaliteit van met name de AMD controllers. 2GB/s full duplex is de pijp naar de CPU toe.

In dit plaatje is goed te zien hoe de CPU samenhangt met southbridge. Je ziet met name dat de CPU eigen PCIe lanes heeft voor één of twee PCIe slots (x16/x8) en dat een kleiner pijpje naar de chipset/southbridge gaat.

Afbeeldingslocatie: http://upload.wikimedia.org/wikipedia/commons/5/53/Intel_5_Series_architecture.png

In de komende Brazos opvolger van AMD en ook Intel volgens mij wordt de CPU meer een SoC - System on Chip. De chipset is dan volledig geïntegreerd in de CPU ofwel in dezelfde package. Dit betekent dat je ook maar één chip hebt die gekoeld hoeft te worden. Dus de komende chips van AMD kunnen wellicht interessant worden voor toekomstige low-end NAS builds.
Als AMD niet hard aan de weg timmert qua idle power verbruik en single core performance, gaan ze best een hoop markt (blijven) verliezen van Intel.

Gelukkig is Intel een groot-aandeelhouder van AMD, dus het zal niet snel falliet gaan.

Bovendien doen ze het wel goed qua videokaarten :) (daar kunnen ze het idle verbruik wel op orde krijgen...)

Even niets...


Verwijderd

Single core performance hebben ze al verloren. Intel is zeker 50% sneller per core. Maar Intel loopt weer achter op GPU gebied. Dus AMD heeft nog zeker wel potentie.

Voor thuisservers ligt het anders. De fusionchips zijn niet erg interessant omdat daar dus juist veel aandacht uitgaat naar de GPU en de CPU-kracht erg matig is vergeleken met wat Intel te bieden heeft voor ongeveer dezelfde prijs.

Maar AMD is altijd goed geweest met idle power. Niet zozeer in de CPU zelf, maar vooral de rest. Dus ik zou zeggen dat AMD hier voorlopig op voorloopt. Als die nieuwe SoC chips van AMD straks te vinden zijn in bordjes zoals een Asus C60 mobo met passieve koeling en veel SATA poorten, dan kan dat een heel leuke instap ZFS NAS worden.

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Heeft iemand wel eens gekeken naar de Codegen 4U-55?

Kost bij Gistron.nl 160 euro, heeft 10 hotswap bays en er kan gewoon een ATX voeding in in plaats van een dure server voeding.
http://gistron.nl/info/45400/info.html

Enig probleem is even de levertijd.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Verwijderd

Ik ben jullie topic druk aan het volgen omdat ik zelf ook plannen heb om een Nas op te gaan bouwen maar ik ben de hardware aan het samen stellen en loop tegen een vraagje aan en hopen dat jullie me hier andwoord kunnen geven..

Ik wil met een mini ITX mainboard gaan werken maar deze hebben vrijwel altijd maar 1x een pci of pciE slot... Is het mogelijk om met een extender zoals deze: http://www.logicsupply.nl/riser-cards/pci/pci122-dflex/ 2 raid controllers op aan te sluiten???

Alvast bedankt!!!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

Alleen PCI kan 'verdubbeld' worden, PCI-e niet. Maar waarom heb je wel 2 RAID-controllers nodig, maar mag je bordje niet groter dan mITX zijn?

Verwijderd

Ook met PCI-express kan dat hoor. Je kunt een x16 slot omvormen in twee maal x8, of zelfs 16 maal x1. Hier is een voorbeeld van hoe dat kan werken: http://www.ioi.com.tw/pro...ostID=2042&ProdID=1130010

Maar misschien is het handig als je eerst uitlegt wat je wilt bereiken. Hoeveel hardeschijven wil je kunnen aansturen en wat voor soort opslag ga je gebruiken. Want bijvoorbeeld ZFS wil geen RAID controllers hebben. En als je Windows-based hardware RAID gaat gebruiken, kun je ook nog denken aan een expander bijvoorbeeld.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Leo1010 schreef op vrijdag 22 maart 2013 @ 11:58:
Heeft iemand wel eens gekeken naar de Codegen 4U-55?

Kost bij Gistron.nl 160 euro, heeft 10 hotswap bays en er kan gewoon een ATX voeding in in plaats van een dure server voeding.
http://gistron.nl/info/45400/info.html

Enig probleem is even de levertijd.
Tenzij je specifiek een rack-case nodig hebt om in een 19" rack te hangen die buiten de leefruimte staat, zou ik het daar ook bij laten. Het is wel leuk om 10 hotswap bays te hebben voor 160€ maar er gaan veel stillere, compacte en uitgebreidere behuizingen te vinden zijn. Rack-cases zijn altijd ontwikkeld om zoveel mogelijk hitte achteraan uit te spugen, waardoor je vaak zit met luide fans en geen tot zeer matige geluidsdempende (lees: anti-resonerende) voorzieningen.

Ook heeft Codegen in mijn ogen niet echt degelijke cases, heb er nog geen vastgehad maar ze ogen héél basis en matig opgebouwd. Ook het gebrek aan een redundante voeding noem ik geen voordeel voor zo'n case, want nogmaals hoort zo'n ding gewoon ergens in een server-rack te hangen waar je niet teveel mee bezig wil zijn.

Eventueel, als je zonodig hotswapbays wilt, kan je nog steeds kijken voor een degelijke case met veel 5,25" bays en daar backplanes in zetten, dan kan je van 2x 5,25" naar 3x 3,5" gaan, kijk hier maar eens.

[ Voor 12% gewijzigd door Phuncz op 22-03-2013 23:06 ]


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
ik weet niet of jullie threads op het unraid forum zo kunnen lezen, maar daar is een user die 4 merken 5in3 units getest heeft m.b.t plaatsing, koeling etc.

http://lime-technology.com/forum/index.php?topic=12405.0

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Wat ik uit eindelijk wil is een uitgebreide NAS op ZSF en freenas/freesBSD. Puur voor file storage en om vanaf te streamen naar mijn HTPC

Ik heb me beschikking over een 14bay HP storage. ik wil dus 14 hd`s in mijn systeem hebben. maar omdat er een redelijke beperkte ruimte zit achterin deze storage moet ik kiezen voor een mini ITX moederbord.. groter dan 17cm pas er niet in.. opzich is een mini ITX niks mis mee en draait het perfect als NAS maar zit dus met mijn beperte PCI sloten..

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Doe dan alsjeblieft een LSI 16-poorts controller. Highpoint is vragen om problemen...

Even niets...


  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Phuncz schreef op vrijdag 22 maart 2013 @ 23:01:
[...]
Eventueel, als je zonodig hotswapbays wilt, kan je nog steeds kijken voor een degelijke case met veel 5,25" bays en daar backplanes in zetten, dan kan je van 2x 5,25" naar 3x 3,5" gaan, kijk hier maar eens.
Dan ben ik alleen al 150 euro kwijt aan de hotswap bays. Het idee is juist om een budget rack mounted fileserver te bouwen.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Daarom zei ik ook:
Phuncz schreef op vrijdag 22 maart 2013 @ 23:01:
Tenzij je specifiek een rack-case nodig hebt om in een 19" rack te hangen
Voor budget rack cases heb je niet veel keuze, misschien nog een Norco of SuperMicro.

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Zonder reclame te maken: misschien heeft Ri-Vier nog wat. Zij hebben voor een tientje een 5-in-3 module voor harddisks. Die zijn dan wel niet hot-swappable, maar goedkoper ga je ze niet krijgen :).

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Contagion schreef op zaterdag 23 maart 2013 @ 12:17:
Zonder reclame te maken: misschien heeft Ri-Vier nog wat. Zij hebben voor een tientje een 5-in-3 module voor harddisks. Die zijn dan wel niet hot-swappable, maar goedkoper ga je ze niet krijgen :).
Dat zou dan toch wat knutselwerk vereisen,
Att. 3x 5,25 inch space does not have to have flaps where the DVD rest on normally. If the case has there flaps this module will NOT fit.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Knutselwerk vs $$$. Maak nu uw keuze :).

Edit: in de meeste cases kan je het ijzer waarop een drive leunt zo ombuigen met een tangetje.

[ Voor 55% gewijzigd door Contagion op 23-03-2013 12:29 ]


  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Goed, je zou er 2 nodig hebben plus een 19" case met 6x5.25". De eerste de beste die daar in de buurt komt is de Chenbro RM41300-F2, deze kost bij Azerty 109 euro. Daar moet dan nog wel een accessoire bij aangezien de case wel openingen heeft voor 6x5.25" maar geen 2 cages er voor in heeft zitten dus nog een 10tje voor die.

2x 5-3 module = 20
Chenbro case = 109
2de cage = 10
--------------------------------+
139 euro
vs
160 voor die Codegen kast.

Het verbaast mij gewoon hoeveel bang for buck je krijgt met de 4U-55, kwaliteit is natuurlijk een ander verhaal maar mijn ervaring met een 4U-500 wijst er op dat dat zo slecht nog niet is.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Verwijderd

kan een PCI-X in een PCIe 2.0 x16 slot?

gaat om de: Areca ARC 1160ML PCI-X Multi-Lane

[ Voor 38% gewijzigd door Verwijderd op 23-03-2013 13:44 ]


  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 22:08
Nope

Wikipedia: PCI-X
PCI-X is often confused by name with similar-sounding PCI Express, commonly abbreviated as PCI-E or PCIe, although the cards themselves are totally incompatible and look different.

[ Voor 97% gewijzigd door ThinkPad op 23-03-2013 13:52 ]


Verwijderd

duidelijk thanks!... pffff word moeilijker dan ik dacht..

Ik ben nu op zoek naar een SATA controller met minimaal 12 poort die past op een mini ITX board.. mini ITX moeder borden bevatten max 1x PCI of 1x PCI-E...

met een budget van max 200 euro...

converter van PCI/PCI-E naar PCI-X misschien? of heeft iemand nog andere suggesties..

thanks!

Verwijderd

robertjan, één van de dingen die met klem worden gezegd is dat je geen RAID controllers moet gebruiken in combinatie met ZFS. Dus een Areca is sowieso al out of the question.

Als je 12 disks wilt kunnen aansturen kan dat met een 8-poort controller (IBM M1015) plus de onboard SATA poorten van de chipset. Heb je tot 20 poorten nodig, dan is een LSI 16-poorts SAS controller + chipset poorten een oplossing.

Maar geen RAID controller; dan sluit je ZFS vrijwel uit.

Verwijderd

@CiPHER: Thanks voor deze opheldering!

Ik heb ruimte voor 14 hd`s en zou mooi zijn deze vol te kunnen benutten..
Ik kan er op letten dat ik minimaal 4x sata op mijn mainboard heb! dus dat is geen probleem.. volgens mij is 4x SATA op een mini ITX ook wel zo ongeveer de max..

dus ik heb dan minimaal 12 poorts sata controller nodig.. zou hou ik nog 2x sata onboard over om eventueel freeNAS of freeBSD op een SSD te zetten

EDIT: heb een mainbord met 6x sata gevonden en 1x PCI-E... lijkt mee leuk boardje om mee te beginnen.. dus nu nog een 8x ports SATA controller op PCI-E :) suggesties? _/-\o_

en ik moet dan alleen ZFS en FreeNAS/BSD op een usb stick draaien is dat wel stabiel genoeg?

[ Voor 24% gewijzigd door Verwijderd op 23-03-2013 14:40 ]


  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Verwijderd schreef op zaterdag 23 maart 2013 @ 14:22:
...
en ik moet dan alleen ZFS en FreeNAS/BSD op een usb stick draaien is dat wel stabiel genoeg?
Ja hoor, gebruik de embedded versie, en het draait vanuit ram, USB wordt alleen gebruikt om config op te slaan en initieel van te booten, veruit de beste optie als je het mij vraagt!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zaterdag 23 maart 2013 @ 14:22:
EDIT: heb een mainbord met 6x sata gevonden en 1x PCI-E... lijkt mee leuk boardje om mee te beginnen.. dus nu nog een 8x ports SATA controller op PCI-E :) suggesties? _/-\o_
Verwijderd schreef op zaterdag 23 maart 2013 @ 14:14:
Als je 12 disks wilt kunnen aansturen kan dat met een 8-poort controller (IBM M1015) plus de onboard SATA poorten van de chipset.
Let ook op dat het de juiste PCI-E poort is, een 1x gaat niet lukken voor een M1015; de handleiding zegt: "x8 PCI Express 2.0 host interface". Een 16x PCI-E 2.0 is ook geschikt, evenals 8x of 16x PCI-E 3.0.
en ik moet dan alleen ZFS en FreeNAS/BSD op een usb stick draaien is dat wel stabiel genoeg?
Waarom zou een USB-stick onstabiel zijn ? Een USB-stick kan altijd defect geraken maar dat probleem heeft elk opslagsysteem.
PCIe x1 wil wel met een M1015, alleen word hij nogal traag...
Als het slot dan ook maar aan de achterzijde open is. (en dat zijn ze niet heel veel...)

[ Voor 42% gewijzigd door FireDrunk op 23-03-2013 15:36 ]

Even niets...


Verwijderd

@Phuncz, thanks! het betreft een PCIe 2.0 x16 dus dat is oke...

ik ga denk ik dus voor ASUS C60M1-I - Moederbord met een 8-poort controller (IBM M1015)...

lijkt dat wat?

[ Voor 5% gewijzigd door Verwijderd op 23-03-2013 15:39 ]

Een C60 is niet super snel, dus verwacht geen honderden MB/s met 12 schijven.

Even niets...


Verwijderd

FireDrunk schreef op zaterdag 23 maart 2013 @ 15:45:
Een C60 is niet super snel, dus verwacht geen honderden MB/s met 12 schijven.
Okeejj.. maar 200/300 MB/s moet haalbaar zijn toch?.... :?

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 22:56
Verwijderd schreef op zaterdag 23 maart 2013 @ 15:38:
het betreft een PCIe 2.0 x16 dus dat is oke...
Je moet niet alleen naar de afmetingen kijken, op die C60M1-I zit dan wel een x16 slot maar deze krijgt slechts x4 lanes (niet dat dat ws een probleem is).
Verwijderd schreef op zaterdag 23 maart 2013 @ 15:48:
[...]


Okeejj.. maar 200/300 MB/s moet haalbaar zijn toch?.... :?
Dat ligt nogal aan het gebruik. Samba is een stuk zwaarder dan FTP ofzo. Dus via FTP zal je hogere snelheden halen. Exacte getallen zijn moeilijk te vinden.

Even niets...


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
Verwijderd schreef op zaterdag 23 maart 2013 @ 15:38:
ik ga denk ik dus voor ASUS C60M1-I - Moederbord met een 8-poort controller (IBM M1015)...lijkt dat wat?
is al weken niet verkrijgbaar dus sowieso eerst kijken of je deze wel kunt kopen :z

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
FireDrunk schreef op zaterdag 23 maart 2013 @ 15:59:
[...]

Dat ligt nogal aan het gebruik. Samba is een stuk zwaarder dan FTP ofzo. Dus via FTP zal je hogere snelheden halen. Exacte getallen zijn moeilijk te vinden.
Ik weet niet hoe het nu met sloth zit, maar wij hebben allebei die Asus. Ik kan hier nu niet zo makkelijk iets mee doen, misschien dat de c60 bij sloth nu vrij is voor spielerei. :) Het probleem is alleen dat we allebei met single disks hebben getest. Ik had het idee dat ik in de limiet van de enkele schijf terecht kwam. Maar je hebt gelijk dat je de c60 niet de gekste dingen moet laten doen.
Het voornaamste probleem vind ik nog wel dat er onder BSD iets niet helemaal goed gaat. Onder Windows is de performance nog wel prima, maar onder BSD ben je met samba in het nadeel. Daarnaast heb ik nog altijd het idee dat de IGP te actief blijft. Het processor is bij mij standaard zo rond de 60 graden. (Semi passief gekoeld middels een outtake 12cm.)
Wat resultaten van sloth over het netwerk:
Allereerst heb ik op zowel de client als NAS (de Asus c60) een nieuwe win7 32 bit install gedaan en verder alles default gelaten.

Via SMB haal ik enorm goede write waarden, tot 110MB/s vanaf een Samsung HD204UI die op 300GB na vol is.
In omgekeerde richting, dus via SMB wat kopiëren (read) vanaf de c60 met win7 naar die HD204UI haal ik 80MB/s. De transfer begint hoger, dus het kan goed dat die Samsung disk de bottleneck is. Hier ben ik tevreden mee

[ Voor 25% gewijzigd door Dadona op 23-03-2013 17:24 ]

De CSL/OT kroeg !

Belangrijk verschil tussen FreeBSD en Windows qua samba is natuurlijk dat SMB in Windows een kernel protocol is, waardoor het significant minder overhead heeft. Op alle andere platformen (behalve Solaris :) ) is het userland tooling. Buiten dat heeft Windows nogal wat shortcuts gemaakt volgens mij om SMB sneller te maken op Windows.

Wel vaag van die GPU, kan mux niet eens zijn licht laten schijnen met zijn multimeterskills en zo achterhalen waar dat in zit?

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
De oorzaak is mij wel duidelijk en uiteindelijk kies ik persoonlijk voor andere protocollen.
De GPU is puur een theorie. Ik heb geen idee of de GPU daadwerkelijk de ellende veroorzaakt. Het is alleen zo dat zelfs bij een idle CPU de temperatuur voor mijn gevoel te hoog is. Daar komt bij dat het verbruik mij ook wel wat tegenviel. Maar goed, uiteindelijk ben ik er gewoon maar verder mee gegaan. Het doel was dat het een tijdelijke opstelling zou worden, zodat ik een andere pc wel goed naar de hand kon zetten. En ik wist op voorhand al dat die tijdelijke opstelling wel eens een jaar zou kunnen blijven staan. :+

De CSL/OT kroeg !


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Contagion schreef op zaterdag 23 maart 2013 @ 12:17:
Zonder reclame te maken: misschien heeft Ri-Vier nog wat. Zij hebben voor een tientje een 5-in-3 module voor harddisks. Die zijn dan wel niet hot-swappable, maar goedkoper ga je ze niet krijgen :).
Die heb ik in gebruik. Er zit standaard geen fan bij, maar een standaard 120x120x25 mm fan past erin/ervoor.

De voorloper had wel een fan en was een paar euro duurder, maar die fan was niet geweldig.
Groter nadeel was dat je de hdd voorzien moet van 2 plastic stripjes waarmee je ze in het 5in3 rack klikt.
De punt waarmee je hem weer los kunt maken breekt snel af helaas.

De hdd zit er ook niet flexibel in. In de nieuwe zit er een flexibele ophanging, met rubbertjes en schroeven.

Ik heb van 1 server ze vervangen voor de v2,en ga dat voor de andere server ook doen.
Die v1 dingen mag iemand op komen halen voor 5 euro per stuk..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
@robertjan11: Ik heb die C60 een tijdje geprobeerd met 6 disks of zo. Eigenlijk is hij niet krachtig genoeg. Als je 200-300 MB/sec wilt halen dat ga je dat niet halen. In de meeste gevallen trek je gigabit al niet dicht door de overhead van je transfer protocol. Ik denk dat je met een andere processor/mobo combinatie beter uit bent.

Ik moet zeggen dat dat ook mijn ideaal was, een C60 bord als NAS maar ik wilde er tov mijn oude AMD NAS op vooruit gaan en dat lukte niet, behalve het stroomverbuik dan :).

@jacovn: Die V2 versie, zitten daar de 3.5" disks in vastgeschroefd of hangen die ook nog in een soort houdertjes dat ze er makkelijk uit kunnen? Ik heb zelf de 4-in-3 van Coolermaster, maar 5-in-3 is ook mooi.

[ Voor 22% gewijzigd door Contagion op 23-03-2013 22:22 ]


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Het gaat hier om HDR-5 v2
Dit is een stalen omhulsel, waar rubber ringen in zitten. Je schroeft de hdd vast, en dat lukt alleen als het hele rack voor 80% buiten de kast is. Totaal niet hot swap dus..

[ Voor 18% gewijzigd door jacovn op 24-03-2013 04:22 . Reden: Url weggehaald ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Oke thanks.. dan ga ik toch kijken voor ander mainboard.. pfff dat word druk zoeken naar een mini ITX met 6 sata poorten... en anders stel ik zelf een mainboard met processor samen.. lijkt me een beter optie ofnie?

of kan ik ook op de ASUS C60M1-I - Moederbord een andere processor drukken? ik kan via google niet echt vinden welke socket deze bevat.. :? en of het compatibel is met een I5 ofzo

hebben de mensen wel goeie ervaringen met de IBM M1015 controller?

[ Voor 24% gewijzigd door Verwijderd op 24-03-2013 11:33 ]


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Je kunt toch met de pricewatch een socket kiezen en mini itx ?
Bij socket 1155 en mini itx heb je iets van 100 hits, dan kun je i3 of e3 processoren gebruiken lijkt me.

Ik had met een i3 1220t ook 100 mbyte/sec naar de server toe met zfsguru.

Ibm1015 werkt prima voor mij tot dusver, ik gebruik er 5, en er was 1 met een defecte poort, maar die is omgeruild. Flashen naar it mode en je bent klaar.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zondag 24 maart 2013 @ 11:20:
en anders stel ik zelf een mainboard met processor samen.. lijkt me een beter optie ofnie?
Ik zie tot Haswell uitkomt, geen goede moederbord met ingebakken CPU verschijnen eerlijk gezegd. Voorlopig ben je nog steeds beter uit met een Q77 of H77 moederbord en een Intel Pentium G2010 of Intel Core i3-3220 als prijs/prestatie en prestatie/verbruik belangrijk zijn.
hebben de mensen wel goeie ervaringen met de IBM M1015 controller?
Dat is de go-to controller voor ZFS-based NAS-systemen.
of kan ik ook op de ASUS C60M1-I - Moederbord een andere processor drukken? ik kan via google niet echt vinden welke socket deze bevat.. :? en of het compatibel is met een I5 ofzo
Iets meer zelf-onderzoek mag:
pricewatch: Asus C60M1-I

Daar zie je dat het een AMD systeem betreft. Als je echter nog niet weet dat een systeem gebasseerd op een AMD CPU niet voorzien kan worden van een Intel Core i5, dan veronderstel ik dat je technische kennis voorlopig nog tekort schiet om met OpenBSD en ZFS te gaan beginnen. De technische termen gaan je immers met de tientallen op je afvliegen en zonder een goede technische basis vrees ik ervoor dat je gaat verzuipen in de hoeveelheid nieuwe en verwachte informatie.

Misschien kijk je beter eerst uit naar systemen van Synology of QNAP voordat je je stort op het opzetten van een volledig DIY-systeem.

Verwijderd

@Phuncz, sorry mijn fout.. mijn kennis is goed genoeg om te weten dat een I5 niet op een AMD systeem past :-)

mijn oog is inmiddels gevallen op een ZOTAC H67-ITX WiFi mini-ITX mainboard... denk dat ik er een I3 of I5 op ga doen.. zijn voor een redelijk prijs te verkrijgen op ebay.

Verwijderd

H67 met 6 keer SATA is nog wel te vinden. Zelfs een Mini-ITX bord met 7 poorten + 1 eSATA: pricewatch: ASRock FM2A85X-ITX

Qua processor heb je denk ik geen i3 of i5 nodig. De goedkopere Pentium G2020 kun je ook overwegen: pricewatch: Intel Pentium G2020 Boxed

Maar bezuinig niet op geheugen. Ik raad dit setje aan vanwege zuinigheid en het feit dat hij 1600 op CAS9 kan draaien: pricewatch: Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU

Ik raad aan dat je het geheugen snel koopt, want de prijzen zijn stijgende.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op zondag 24 maart 2013 @ 17:04:
H67 met 6 keer SATA is nog wel te vinden. Zelfs een Mini-ITX bord met 7 poorten + 1 eSATA: pricewatch: ASRock FM2A85X-ITX

Qua processor heb je denk ik geen i3 of i5 nodig. De goedkopere Pentium G2020 kun je ook overwegen: pricewatch: Intel Pentium G2020 Boxed

Maar bezuinig niet op geheugen. Ik raad dit setje aan vanwege zuinigheid en het feit dat hij 1600 op CAS9 kan draaien: pricewatch: Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU

Ik raad aan dat je het geheugen snel koopt, want de prijzen zijn stijgende.
pun intended ;)

LOL, en CiPHER gaat je een hamer op sturen om de Intel CPU in t FM2 socket van de AMD te meppen.

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/thumblarge/1359624033.jpeg.


Als de eisen mini ITX, Intel en minimaal 6x SATA zijn dan is de keuze beperkt tot Asus P8-H77-i of Zotac H67ITX-CE. Jammer genoeg is de Zotac erg kostbaar.

[ Voor 12% gewijzigd door Pantagruel op 24-03-2013 17:31 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Verwijderd

haha lol... gelukkig was ik niet de enige dit even over het hoofd had gezien.. lol... maar het moederbord is wel super vet!!! ga ik zeker serieus naar kijken!
AMD is alleen een stuk minder zuinig idle!

Even niets...


Verwijderd

stroom verbruik is totaal geen probleem.. zolang het onder de 500 watt idle blijft ;-)

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
En in een FM1/FM2 bord kan geen ECC memory, maar dat is hier niet aan de orde :). De A85 chipset heeft zelf al 8x SATA 600 dus zeer interessant.

  • Bachatero
  • Registratie: December 2007
  • Laatst online: 10-02 00:56
Kortgeleden heb ik op mijn server DEBIAN 5.0.3 vervangen voor FreeNAS 8.3.0.

Hardware: Moederboard SuperMicro X6DHT-G met 2X XEON Nocona op 2.8 GHz.
8 X 500Gb in RAID-Z2

Zijn de onderstaande snelheden valide voor mijn set-up:

Ik kopieer een 43 Gb bestand van mijn Macintosh naar mijn NAS: 75,4 MB/s
Ik kopieer een 43 Gb bestand van mijn NAS naar mijn Macintosh: 77,5 MB/s
Ik kopieer een 43 Gb bestand van Windows7 naar mijn NAS: 69 MB/s
Ik kopieer een 43 Gb bestand van mijn NAS naar Windows7: 70 MB/s

Dank,

Johan
Via welk protocol?

Even niets...


  • FreshMaker
  • Registratie: December 2003
  • Niet online
Bachatero schreef op zondag 24 maart 2013 @ 18:15:
Kortgeleden heb ik op mijn server DEBIAN 5.0.3 vervangen voor FreeNAS 8.3.0.

Hardware: Moederboard SuperMicro X6DHT-G met 2X XEON Nocona op 2.8 GHz.
8 X 500Gb in RAID-Z2

Zijn de onderstaande snelheden valide voor mijn set-up:

Ik kopieer een 43 Gb bestand van Windows7 naar mijn NAS: 69 MB/s
Ik kopieer een 43 Gb bestand van mijn NAS naar Windows7: 70 MB/s
Vermoed van niet, ik haal dat op mijn 'gewone' windows7 naar windows7 ( geen raid - standaard drivers )

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Windows 7 naar Windows 7 is geen probleem, dat is hetzelfde protocol.
We hebben het hier over FreeNAS dat via een onofficiële implementatie van Samba het moet oplossen.

Verwijderd

Pantagruel schreef op zondag 24 maart 2013 @ 17:07:
pun intended ;)

LOL, en CiPHER gaat je een hamer op sturen om de Intel CPU in t FM2 socket van de AMD te meppen.
Haha, wil je zeggen dat dat niet kan dan; een Intel CPU in een FM2 socket? Past altijd met de nodige kracht. >:)

Maar die CPU zou natuurlijk passen bij een H67/H77/B75 bordje. Het AMD Mini-ITX FM2 bordje is vooral interessant vanwege de 7/8 onboard SATA/600 wat voor Mini-ITX uitzonderlijk veel is. Ik ben zelf ook wel geïnteresseerd in dit bordje; maar dan niet als ZFS NAS. Wellicht kan ik dan ook testen hoe zuinig deze setup is. ASRock is meestal minder zuinig, maar heeft wel opties voor underclocking en undervolting. Het grootste nadeel voor FM2 voor een ZFS NAS is dat de chips van AMD op dit gebied weinig CPUkracht bieden. De GPU is wat deze chips bijzonder maakt en daar heb je vrijwel niets aan op een ZFS NAS.

Maar we moeten roeien met de riemen die we hebben. De markt voor zuinige thuisservers is heel klein en vaak betekent dit dus hardware gebruiken dit eigenlijk voor een andere doelgroep is bedoeld.
De ASRock B75-Pro3-M word anders geroemt om zijn zuinigheid volgens mij?

Even niets...


  • Benjamin75
  • Registratie: Maart 2011
  • Laatst online: 26-01 17:20
Ik wil een server bouwen op basis van ZFSguru. Deze zou vooral gebruikt worden voor films en backups. Ik zou ook nog wat VMs willen draaien met onder andere een VM voor Plex media server en een VM voor te downloaden. Is volgende setup gepast voor mij?

#ProductPrijsSubtotaal
1Intel Core i5 3470 Boxed€ 167,95€ 167,95
1ASRock B75 Pro3-M€ 55,10€ 55,10
6Western Digital Green WD30EZRX, 3TB€ 113,50€ 681,-
1Fractal Design Define R4 Pearl Black€ 88,50€ 88,50
2Silverstone SST-CP06 4x SATA€ 8,17€ 16,34
1Fractal Design Silent R2, 140mm€ 10,80€ 10,80
2Corsair XMS3 CMX16GX3M2A1333C9€ 88,95€ 177,90
1Seasonic G-Serie 360Watt€ 58,99€ 58,99
1Crucial m4 CT064M4SSD2 64GB€ 65,-€ 65,-
Bekijk collectie
Importeer producten
Totaal€ 1.321,58


Met de 6 schijven in RAID-Z2 en de SSD verdeeld voor het systeem en L2ARC.
Nu vroeg ik mij af of het wel voordelig is om L2ARC te gebruiken, aangezien er vooral grote bestanden sequentieel gelezen zullen worden.
Indien ik geen SSD zou gebruiken, waarop kan ik ZFSguru dan best installeren: een usb of een harde schijf?

  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

FireDrunk schreef op zondag 24 maart 2013 @ 20:25:
De ASRock B75-Pro3-M word anders geroemt om zijn zuinigheid volgens mij?
Alleen als je hem undervolt. Het is stock geen opvallend zuinig bordje. De enige reden om de B75 Pro3-m te nemen is als je meer dan 6xSATA nodig hebt en niet idioot veel verbruik erbij wil hebben.

Bijna alle MSI bordjes in hetzelfde segment zijn stock zuiniger dan de Asrock geündervoltet.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Benjamin75 schreef op zondag 24 maart 2013 @ 20:27:
Ik wil een server bouwen op basis van ZFSguru. Deze zou vooral gebruikt worden voor films en backups. Ik zou ook nog wat VMs willen draaien met onder andere een VM voor Plex media server en een VM voor te downloaden. Is volgende setup gepast voor mij?
Dat lijkt met een zeer geschikt systeem ervoor. Ik zou zelf enkel nog gekeken hebben naar een grotere SSD aangezien de prijzen van de 128GB SSD's doorgaans toch interessant genoeg zijn. Dan kan je ook met een gerust hart 25% overprovisionen, partitie'tje voor OS en een grote voor L2ARC.
Eventueel kun je zelfs dan een partitie geven voor Plex Media Server en voor je download VM'tje. Maar backuppen van de OS'en daarop wordt dan wel heel wat belangrijker.

[ Voor 4% gewijzigd door Phuncz op 24-03-2013 20:39 ]

mux schreef op zondag 24 maart 2013 @ 20:33:
[...]


Alleen als je hem undervolt. Het is stock geen opvallend zuinig bordje. De enige reden om de B75 Pro3-m te nemen is als je meer dan 6xSATA nodig hebt en niet idioot veel verbruik erbij wil hebben.

Bijna alle MSI bordjes in hetzelfde segment zijn stock zuiniger dan de Asrock geündervoltet.
Ah das voor mij nieuwe informatie.

Even niets...


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 22:56
Phuncz schreef op zondag 24 maart 2013 @ 12:02:
Ik zie tot Haswell uitkomt, geen goede moederbord met ingebakken CPU verschijnen eerlijk gezegd.
Ik zat me eigenlijk af te vragen of de bordjes met onboard Celeron 847 een beetje geschikt zijn. De cpu heeft een TDP van 17W en hoewel de kloksnelheid met 1.1 GHz relatief laag is is het wel een Sandy Bridge afgeleide dus ws een stukje krachtiger dan 'n Atom of Brazos. Helaas vaak wel maar twee tot vier sata poorten op de bordjes, maar sommige hebben dan wel weer een volledig PCI-e x16 2.0 slot dus misschien wel geschikt om te combineren met bv een m1015?

  • Bachatero
  • Registratie: December 2007
  • Laatst online: 10-02 00:56
Freshmaker schreef:
Via welk protocol?
Macintosh naar mijn NAS: 75,4 MB/s Apple AFP share
NAS naar mijn Macintosh: 77,5 MB/s Apple AFP share
Windows7 naar mijn NAS: 69 MB/s Windows (CIFS) share
NAS naar Windows7: 70 MB/s Windows (CIFS) share

[ Voor 13% gewijzigd door Bachatero op 24-03-2013 21:03 ]


Verwijderd

@FireDrunk: Ik heb dezelfde ervaring als mux. Dat gezegd, MSI doet vrijwel nooit aan undervolting BIOS opties, dus stock is ook alles wat je kunt. ASrock begin je hoger dan MSI maar kun je wel onder het niveau van MSI komen met undervolting, globaal gezegd.

Het ASRock B75 bord is denk ik vooral leuk vanwege zijn lage prijs. 55 euro voor een bord met veel opties en ook redelijk zuinig (mits je gaat undervolten dus en alle meuk uitschakelt) is best een leuke deal.

@Benjamin75: lijkt mij een mooie setup die je hebt! Enige opmerking die ik heb is misschien toch iets beter geheugen als het toch weinig scheelt: pricewatch: Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU. Daarnaast zou ik eerlijk gezegd even wachten met een SSD en pas over een maand ofzo een Crucial M500 120GB halen. Dat is een heel veilige SSD die je ook voor SLOG kunt gebruiken. Een SSD kun je prima later achteraf toevoegen, dus je kunt overwegen de SSD nog even uit te stellen. Bedenk wel dat de ASrock B75 maar één échte SATA/600 poort heeft, de overige twee zijn van ASMedia. Die zijn trager maar ook iets minder zuinig. Op zich geen groot probleem; L2ARC doet het prima op de ASMedia chips daar zal je vrijwel nihil prestatieverlies van ondervinden.

@Nielson: bedenk dat Brazos en al helemaal Atom een gecastreerde PCI-express heeft. Bij Brazos is PCIe 2.0 x4 nog best goed te noemen (2GB/s). Maar het echte wachten is op SoC chips van zowel Intel als AMD. AMD komt in 2013 met de opvolger van Brazos; dit platform is nu wel erg gedateerd met vooral lage CPU-prestaties.

Verwijderd

Stomme vraag mischien maar Hoe verzien jullie je HD's van voeding? Ik heb straks 12 hd's kan ik ze gewoon allemaal op elkaar aan knopen en verbinden op 1 voedings uitgang van de voeding?

[ Voor 7% gewijzigd door Verwijderd op 24-03-2013 21:30 ]


Verwijderd

pricewatch: Silverstone SST-CP06 4x SATA

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/1314351912.jpeg

Voordeel van deze stekkers:
  • Géén Molex connector dus ook geen problemen met connectoren die af en toe even geen contact maken; dit kan ernstige problemen veroorzaken in RAID arrays en in iets mindere mate ZFS arrays, doordat meerdere disks tegelijkertijd stroom verliezen wat de array onbeschikbaar kan maken en in sommige gevallen (hardware RAID/onboard RAID) zelfs lastig kan zijn om de array weer draaiende te krijgen.
  • Er zitten capacitors in voor de +5V en +12V voltagelijnen. Dit zou voltagefluctuaties moeten verminderen bijvoorbeeld als een schijf gaat opspinnen terwijl de andere nog draaien. Doe ik dit zonder deze kabels dan hoor ik een soort geluidje bij de overige HDDs. Ik kan me voorstellen dat het opspinnen van een hardeschijf de voltages zodanig (kortdurig) kan beïnvloeden dat de overige hardeschijven hier last van kunnen ondervinden. Als alle schijven tegelijk opspinnen zou dit geen probleem mogen zijn denk ik, maar wellicht juist wel als je zowel spindown als spinned up schijven hebt.
  • Voor weinig geld heb je extra SATA poorten (€2 per poort)
  • Goed verkrijgbaar
Niet iedereen is er blij mee overigens. Ik geloof dat HyperBart er problemen mee had. Ook ik heb problemen ondervinden in combinatie met PicoPSU. Als ik deze stekkers aansluit terwijl PicoPSU draait; dan treedt een bescherming in werking (vermoed ik) waardoor het systeem plots uitgaat. Ik moet de stekkers aangesloten hebben en dan pas de stroom erop zetten. Ik vermoed dat dit een probleem is door de hoge rush-in current van de capacitors. Mux kan daar vast en zeker meer over vertellen.

Desondanks wil ik deze stekkers toch aanraden. Alles is beter dan die slechte Molex stekkers. Daar heb ik zelf best veel gezeik mee gehad over de jaren, en dat vermoed je misschien niet zo snel; je denkt dan dat het aan de schijven zelf ligt. Dus voorkom al die hoofdpijn en kies goede SATA power stekkers en gebruik nooit meer Molex waar mogelijk.
Pagina: 1 ... 122 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.