• lithoijen
  • Registratie: Februari 2000
  • Laatst online: 23:09
JomiVerwimp schreef op maandag 08 april 2013 @ 21:32:
Is er iemand die een oplossing weet indien je deze melding krijgt wanneer je in EFI shell een M1015 wilt flashen?

code:
1
InitShellApp: application not started from Shell


Via dos krijg ik steeds 'Failed to initialize PAL'. Iemand raad? Moederbord is trouwens een ASRock B75 Pro3-M.

Alvast bedankt!
Ik kreeg de zelfde melding ('Failed to initialize PAL) toen ik mijn m1015 aan het crossflashen was.
Schijnt inderdaad afhankelijk te zijn van het moederbord.
In mijn geval was het op te lossen door te booten van een EFI shell en daar een aangepast tooltje te gebruiken. Houd er ook rekening mee dat je een iets ander syntac moet gebruiken in je EFI shell als onder dos. Mocht er behoefte aan zij dan wil ik morgen wel eens gaan zoeken welke handleiding/tools ik heb toegepast om te crossflashen.

  • Marcoos
  • Registratie: Juni 2006
  • Laatst online: 27-11 08:38
FireDrunk schreef op dinsdag 09 april 2013 @ 14:51:
[...]


Alleen de 320, M500 en een handjevol enterprise SSD's hebben die feature. Best jammer dus.
Je bedoeld met de M500 toch die van Crucial ? :*)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Jup

Even niets...


  • FireSonus
  • Registratie: Maart 2010
  • Laatst online: 22-12 13:43
Nogmaals bedankt voor het meedenken :D. Die M1015 kan ik voor nu echt wel even laten vallen ja, 8TB is op dit moment zeker genoeg, 4TB netto zou voor nu zelfs voldoende zijn. Als ik dat dan later nog maar kan uitbreiden. En ja, de reden dat ik niet gelijk zoveel opslag wil is gewoon simpelweg het budget, 800 euro wordt teveel op dit moment.

Waar ik op dit moment dus aan denk is jou basisconfig met liefst 3, hoogstens 4 2TB schijven (waarbij t logischer zou zijn om er drie te nemen zodat ik nog 1 poort over heb om later data over te kunnen zetten, of denk ik dan te kort door de bocht?)

Overigens nog 1 (ok, 2) ding(en), waarom die seasonic G-serie voeding? En hoe maak je zo'n mooi pricewatch tabelletje? :P

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
FireSonus schreef op dinsdag 09 april 2013 @ 17:02:
[...]


Nogmaals bedankt voor het meedenken :D. Die M1015 kan ik voor nu echt wel even laten vallen ja, 8TB is op dit moment zeker genoeg, 4TB netto zou voor nu zelfs voldoende zijn. Als ik dat dan later nog maar kan uitbreiden. En ja, de reden dat ik niet gelijk zoveel opslag wil is gewoon simpelweg het budget, 800 euro wordt teveel op dit moment.

Waar ik op dit moment dus aan denk is jou basisconfig met liefst 3, hoogstens 4 2TB schijven (waarbij t logischer zou zijn om er drie te nemen zodat ik nog 1 poort over heb om later data over te kunnen zetten, of denk ik dan te kort door de bocht?)

Overigens nog 1 (ok, 2) ding(en), waarom die seasonic G-serie voeding? En hoe maak je zo'n mooi pricewatch tabelletje? :P
Kies in dat geval naar de toekomst toe voor 2 x 4TB in een mirror... Ook al kosten 2 van goedkoopste 2TB disken van Seagate 100 EUR minder, je bent zuiniger en later kan je relatief eenvoudig overstappen op RAIDZ:
  1. Disk A en B heb je al
  2. Disk C koop je bij
  3. De mirror van van A en B maak je kapoet door een disk te wipen (bv. B )
  4. Je maakt een RAIDZ aan van disk B en C met een missing disk (=degraded RAIDZ maar nog toegankelijk)
  5. Je kopieert je data naar RAIDZ
  6. Je voegt disk A toe aan de RAIDZ-array
  7. Je resilvered en je bent weer vertrokken
Die Seasonic is een voeding die door een aantal mensen (waaronder de belangrijkste, een mede-tweaker mux) bestempeld als "hoge kwaliteit, efficiënt en most bang for the bucks" van alle low power voedingen. 360 Watt is zat genoeg, je zou in jouw geval zelfs nog voor een PicoPSU kunnen opteren, maar dat is een stukje duurder. De SS is ook nog eens bijzonder efficiënt bij lagere belasting (dan gespecifieerd) dacht ik.

Tabelletjes maak je door in de pricewatch dingen toe te voegen aan een wenslijst, en daarna bij je profiel de wenslijst te openen en "Genereer RML" te klikken. Dat kan je copypasten wherever you want op GoT en dat wordt dan netjes geparsed.

Dan krijg je dus dit:

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 51,45€ 51,45
1MSI B75IA-E33€ 73,18€ 73,18
2Seagate Barracuda HDD.15, 4TB€ 158,90€ 317,80
1Fractal Design Node 304€ 74,60€ 74,60
1Corsair CMV8GX3M1A1333C9€ 46,01€ 46,01
1Seasonic G-Serie 360Watt€ 61,99€ 61,99
Bekijk collectie
Importeer producten
Totaal€ 625,03

[ Voor 48% gewijzigd door HyperBart op 09-04-2013 17:44 ]


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
lithoijen schreef op dinsdag 09 april 2013 @ 16:18:
[...]


Ik kreeg de zelfde melding ('Failed to initialize PAL) toen ik mijn m1015 aan het crossflashen was.
Schijnt inderdaad afhankelijk te zijn van het moederbord.
In mijn geval was het op te lossen door te booten van een EFI shell en daar een aangepast tooltje te gebruiken. Houd er ook rekening mee dat je een iets ander syntac moet gebruiken in je EFI shell als onder dos. Mocht er behoefte aan zij dan wil ik morgen wel eens gaan zoeken welke handleiding/tools ik heb toegepast om te crossflashen.
Hier even op inhaken, ik had hetzelfde en heb post nummer 3 uit onderstaande link gebruikt om te flashen. Hoop dat iemand er iets aan heeft!

http://forums.servethehom...-m1015-experiences-5.html

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
Even quoten dan maar hier lokaal:
I finally managed to flash my M1015 to LSI 9211-8i in IR mode using my Asus P9X79 WS, the same motherboard that give me headaches in the native DOS prompt.
I was able to flash it via the UEFI shell. The method I used it`s a simple one and I think it should work for everyone who had the "Failed to initialize PAL" error.


You can read below all the steps I`ve made, starting in DOS and finishing via the EFI Shell:
1. I downloaded the latest updates (sas2008.zip) for LSI 9211-8i from mobilenvidia`s laptopvideo2go.com forum: http://forums.laptopvideo2go.com/top...age__hl__m1015. I was a bit lazy and I found very convenient to download everything in one go. Thanks mobilenvidia!
2. Then using a USB stick I created a MS-DOS Bootable Flash Drive. You can finf how to do it here: http://www.sevenforums.com/tutorials...ve-create.html
3. After that I extracted the content from sas2008.zip on the USB stick.
4. I set up in Bios to boot from the USB and in DOS prompt, I followed the instructions from the first post in the earlier mentioned thread:

Convert LSI9240(IBM M1015) to a LSI9211-IR mode
Type in the following exactly:
megarec -writesbr 0 sbrempty.bin
megarec -cleanflash 0
<reboot, back to USB stick>

5. In DOS, after reboot using "sas2flsh -o -f 2118ir.bin -b mptsas2.rom" command I got the infamous "ERROR: Failed to initialize PAL. Exiting program".
6. I went to ArchWiki, to the Unified Extensible Firmware Interface (UEFI) page.
The web address is: https://wiki.archlinux.org/index.php...ace#UEFI_Shell
Scroll down to "UEFI Shell " and download "x86_64 UEFI Shell 2.0 (Beta)" and "x86_64 UEFI Shell 1.0 (Old)"
To flash my card I used "x86_64 UEFI Shell 1.0 (Old)".
I renamed the "Shell_Full.efi" to "shellx64.efi" and copied on the USB stick, over the previous files from the "sas2008.zip" archive.
7. I also had to copy on the stick the sas2flash.efi program. You can download the "Installer_P13_for_UEFI " from the LSI support page: http://www.lsi.com/channel/products/...AS9211-8i.aspx
8. Attach the USB, restart the PC and go in the UEFI Bios. Check if the UEFI USB drive is your first boot option. On the top right corner click on the "Exit" button. You will get a new menu and the last option is "Launch EFI Shell from filesystem device" Click on it and you will go in the UEFI Shell.
Here I was able to continue the flashing procedure:

sas2flash.efi -o -f 2118ir.bin -b mptsas2.rom
sas2flash.efi -o -sasadd 500605bxxxxxxxxx (x= numbers for SAS address)

9. Done.


I thought it`ll be a good idea to post in detail all the steps, especially for guys like me, who don`t do everyday things like this.

Also, a big thanks to Servethehome.com for the great article "IBM ServeRAID M1015: Performance of the LSI 9220-8i". That was the article that pointed me to the M1015. Also, thanks mobilenvidia for putting all together. It helped me a lot.
Now I`m happy, I have a little monster ready to chew all the data I`m going to feed him.
Cheers,

  • FireSonus
  • Registratie: Maart 2010
  • Laatst online: 22-12 13:43
HyperBart schreef op dinsdag 09 april 2013 @ 17:10:
[...]

Kies in dat geval naar de toekomst toe voor 2 x 4TB in een mirror... Ook al kosten 2 van goedkoopste 2TB disken van Seagate 100 EUR minder, je bent zuiniger en later kan je relatief eenvoudig overstappen op RAIDZ:

Dan krijg je dus dit:

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 51,45€ 51,45
1MSI B75IA-E33€ 73,18€ 73,18
2Seagate Barracuda HDD.15, 4TB€ 158,90€ 317,80
1Fractal Design Node 304€ 74,60€ 74,60
1Corsair CMV8GX3M1A1333C9€ 46,01€ 46,01
1Seasonic G-Serie 360Watt€ 61,99€ 61,99
Bekijk collectie
Importeer producten
Totaal€ 625,03
Goed, ik heb er eens een nachtje over geslapen en kom op dit moment op het volgende uit (echter wel weer met wat kanttekeningen/vragen :P):

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 51,45€ 51,45
1MSI B75IA-E33€ 73,87€ 73,87
2Western Digital Red WD30EFRX, 3TB€ 128,74€ 257,48
1Fractal Design Node 304€ 74,30€ 74,30
1Corsair CMV8GX3M1A1333C9€ 46,01€ 46,01
1Seasonic G-Serie 360Watt€ 61,-€ 61,-
Bekijk collectie
Importeer producten
Totaal€ 564,11

Zoals je ziet neig ik naar de WD Red 3TB schijven, redenen: budget en goede reviews van deze schijven (plus ze zijn speciaal gemaakt voor een NAS, MARKETING!!! :P). De vragen die nu echter spelen zijn:

- Is het, vanwege op dit moment budgetaire redenen, slim om nu twee 3TB schijven te kopen en deze later uit te breiden met een x tal 4TB schijven (als die dingen wat goedkoper worden....)? Zitten er nog nadelen in het feit dat de schijven dan niet allemaal even groot zijn?
- ALS ik dit zo doe (dus twee schijven bij aankoop) kan ik dan al ZFSGuru draaien of moet ik dan beginnen met FreeBSD? Of misschien "gewoon" Windows 7/Windows Server (omdat ik daar ervaring mee heb...)?

Pfff, worden jullie al gek van me? :+

Verwijderd

Je kunt ZFSguru overal op installeren dus wat voor configuratie je draait is niet zo relevant. Je kunt altijd partities gebruiken om ZFSguru in een mirror te draaien (dit raad ik aan, sneller booten) en de rest van de ruimte te gebruiken voor de echte opslag.

WD Red is op zich prima; fysiek gelijk aan de WD Green. Het is daarbij wel raadzaam om TLER uit te schakelen. Mocht je schijfuitval hebben en je verliest je redundantie, dan is TLER opeens een killer voor bad sectors. In zo'n geval wil je liever dat de schijf blijft proberen de data uit te lezen dan dat ZFS gewoon je files ontoegankelijk maakt. Het feit dat WD Red al wel headparking heeft uitgeschakeld is wel een welkome feature; dat is juist zo irritant aan de green series.

Verder, je gaat nu voor Intel. Dat is prima. Bedenk echter wel dat je een minder zuinige NAS zult hebben zodra je een M1015 controller erbij moet prikken om uit te breiden. Dat MSI bordje heeft maar 4 SATA en dat maakt een optimale RAID-Z configuratie onmogelijk (of je moet 3-disk RAID-Z willen draaien). Dat AMD ASrock bordje was juist leuk als je gaat uitbreiden en dan geen M1015 controller nodig te hebben. Zuiniger en stukken goedkoper.

Later 4TB disks gebruiken is niet heel praktisch. Dat kan wel als je grote builds hebt en je begint met 10 disks van 3TB en pleurt er later 10 disks van 4TB bij. Dat kan prima. Maar met kleine builds is het minder praktisch om capaciteitsverschil te hebben. Wat natuurlijk wel kan is in een mirror; dus 2x 3TB waar je nu mee begint en later 2x 4TB. Maar de mirroring slurpt wel 50% overhead en dat is vaak minder wenselijk voor een thuis NAS.

  • FireSonus
  • Registratie: Maart 2010
  • Laatst online: 22-12 13:43
Ik had een heel verhaal getypt maar klikte per ongeluk alles weg...

Kwam in t kort op t volgende neer:
Ik twijfel nog een beetje om ZFSGuru te gebruiken, ik heb er nog geen goed beeld van en hun site maakt het allemaal ook niet echt aantrekkelijker (screenshots zijn bijv. outdated staat er boven....)

Straks ben ik weken bezig (heb alleen maar avond en weekend tijd) om sickbeard/sabznbd/couchpotato te installeren en zfsguru zelf te configureren, daar zie ik een beetje tegenop.

Met andere woorden, kan je me geruststellen dat ZFSguru de beste oplossing is door in t kort uit te leggen hoe t werkt? :P

Verwijderd

ZFSguru is simpelweg de makkelijkste ZFS oplossing. Makkelijker dan dat wordt het niet. Installeren van SABnzbd+ is een kwestie van een paar muisklikken. Dat is onder andere ZFS platforms wel anders met hele tutorials die je moet volgen en dan maar afwachten of alles ook echt werkt.

Maar je kunt het vrij gemakkelijk uitproberen. Download de .iso en installeer ZFSguru in een VirtualBox VM. Datzelfde kun je doen met andere ZFS platforms en zien hoe dat draait.

Bedenk ook dat je niet vast zit aan een platform. Als je later van ZFSguru over wilt naar FreeNAS of andere platforms, kan dat gewoon. Je behoudt daarbij je pool met alle data; je moet alleen opnieuw installeren.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Persoonlijk vind ik het services systeem van ZFSGuru niet echt fantastisch als het gaat om Sickbeard en de hele reut. Dat is onder Ubuntu toch echt makkelijker (LaSi installer).

Wat je kan doen (net als ik :) ) is een Ubuntu VM maken via VirtualBox en daar al je meuk in draaien.

Performance technisch is het leuker om SabNZBd native te draaien, maar kan in theorie natuurlijk ook gewoon in die Ubuntu VM.

Data delen via NFS of VirtualBox Shared folders en gaan met die banaan. :)

Even niets...


Verwijderd

Oke maar jij bent poweruser, hij is novice en mag allang blij zijn dat hij SAB kan combineren met een ZFS platform wat hij kan bedienen. Dus ZFSguru is denk ik voor hem juist uitstekend. Supereenvoudige ZFS management en SAB kunnen installeren met twee muisklikken; dat lijkt mij in elk geval een goede manier om kennis te maken met ZFS. Gelijk iemand in het diepe gooien is meestal niet de juiste manier om iemand te leren zwemmen. :P

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Klopt, maar VirtualBox is nou niet zo moeilijk ;)

Even niets...


  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
Maar was performance tussen host en vm dan niet bagger nog?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Jup, daarom zei ik al, vanwege performance redenen wil je SabNZBd op de host draaien.

Dat SickBeard, CouchPotato, Headphones, etc niet zoveel netwerk power hebben is jammer, maar niet onoverkomelijk... Transmission zou ik dan ook op de host draaien (maar dat gebruik ik amper).

Even niets...


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Ik heb SabNZBd, SickBeard en CouchPotato op ZFSguru ook gewoon geinstalleerd met de LaSi installer. Moet alleen even de commandline gebruiken, maar dat is in een Ubuntu VM hetzelfde. Draait al maanden prima zo.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Heeft LaSi het gefixt ja? Dat is wel interresant! Ik dacht dat het met de Share user nog niet helemaal 100% goed ging...

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Wie kan me vertellen waar het losse ijzerwerk dat bij een norco 4220 wordt geleverd voor dient.
De 2 grote ijzeren frames lijken me voor andere voedingen te zijn.

Maar al die kleine ijzeren strips ?

Op de norco sits staat de volgende afbeelding:
http://www.norcotek.com/product_images/flyer/rpc4220_8.jpg

Ik heb niet de 2 rechthoekige plaatsjes rechts onder, maar wel een serie kleinere stripjes zoals er 1 op de foto te zien is. Wel zijn het 3 verschillende.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
Verwijderd schreef op woensdag 10 april 2013 @ 13:11:
Gelijk iemand in het diepe gooien is meestal niet de juiste manier om iemand te leren zwemmen. :P
Sorry hoor, maar leren zwemmen doe je toch echt in een diep zwembad, niet in een badje van 10 cm diep :')

@FireSonus: gewoon ZFSguru uitproberen. Is makkelijk en werkt prima voor als je weinig tijd hebt.

offtopic:
Ik snap eigenlijk nooit zo goed waarom aan noobs die zeggen dat ze Linux/BSD willen leren noob-producten (met alle respect) als Ubuntu/(kant-en-klare BSD met webgui) geadviseerd worden; dan leren ze alleen werken met de voorkant als Unity, maar echt Linux/BSD leer je daar niet van en na een jaar zijn ze nog steeds een noob. Maar ja, het is wat je wilt hè; of je kiest eenvoud en je blijft een noobje ;) of je kiest om echt Linux of een BSD te leren door in de console te duiken met Arch, Gentoo, FreeBSD, of Debian o.i.d. Het kost tijd en kan lastig zijn, maar dat is wat leren is hè :p

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
@Onox,
Maar ook niet in een zwembad van 3 meter diep ;)

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar dan is de motivatie wel groter om het onmiddellijk te leren :P

  • ykaenS
  • Registratie: November 2007
  • Laatst online: 08-12 19:51
Na het doorlezen van dit topic, het grote zuinige server topic en het grote ZFS topic heb ik de volgende configuratie samengesteld.

#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 36,95€ 36,95
1ASRock B75 Pro3-M€ 56,90€ 56,90
6Seagate Barracuda 7200.14 ST2000DM001, 2TB€ 78,95€ 473,70
1Fractal Design Arc Midi Tower€ 74,90€ 74,90
1Startech 2 Port USB Motherboard Header Adapter€ 8,72€ 8,72
1Corsair CMV16GX3M2A1333C9€ 91,90€ 91,90
1Seasonic G-Serie 360Watt€ 61,-€ 61,-
1Crucial m4 CT064M4SSD2 64GB€ 65,-€ 65,-
1Intel 320 40GB€ 75,89€ 75,89
Bekijk collectie
Importeer producten
Totaal€ 944,96


Aangezien het systeem aardig aan de prijs is heb ik toch nog enkele vragen.

Ik zal het systeem voornamelijk gaan gebruiken als opslagbak en media streamer naar een WD TV Live HD. De voor mij echt belangrijke data wil ik tevens backuppen naar een externe harde schijf die ik ook aan dit systeem wil hangen en op DVD branden.

Zijn er brandprogramma`s die vanuit ZFSguru of FreeNAS een DVD kunnen branden of kan ik deze data beter via m`n laptop branden?

Is het te rechtvaardigen om een zuiniger Intel bord aan te schaffen, zoals mux die adviseert, met daarbij een M1015 om toch genoeg SATA aansluitingen te hebben, of ga je die meerprijs never nooit terugverdienen aan stroomkosten?

Daar het systeem hooguit 3 uurtjes per dag actief is, is het dan noodzakelijk om 2 SSD`s in te bouwen voor ZIL en L2ARC of kun je die dan net zo goed achterwege laten of alleen eentje voor of ZIL of L2ARC gebruiken? Wat raden jullie aan?

Alvast bedankt voor jullie reacties.

  • analog_
  • Registratie: Januari 2004
  • Niet online
Neem een arc mini (6 trays, goedkoper), gooi de ssds weg, dat merk je toch niet als thuisgebruiker en neem mux zijn moederbord. Ik gok dat je dan 200euro bespaart waar je anders weinig van zou merken. Je kan altijd later ssds toevoegen als het niet snel genoeg is (dan kan je het ook even uittesten of het uberhaupt de moeite waard is met een rondslingerende ssd).

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
Waarom kies je nog altijd voor 2TB harde schijven? Kies je niet beter voor 4TB disks? Vanuit die optiek zou je perfect voor een zuiniger bordje kunnen kiezen omdat de nood aan een groter aantal SATA poorten wegvalt, je moet dan nu ook geen investering doen in een M1015.

Om dezelfde opslagcapaciteit (aangenomen dat je met de 6 x 2TB in RAIDZ2 ging, wat zowieso aan te raden is met 6 spindles) met 3 x 4TB spindles (weliswaar in RAIDZ ipv RAIDZ2) te verkrijgen ben je in CAPEX ongeveer 10 EUR meer kwijt, dat haal je er onmiddellijk uit door het zuiniger verbruik (=kleinere OPEX dus). Nu, bij jou zou het "er uit halen" van die 10 EUR iets langer duren omdat je het systeem geen 24/7 gaat laten aanstaan. Maar dan nog, met 3h per dag (even buikgevoel) heb je dat er ook op minder als een jaar er terug uit...


Je duurtijd qua gebruik per dag staat los van het al dan niet kiezen voor een of meerdere SSD's als ZIL of L2ARC. Als het dingetje echt alleen maar als media serverende NAS dient dan kan dat prima zonder SSD. Voor veel kleine files was dacht ik een ZIL dan wel weer fijn, CiPHER/FireDrunk?

[ Voor 16% gewijzigd door HyperBart op 11-04-2013 01:14 ]


Verwijderd

Dit geheugen is beter: pricewatch: Crucial Ballistix Sport BLS2C8G3D1609ES2LX0CEU

Overweeg 3TB schijven ipv 2TB. 4TB is nog een andere klasse met 4 platters. Persoonlijk beschouw ik een hardeschijf pas volwassen als de plattercapaciteit is gestegen zodat die capaciteit met maximaal 3 platters kan worden behaald. Daarboven wordt het een 'monsterschijf' met hoger stroomverbruik en mogelijk ook meer kans op problemen. Minder platters = beter is hier de algemene strekking. Echt goede gegevens heb ik niet van, maar het concept hoe minder mechanische componenten des te beter gaat denk ik in veel gevallen wel op.

Twee aparte SSDs voor L2ARC en ZIL/SLOG is onzinnig. Dat kan prima op dezelfde SSD. Als je twee SSDs wilt, gebruik ze dan in RAID0 en in mirror, ook voor je operating system. Dat kan allemaal omdat je partities kunt aanmaken. Bedenk dat je je 64GB SSD absoluut niet volledig moet gebruiken; gebruik max 40GB van de 64GB zichtbare ruimte. In plaats van de Intel 320 zou je de nieuwe Crucial M500 120GB kunnen overwegen. Die is nog wel erg nieuw, maar heeft wel net als de Intel 320 beveiliging voor stroomuitval en zou dus geschikt moeten zijn voor ZIL/SLOG.
Daar het systeem hooguit 3 uurtjes per dag actief is
Bedoel je dat het systeem uitgeschakeld gaat worden? Zo ja, dan is L2ARC niet nuttig omdat die reset elke keer dat je reboot. Alleen voor 24/7 NAS is L2ARC nuttig. Dus als je systeem niet 24/7 gaat draaien zou ik de SSDs in zijn geheel afschrijven en het lekker zonder doen.

ASRock B75 Pro3-M is een prima zuinig bord als je een beetje met voltages wilt spelen en vooral alle onnodige meuk uitschakelt. Ik zelf heb tot 8,3 watt ultrakaal gehaald aan het stopcontact met PicoPSU. Met een normale voeding zit je tussen 15 en 20 watt kaal. Dat is ook nog steeds prima. Veel zuiniger gaan andere oplossingen niet worden, tenzij je zoals mux aan hardwaremods gaat stoeien.

ZIL/SLOG heb je als thuisgebruiker niet nodig; L2ARC is wel leuk. Als je dan toch een veilige SSD koopt kun je evengoed die SSD ook voor SLOG gebruiken. Gratis toetje denk ik dan. Normaliter betekent dat maar heel af en toe wat kleine writes. Daar hoef je echt niet bang voor te zijn dat dat gaat slijten of dat de prestaties van de SSD gaat bijten met L2ARC. Je kunt een SSD prima dingen tegelijk laten doen en voor thuisgebruik zal SLOG echt 1% van de writes zijn van wat L2ARC gaat schrijven naar je SSD.

Branden kan opzich wel in ZFSguru met Brasero. Maar ik zou dat lekker doen op je Windows/Linux desktop.

Die goedkope CPU is wel een aanrader; die kende ik nog niet. Betere deal nog dan de G2020 vind ik. Dus die staat nu in mijn wenslijst. :)

[ Voor 6% gewijzigd door Verwijderd op 11-04-2013 03:43 ]


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Verwijderd schreef op donderdag 11 april 2013 @ 03:39:

Bedoel je dat het systeem uitgeschakeld gaat worden? Zo ja, dan is L2ARC niet nuttig omdat die reset elke keer dat je reboot. Alleen voor 24/7 NAS is L2ARC nuttig. Dus als je systeem niet 24/7 gaat draaien zou ik de SSDs in zijn geheel afschrijven en het lekker zonder doen.


ZIL/SLOG heb je als thuisgebruiker niet nodig; L2ARC is wel leuk. Als je dan toch een veilige SSD koopt kun je evengoed die SSD ook voor SLOG gebruiken. Gratis toetje denk ik dan. Normaliter betekent dat maar heel af en toe wat kleine writes. Daar hoef je echt niet bang voor te zijn dat dat gaat slijten of dat de prestaties van de SSD gaat bijten met L2ARC. Je kunt een SSD prima dingen tegelijk laten doen en voor thuisgebruik zal SLOG echt 1% van de writes zijn van wat L2ARC gaat schrijven naar je SSD.
Hmm, dan kan ik ook mijn huidige opstelling wel strippen van SSD"s waarschijnlijk.
Mijn server draait als ik er data naar toe copieer, en dan gaat hij uit totdat ik een film kijken wil, of er meer data naar toe wil schrijven.
Ik had al twijfels bij de ZIL, maar de L2ARC lijkt ook minder zinvol te zijn dan.

Ik hoopte met name dat de film informatie uit de yadis folder gecached zou worden. Dat is iets van 5 gb aan data, en als mijn mediaspeler door de lijst bladerd haalt hij elke keer 2 of 3 rijen van 4 bitmaps op.
Het zou wel fijn zijn als dat werkt. Als het echter bij elke reboot gecleared wordt helpt het alleen bij terugscrollen door de lijst nog wat wellicht.

Even wat zoeken en in een blog vond ik wel een aardige oplossing wellicht:


A couple of things about the l2arc: it doesn't retain the cache through reboots, and less frequently accessed data will "fall off" the cache if it becomes full. This means that, if you want to consistently have some subset of your data cached in the l2arc, you need to read it all in regularly. I do this with a daily cron job:


36 6 * * * sh -c 'tar -cvf - /vault/games/RIFT > /dev/null 2> /dev/null'

Doing so dramatically improves read performance for the cached directories, and it ensures that they will always be in the cache (even when I haven't played RIFT for several days).



zou ik zoiets ook met de Yadis directory kunnen doen als het systeem start ?

Moet er dan ook nog iets wijzigen aan de fill rate van de L2ARC ? (standaard 8 MB/sec)
l2arc_write_max / l2arc_write_boost

vfs.zfs.l2arc_write_max=83886080
vfs.zfs.l2arc_feed_again=0
# feed 80MB per second

[ Voor 24% gewijzigd door jacovn op 11-04-2013 08:50 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

In de volgende ZFSguru kun je instellen dat bij elke boot de metadata gecached moet worden, die komt in RAM en in L2ARC dan. Zorgt wel voor iets langere I/O vlak na het opstarten totdat dit is voltooid.

Verder wordt ook gewerkt aan persistent L2ARC wat ervoor zorgt dat na een reboot de L2ARC devices worden gescanned en gekeken welke data hiervan bruikbaar is (het kan zomaar stale zijn). Dan reset hij dus niet maar leest hij intensief van de L2ARC en valideert hij alle bestaande caches. Maar dit is nu nog niet functioneel. Maar volgens deze pagina zou het al wel feature-complete zijn:
https://www.illumos.org/issues/3525

Waarschijnlijk kun je dit over een half jaartje wel gebruiken onder ZFSguru met FreeBSD 10 vermoed ik. Maar dat is maar een wild guess.

  • CrazyTurk
  • Registratie: December 2009
  • Laatst online: 05-12 12:27
Heb even paar pagina's topic gelezen en zal even posten waar ik mee bezig ben.

Ik wou al een tijdje een nas hebben dus heb gekeken naar verschillende mogelijkheden. Me oog viel op de hp microserver

#ProductPrijsSubtotaal
1HP Proliant Microserver N36L€ 180,29€ 180,29
Bekijk collectie
Importeer producten
Totaal€ 180.29


Maarja vind het altijd leuk en beter om zelf iets te bouwen. Mijn doel is een simpele(budget) en stille nas. Hij zal niet elke dag zwaar belast worden maar af en toe dingen heen en weer kopiëren en soms een torrentje downloaden.

Dit is wat ik ongeveer wil bestellen

#ProductPrijsSubtotaal
1Asus C60M1-I€ 62,90€ 62,90
1Fractal Design Core 1000€ 28,19€ 28,19
1Kingston ValueRAM KVR1333D3S8N9/2G€ 12,90€ 12,90
1be quiet! System Power 7 300W€ 30,53€ 30,53
Bekijk collectie
Importeer producten
Totaal€ 134,52


Tot nu toe heb ik alvast de moederbord besteld omdat hij 12 dagen levertijd had. Hij heeft gbit lan, fanloos, 6 sata 600 poorten, onboard cpu en hij is zuinig. Ideaal dus

- De ram heb ik geen flauw idee. Heb maar random iets gekozen. Mocht iemand een bettere suggestie hebben hoor ik het

- De voeding moet stil zijn en niet veel eisend. Dus ik dacht aan de be quiet! Power 7 300W

- En de kast. Me oog ging uit naar de Fractal Design Core 1000. Hij is klein en goedkoop en past mini itx in. Minpunt is wel dat er maar 2 hdd gemonteerd kunnen worden. Maar aangezien ik niet een dvd drive in ga stoppen kan er wel nog 2 bovenin. Toch twijfel ik over dit kast

- Hardeschijven ben ik nog niet uit. Er komen ongeveer 3 of 4 schijven in. Ben er nog niet uit. Waarschijnlijk Western Digital Red schijven

- En dan de OS. Hier zit ik vast. Ik heb geen idee wat ik erop zal draaien. Ik dacht aan WHS 2011 of toch Freenas. Maar ik heb bij een review gelezen dat de netwerk dan instabiel wordt productreview: Asus C60M1-I review door kingcharles

Verwijderd

Ga dat laatste eerst maar beslissen. WHS of ZFS is toch wel het tegenovergestelde. Als je voor ZFS gaat (wat ik je natuurlijk aanraad; al het andere is inherent onveilig) moet je er geen 2 gigabyte RAM in stoppen. Suggestie voor beter RAM staat een paar posts terug (Verwijderd in "Het grote DIY RAID NAS topic deel 3").

Realtek is verder prima. FreeNAS draait nog op oudere FreeBSD 8.3; NAS4Free en ZFSguru op FreeBSD 9. Ik gebruik veelvuldig Realtek en dat werkt prima, alleen oudere BSD releases gaan wel soms over de zeik.

  • VorCha
  • Registratie: November 2004
  • Laatst online: 05-10 21:36
Voor iets meer dan 20 euro heb je een intel desktopkaart. Ik heb het zelfde probleem met freenas gehad en de onboard nic van een ander moederboard.

Verwijderd

Ja maar toch wel zonde om daar je enige PCIe poort aan kwijt te zijn, alleen omdat je een oudere versie van BSD draait. Maar als je niet anders kunt is dat inderdaad nog wel een oplossing wellicht.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
@CiPHER, mijn 4TB 7200RPM Seagate schijven doen anders maar 4.8W ofzo hoor... Is ongeveer hetzelfde als een F4EG...

Even niets...


  • VorCha
  • Registratie: November 2004
  • Laatst online: 05-10 21:36
Verwijderd schreef op donderdag 11 april 2013 @ 10:17:
Ja maar toch wel zonde om daar je enige PCIe poort aan kwijt te zijn, alleen omdat je een oudere versie van BSD draait. Maar als je niet anders kunt is dat inderdaad nog wel een oplossing wellicht.
Yep heb je helemaal gelijk in

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
^^ dat dus. Voor het verbruik is 4TB gewoon beter... Dat van die platters hecht ik eigenlijk niet ZO veel belang aan... Maar ik snap je punt wel, maar ik maak me er persoonlijk absoluut geen zorgen om...

  • StygMa
  • Registratie: Februari 2011
  • Laatst online: 21-12 11:19
Nu we het toch over 4tb schijven hebben, interessant om te wachten denken jullie op WD green 4tb (Q3) / 5tb red (Q4)?
Zullen ze rond die tijd ook goedkoper zijn dan de huidige 4tb seagates? Hoop door concurrentie dat prijs per GB wel wat omlaag gaat.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
CrazyTurk schreef op donderdag 11 april 2013 @ 09:07:
Tot nu toe heb ik alvast de moederbord besteld omdat hij 12 dagen levertijd had. Hij heeft gbit lan, fanloos, 6 sata 600 poorten, onboard cpu en hij is zuinig. Ideaal dus
minder ideaal is dat de 12 dagen levertijd waarschijnlijk betekend dat het moederbord nog steeds niet leverbaar is. Enige tijd terug had ik dit moederbord besteld en heb het na 2 weken geannuleerd...

  • ykaenS
  • Registratie: November 2007
  • Laatst online: 08-12 19:51
HyperBart schreef op donderdag 11 april 2013 @ 01:11:
Waarom kies je nog altijd voor 2TB harde schijven? Kies je niet beter voor 4TB disks? Vanuit die optiek zou je perfect voor een zuiniger bordje kunnen kiezen omdat de nood aan een groter aantal SATA poorten wegvalt, je moet dan nu ook geen investering doen in een M1015.
Dit is meer een prijsbewuste afweging. Het gaat me niet zozeer om de opslagcapaciteit, maar meer om het aantal schijven.
aangenomen dat je met de 6 x 2TB in RAIDZ2 ging
Dat was wel de bedoeling, om zodoende tweevoudige parity te hebben.
CiPHER schreef op donderdag 11 april 2013 @ 03:39

Bedoel je dat het systeem uitgeschakeld gaat worden?
Nee, het systeem gaat niet uitgeschakeld worden, maar zal hoogstens 3 uur per dag actief bezig zijn, de rest van de tijd zal het systeem idle draaien, met de disks in spindown.

Is het dan misschien toch aan te raden om een SSD voor ZIL / L2ARC te gebruiken?

[ Voor 4% gewijzigd door ykaenS op 11-04-2013 11:35 ]


Verwijderd

L2ARC is leuk, SLOG (=ZIL niet op je pool maar op een dedicated device) heb je eigenlijk niet nodig tenzij voor ESXi NFS mounts enzo. L2ARC is wel leuk en kan subtiel merkbaar zijn bij algemeen gebruik en veel duidelijker merkbaar als je je gamecollectie of virtual machines op je pool zet.

Je kunt ook nu de SSD nog even laten en later pas toevoegen, dus je hoeft die niet persé gelijk te kopen.

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
ykaenS schreef op donderdag 11 april 2013 @ 11:25:
[...]


Dit is meer een prijsbewuste afweging. Het gaat me niet zozeer om de opslagcapaciteit, maar meer om het aantal schijven.


[...]


Dat was wel de bedoeling, om zodoende tweevoudige parity te hebben.


[...]


Nee, het systeem gaat niet uitgeschakeld worden, maar zal hoogstens 3 uur per dag actief bezig zijn, de rest van de tijd zal het systeem idle draaien, met de disks in spindown.

Is het dan misschien toch aan te raden om een SSD voor ZIL / L2ARC te gebruiken?
Mja als je prijsbewust wilt gaan dan snap ik nog altijd niet dat je voor 2TB spindles kiest, het verschil is 15 EUR als je dezelfde opslagcapaciteit wilt en dat is er zo terug uit, zelfs met maar 3h per dag gebruik... En ik weet het, opslagcapaciteit is niet zo belangrijk, je geeft aan dat je meer baat hebt bij meer spindles, ok dat begrijp ik, maar ik vind het kosten tegen opslag afgezet niet zo een slimme zet...

[ Voor 4% gewijzigd door HyperBart op 11-04-2013 16:53 ]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zeker niet omdat daarop uitbreiden sowieso duurder is. Stel je neemt nu 6x 2TB ipv. 3x 4TB. Als je over een jaar of twee jaar wilt uitbreiden, kosten de 2TB schijven misschien 60-70€, terwijl de 4TB's vermoedelijk aan 90-100€ over de toonbank gaan.

Als je een moederbord neemt met 6 SATA-poorten kun je die drie 4TB schijven en een SSD gebruiken en naderhand nog uitbreiden naar 5x of zelfs 6x 4TB zou je een moederbord met mSATA kiezen. Terwijl je bij de 6x 2TB ofwel moet overstappen naar 4TB schijven ofwel naar een extra SATA controller. Ik volg de meningen hier 4TB-schijven een betere keuze is.

Je kan met 6 schijven wel praten over dubbele parity maar met dubbel zoveel schijven heb je ook dubbel zoveel kans op een defecte drive.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Je kan ZFS toch niet met 2 schijven uitbreiden, dus dat argument is juist niet meer geldig. Dat was vroeger inderdaad wel zo, dan plaatste je lekker 1 schijfje bij elke keer dat je array vol was, even rebuilden en klaar, gaan met die banaan.

Maar dat kan ZFS niet ;)

Even niets...


  • analog_
  • Registratie: Januari 2004
  • Niet online
Volgende week server van maat upgraden, 5x4TB, die nieuwe van seagate. Ben nog niet helemaal uit wat we erop gaan draaien. Het ding moet niet meer doen files serveren (echt niet meer) en er zal waarschijnlijk de komende paar jaar niks aan veranderd worden dus webgui/cli maakt weinig uit, set and forget.

Hoe meer ik erover nadenk hoe minder argumenten ik kan vinden om een bepaald OS te kiezen, enige relevante argument is dat ik geen BSD ervaring heb en er op dit moment geen tijd voor heb (mocht er iets mislopen). Vanuit een 'just works' principe loer ik een beetje naar Nexentastor, freenas of simpelweg OI. Iemand een argument voor iets?

  • fonsoy
  • Registratie: Juli 2009
  • Laatst online: 00:14
Ik vond ZFSguru zeer eenvoudig om op te zetten en beheren. Met name omdat je alléén een fileserver wil, en dus niet allerlei (windows?) toepassingen gebruikt op het apparaat.

Ik ben een totale unix n00b. Het heeft me een half uur gekost om het apparaat een vast IP te geven :'). Dat was dezelfde tijd die ik nodig had om alles wat ik in moest stellen op ZFSguru.

Daarbovenop is ZFS veel sneller of goedkoper, maar sowieso veiliger. Hoe minder erop zit, hoe minder kapot kan gaan.

Lenovo W520 - i7 2720QM - 8GB DDR3 1333Mhz - 1080p - Nvidia 1000M - 9 cell accu


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FireDrunk schreef op donderdag 11 april 2013 @ 18:11:
Je kan ZFS toch niet met 2 schijven uitbreiden, dus dat argument is juist niet meer geldig. Dat was vroeger inderdaad wel zo, dan plaatste je lekker 1 schijfje bij elke keer dat je array vol was, even rebuilden en klaar, gaan met die banaan.

Maar dat kan ZFS niet ;)
Was dat niet iets met overcommitting ? Had zoiets gelezen dacht ik.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Dus....wie wou er graag wat meer SATA poorten hebben? HighPoint introduceert 40-poorts SATA-600 uitbreidingskaart

De CSL/OT kroeg !


Verwijderd

Mja, wel veel poorten. Wel erg beperkte bandbreedte; maar dat zal voor hardeschijven niet zo'n groot probleem zijn denk ik. Maar HighPoint heeft altijd twijfelachtige SoCs gehad en drivers die allerlei beperkingen hebben en enorm proprietary zijn (binary blobs). Dus ik ben sceptisch over HighPoint. Ik vraag me bijvoorbeeld af of dit wel een échte HBA is. Zo ben ik benieuwd wat voor chip er onder de heatsink zit.

Dat gezegd, de heatsink verraadt wel dat deze controller heel zuinig moet zijn relatief aan de hoeveelheid aansluitingen. Alleen de prijs is wel erg hoog zodat meerdere IBM M1015 controllers vooralsnog stukken goedkoper is. Vooral interessant voor mensen met weinig PCI-express slots dus.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Een M1015 kost 125,- (retail) en die highpoint $740 (ongeveer 550 euro).

Dus ze ontlopen elkaar niet echt qua prijs. Het verhaal dat spullen in euro even veel kosten als in dollars geld meestal niet voor enterprise hardware... Die prijs die je daar ziet is een list price denk ik zo... Dat word vast wel wat goedkoper met de tijd... Bovendien verbruikt dit ding zeer waarschijnlijk vele malen minder dan 5 M1015's (anders had het ding wel een grotere heatsink gehad...)

Dus als je dat geld ook nog meerekent, kan het nog wel eens wat schelen.

Desalniettemin staat Highpoint niet echt bekend om zijn goede drivers :)

Even niets...


Verwijderd

Vooralsnog 819 euro als eerste prijs op Heise: http://www.heise.de/preisvergleich/248912443

Maar zodra hij echt leverbaar is zal dat wel gaan zakken. Maar of dat tot 550 euro zal zijn?

Zuinigheid is inderdaad een voordeel; of liever gezegd die IBM M1015 is behoorlijk onzuinig eigenlijk. Zeker als je vergelijkt met de 1W wat een chipset SATA controller slurpt. En Intel controller met DIPM zelfs helemaal 0W!

Drivers zijn inderdaad het kwetsbare punt bij HighPoint. Dat gezegd hebben ze vaak wel ruimte ondersteuning voor diverse platforms, waaronder FreeBSD. Maar ik hou niet zo van vendor proprietary drivers; open source drivers in FreeBSD zelf heeft toch echt de voorkeur.

  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Verwijderd schreef op vrijdag 12 april 2013 @ 10:45:
Drivers zijn inderdaad het kwetsbare punt bij HighPoint. Dat gezegd hebben ze vaak wel ruimte ondersteuning voor diverse platforms, waaronder FreeBSD. Maar ik hou niet zo van vendor proprietary drivers; open source drivers in FreeBSD zelf heeft toch echt de voorkeur.
Ondersteuning en Highpoint is een slechte combi heb ik ervaren. Ooit een Highpoint kaartje gehad. Daar was een driver beschikbaar voor een specifieke (oude!) kernelversie. Updaten deden ze niet, en die driver was nog brak ook. Via support gevraagt of er een nieuwe versie zou komen, guess what..

Voor mij geen kaarten meer die niet direct door de (linux) kernel worden ondersteunt en zeker geen Highpoint meer

iRacing Profiel


Verwijderd

Mee eens. Dat gezegd, niet iedere fabrikant geeft iets om FreeBSD-ondersteuning en andere Unix-platforms. Highpoint is ook erg budget/value achtig. LSI is veel beter en LSI heeft ook meegewerkt aan de FreeBSD mps/mpt driver en die is gewoon open source zoals het hoort.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Je kunt de kaart toch ook in legacy mode draaien? Ofwel, kaart in je systeem, schijven eraan en niets instellen. Het voordeel is dat de schijven niet geïnitialiseerd worden en je dus niet vastzit aan Highpoint. Nu weet ik niet zeker of er dan nog allerlei fancy drivers stiekem op de achtergrond toch meeliepen.
Ik moet hierbij zeggen dat ik dit schrijf op basis van wat ik jaren geleden dacht te doen met een simpelere kaart. En als het daadwerkelijk klopt dan kan het nog altijd zijn dat het met die mini-SAS poorten allemaal net anders loopt.

[ Voor 10% gewijzigd door Dadona op 12-04-2013 11:38 ]

De CSL/OT kroeg !


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Het ding draait op een Marvell 88SE9485. En die doet geen AHCI volgens mij...
Die chip doet zelf al 5.5W, en dan moeten daar nog een aantal expanders bij, dus ik weet nog niet zo goed of het ding wel echt zuinig gaat zijn...

11W zegt het datasheet.

[ Voor 54% gewijzigd door FireDrunk op 12-04-2013 11:55 ]

Even niets...


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Als je alleen voor die kaart al € 7/800 moet neerleggen, waarbij je dan ook nog de rest moet kopen.
Is het dan interessanter om bijv een supermicro chassis te kopen met backplane en alles.

Dit is een 16 drive voorbeeldje... http://www.serverdirect.e...e1r800-silver-p-2185.html voor ruim 800 ex verwacht ik.

lol marvel zegt 5,5W voor alleen de controller.
highpoint in zijn handleiding max 4W 3,3V en 1W 12V buiten het tenenkrommende feit dat je 40 schijven op een 8 poorts controller aansluit, niet echt realistisch dit.

freebsd driver is er volgens de website en de minisas connectors zijn gewoon standaard.

[ Voor 30% gewijzigd door Mafketel op 12-04-2013 18:47 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Zo'n supermicro kast is leuk, maar dan heb je nog steeds een controller nodig hoor?

Even niets...


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Ja een m1015 of een van die omgekeerde kaartjes. En een moederbord en een cpu en geheugen etc etc.
Het punt was even dat je op een andere manier "beter" aan je expanders kunt komen.

Op zo'n "goedkope" single backplane zit al een expander en het is de bedoeling die met 1 minisas(4lanes) aan te sluiten, en dan de volgende backplane door te lussen met de andere minisas connector.
Ik weet nog steeds niet of het mogelijk is om die doorlus poort ook als "voeding" te gebruiken zodat je 8 lanes aan 16 schijven aansluit.
Anyway 16 schijven aan 4 lanes is minder overboekt als 8 lanes over 40 schijven dus dat is ook al een voordeel.

  • analog_
  • Registratie: Januari 2004
  • Niet online
8*600MB/sec = 4.8GB/sec wat dus meer dan 100MB/sec per disk is. Die 4.8GB/sec aan transfer moet ook ergens vandaan. Lokaal is tricky want dan heb je al twee volumes die 4.8GB/sec kunnen vullen nodig, gebruiker Q bv. die met tig disks nog steeds maar 1.1GB/sec haalt of van buitenaf via IB/FC maar de snelste interconnect is nu 40Gbit/sec dus ook niet genoeg.

Moraal van het verhaal, tenzij je meerdere van dit soort geintjes in één machine stopt of begint te combineren met SSDs ga je never-ever last hebben van de beperkte bandbreedte.

[ Voor 70% gewijzigd door analog_ op 13-04-2013 19:15 ]


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Ik begrijp even niet helemaal wat je wil zeggen analog.

Je hebt 8 kanalen over 40 disks + 4 expanders.
Hoe dat intern is aangesloten is onbekend.

Vergeet niet dat sas niet een packet based typologie heeft maar een line switched typologie.
Dus zoals de telefoon lijnen werken.

Het allemaal op een hoop gooien van bandbreedte is dus niet mogelijk.

Overigens is sas wel een stuk doordachter dan sata op dit vlak.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Maar is SAS niet zo slim, dat het eerst een commando verstuurt, de link switcht naar een andere disk, en pas weer terug switcht als het commando klaar is?

Of is het echt switchen, commando geven, wachten op resultaat, teruggeven, en nieuwe commando aannemen van host?

Want dat maakt het inderdaad een stuk trager...

Even niets...


  • analog_
  • Registratie: Januari 2004
  • Niet online
Het gaat erom dat 4800MB/sec meer dan genoeg bandbreedte is. Als je er iets zinnigs mee wilt doen dus niet data kopieren naar hetzelfde volume. Die data moet ergens vandaan komen of naar toe gaan.

Er zijn drie opties: data wordt gemaakt/gelezen binnen dezelfde machine maar ik ken weinig CPUs/software die 4800MB/sec aan zinnige data kunnen produceren of kunnen inlezen. Dan moet het dus komen vanaf een andere array, wat met de huidige conventionele disks 4800/150MB/sec/disk is een 32 disk jbod minimum betekend. Dat betekend dat je dus 2*32disk jbod moet hebben om één highpoint pci-e interface op te vullen. Als je geld hebt voor minimum 64 disk case (tenzij zelfbouw) heb je dat ook voor betere kaarten.

De laatste optie is dat je 4800MB/sec van buiten komt. De snelste interconnect doet maar 40Gb/sec (infiniband) dus dat is genoeg om je highpoint op te vullen. Als je geld hebt voor 40Gbit infiniband kaarten, heb je vast ook genoeg geld voor non-highpoint hardware.

Dit verhaal gaat natuurlijk niet op met SSDs, maar als je 40 SSDs kan kopen en wilt aansluiten kan je ook betere controllers dan Highpoint kopen.

Moraal van het verhaal, voor de doelgroep (mensen zonder 40Gbit IB of bergen SSDs) is dit meer dan genoeg.

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ik wil iedereen ook even herinneren dat je coole features van ZFS ook in linux kan krijgen via alternatieven (lees: niet BTRFS). bcache/flashcache projecten voorzien cache functionaliteit om je SSD te gebruiken als buffer voor je conventionele disk volume. Als je dit combineert met LVM2 en eacls blijft er nog voornamelijk compressie en de onveiligheid over in vergelijking met ZFS. Die onzekerheid zou je kunnen mitigeren met een HA oplossing (GlusterFS?) en het zou mij raar lijken als je geen compressie kan toepassen, mogelijk dat dat in gpg volumes zit (ZFS v3x: encryptie) want traditioneel is compressie dan encryptie efficiënter dan uncompressed encryptie.

Iemand slachtoffer om dit uit te proberen? cijfers & linkjes.

[ Voor 40% gewijzigd door analog_ op 17-04-2013 02:40 ]


  • BlauwKeut
  • Registratie: Juni 2011
  • Laatst online: 04-06 21:29
Ik wou een dezer de hardware gaan aanschaffen voor de nieuwe NAS. Ik ben echter nog aan het twijfelen over welke diskconfiguratie het beste is, gelet op hoeveelheid opslag en kostprijs.

De disks komen in RAIDz2 (dus 2 disks parity).

Ik heb dit tabelletje (prijzen van Azerty een paar dagen geleden, exBTW) in elkaar geflanst, hoop dat het wat duidelijk is... Net TB is ook zonder overhead gerekend (hoeveel % was dat weer?).

2 TB3 TB4 TBDisk TB
69,3492,48171,99€ / disk
# disks
Net TB6 disks81216
10 disks162432
Totale prijs6 disks416,04554,881031,94
10 disks693,40924,801719,90
€ / TB6 disks52,0146,2464,50
10 disks43,3438,5353,75


Gelet op de prijs/TB + hoeveelheid opslag is 10 x 2 TB het interessantste. Of moet ik toch voor 3TB disks gaan, maar dan ben ik budgettair gezien gelimiteerd tot 6 disks (4 TB disks had ik er vooral bijgezet uit interesse).

Wat is de beste optie in jullie ogen?

Edit: dit is trouwens het winkelwagentje tot nu toe behalve de disks. Geheugen en M1015's heb ik ook al. Is dit wat?

#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 36,90€ 36,90
1MSI Z77MA-G45€ 88,-€ 88,-
1Sharkoon T9 Economy€ 45,99€ 45,99
1Arctic Cooling Alpine 11€ 8,35€ 8,35
1Arctic Cooling F12, 120mm€ 4,70€ 4,70
1Seasonic G-Serie 450Watt€ 75,02€ 75,02
1Samsung 840 series SSD 120GB€ 83,95€ 83,95
Bekijk collectie
Importeer producten
Totaal€ 342,91

[ Voor 44% gewijzigd door BlauwKeut op 17-04-2013 16:46 ]


  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 22-12 14:37
BlauwKeut schreef op woensdag 17 april 2013 @ 16:01:
Ik wou een dezer de hardware gaan aanschaffen voor de nieuwe NAS. Ik ben echter nog aan het twijfelen over welke diskconfiguratie het beste is, gelet op hoeveelheid opslag en kostprijs.
Gelet op de prijs/TB + hoeveelheid opslag is 10 x 2 TB het interessantste. Of moet ik toch voor 3TB disks gaan, maar dan ben ik budgettair gezien gelimiteerd tot 6 disks (4 TB disks had ik er vooral bijgezet uit interesse).

Wat is de beste optie in jullie ogen?
Ik zou voor de 6x3TB gaan, 6 disks is nog onboard te regelen, met 10 disks heb je sowieso een controller nodig. Ik zie dat je een moederbord met 4x SATA-300, 2x SATA-600 hebt. Dan heb je sowieso al 1 poort tekort als je een OS disk wilt hebben, dus een moederbord met 7 sata poorten lijkt me een aanrader. Alleen dat al zou het prijsverschil in disks goed moeten maken. Nog even los van de extra stroomkosten, de grotere behuizing en het lawaai van 4 extra disks.

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 08-12 16:24

Wouter.S

e^(i*pi ) +1 = 0

BlauwKeut schreef op woensdag 17 april 2013 @ 16:01:
#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 36,90€ 36,90
1MSI Z77MA-G45€ 88,-€ 88,-
1Sharkoon T9 Economy€ 45,99€ 45,99
1Arctic Cooling Alpine 11€ 8,35€ 8,35
1Arctic Cooling F12, 120mm€ 4,70€ 4,70
1Seasonic G-Serie 450Watt€ 75,02€ 75,02
1Samsung 840 series SSD 120GB€ 83,95€ 83,95
Bekijk collectie
Importeer producten
Totaal€ 342,91
Ik zou ook gaan voor 6*3TB gaan. In combinatie met een Asrock B75 moederbord met 8 sata poorten. En die seasonic voeding kan je nog wel terugbrengen tot de 360W variant, dat scheelt je in prijs en levert ook een lager idle verbruik op.

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


  • BlauwKeut
  • Registratie: Juni 2011
  • Laatst online: 04-06 21:29
Ik heb reeds twee IBM M1015 controllers (op de kop kunnen tikken voor de prijs van één) dus aantal disks is niet gelimiteerd door het aantal aansluitingen op het moederbord. Ik wou de disks aan de M1015 hangen, en een OS SSD aan het moederbord. Of een combinatie - kan zijn dat ik gewoon op één M1015 ga draaien tot ik wil upgraden.

Het moederbord had ik gekozen dat ik zeker de twee M1015's op 8x PCIe erin kan zetten.

Ook lawaai maakt me niet, de machine komt in de kelder te staan (ter vervanging van de drie PC's die er nu staan te draaien).

Niet bedoeld om grof over te komen tegen jullie suggesties trouwens - meer, welke diskconfiguratie is het beste als je niet naar de rest hoeft te kijken... Het ging mij eerder om €/TB en diskgebruik/redundatie te optimaliseren (most bang for bucks)...

[ Voor 5% gewijzigd door BlauwKeut op 17-04-2013 22:39 ]


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Je zou in die zin ook nog voor 8x3TB kunnen kiezen. Zo te zien is dat het mooiste van alle opties.
41 euro per TB.

Zoals vaker is gezegd, is 6 (8-2) niet het mooiste.
Maar betreft performance verschilt het niet extreem veel.

Als ik je vorige posts even bekijk zit je ook aan ESXI te denken.
Als je nu 8x3TB koopt in combinatie met de setup daaronder is dat ~1100 euro.

Koop betere CPU, grotere of extra SSD voor de VM's en je bent iets meer kwijt (Wel onder je max budget van 1500 euro) maar je kunt wel leuk virtualiseren. De IBM kan dan gewoon passthrough richting je ZFS VM. ZFS VM op je SSD en dan kan storage ook nog gebruikt worden voor storage van VM's via ICSCI of NFS.

Moederbord ondersteunt wel VT-D dat is mooi.

[ Voor 56% gewijzigd door Dennisik op 17-04-2013 22:58 ]


  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 22-12 14:37
BlauwKeut schreef op woensdag 17 april 2013 @ 22:38:
Niet bedoeld om grof over te komen tegen jullie suggesties trouwens - meer, welke diskconfiguratie is het beste als je niet naar de rest hoeft te kijken... Het ging mij eerder om €/TB en diskgebruik/redundatie te optimaliseren (most bang for bucks)...
No offense taken. Ik wist niet dat je al controllers had en een moederbord op basis daarvan had gekozen, dan zijn mijn opmerkingen inderdaad niet van toepassing. Most bang for the buck is sowieso 3TB aangezien die op hetzelfde prijsnivo zitten van de 2TB en - dat weten we allemaal - groter is natuurlijk beter :-)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
En verbruikt vaak net zoveel stroom, dus minder watt/GB.

Even niets...


  • BlauwKeut
  • Registratie: Juni 2011
  • Laatst online: 04-06 21:29
Bon, knoop doorgehakt en bestelling geplaatst. Er toch maar voor gekozen om een ESXi host te maken en ZFSGuru te virtualiseren. 't zal de eerste keer zijn om zelf van scratch een ESXi machine op te zetten, maar ken het platform toch al van mijn werkomgeving. Uitdagingen moeten er zijn.

Het idee is om de HBA in passthrough te zetten, en de disks in RAIDZ2 te configureren. De SSD wordt de ESXi datastore voor de virtuele machines (weet nu alleen niet of ik additionele VM's best op de SSD zet of via ISCSI/NFS op de 'virtuele' ZFSGuru).

Machine is door deze keuze wel duurder geworden, maar goed, heb dan nu maar iets minder disks aangeschaft. Kan altijd later uitbreiden, en uiteindelijk 10TB netto storage is ook al een mooi begin.

#ProductPrijsSubtotaal
1MSI Z77MA-G45€ 88,-€ 88,-
1Intel Core i5 3330 Boxed€ 154,90€ 154,90
4TakeMS 8GB--€ 175
2IBM ServeRAID M1015 SAS/SATA Controller for System x--€ 81
1Samsung 840 series SSD 250GB€ 138,70€ 138,70
6Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 109,90€ 659,40
1Intel Gigabit CT Desktop Adapter€ 24,50€ 24,50
1Sharkoon T9 Economy€ 45,99€ 45,99
1Seasonic G-Serie 450Watt€ 75,02€ 75,02
3Norcotek SS-500--€ 212
Bekijk volledige collectie
Totaal+/- € 1.700
(de 1700 euro is het lijstje hierboven plus nog wat kleine spullen als fans, kabels, e.d.)

Ik wil ook eventjes iedereen bedanken voor hun tijd en input op mijn vragen, ze hebben me goed geholpen. En bij uitbreiding de wizards hier in dit en het ZFS topic... _/-\o_

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Leuke build! Ik ben benieuwd of dat moederbord de beide m1015's zonder problemen herkent. Heb je ze geflashed naar it zonder bios? De reden dat ik er naar vraag is omdat ik hetzelfde moederbord overweeg voor mijn eigen build.

- raid does not fix stupid -


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zijn er dan problemen bekend met meerdere HBA's op 1 moederbord ? Zou toch niet mogen...

  • BlauwKeut
  • Registratie: Juni 2011
  • Laatst online: 04-06 21:29
Patatjemet schreef op zaterdag 20 april 2013 @ 00:22:
Leuke build! Ik ben benieuwd of dat moederbord de beide m1015's zonder problemen herkent. Heb je ze geflashed naar it zonder bios? De reden dat ik er naar vraag is omdat ik hetzelfde moederbord overweeg voor mijn eigen build.
Thanks. Mag ook wel voor dat geld :9 Ik verwacht er geen problemen mee, maar ik kan het achteraf wel laten weten.

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Er zijn geen specificieke meldingen dat het niet gaat maar een consumer MB met server hardware blijft een beetje een gok.

- raid does not fix stupid -


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Phuncz schreef op zaterdag 20 april 2013 @ 08:38:
Zijn er dan problemen bekend met meerdere HBA's op 1 moederbord ? Zou toch niet mogen...
Er mag wel meer niet, maar het gebeurt wel degelijk. Vaak bij het mixen van PCIe 1.0 en 2.0 poorten.

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Ik had problemen met 3x M1015 op een supermicro mainbord. Dat zijn pci-e 2.0 en 3.0 sloten gecombineerd. Met een i3-2100t werkte dat niet echt goed, met een xeon e3-1220 wel goed.
Dat zouden ook dezelfde generatie chips moeten zijn, maar toch maakte dat verschil.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Heeft die i3 niet gewoon minder PCIe lanes?

http://ark.intel.com/nl/p...ocessor-3M-Cache-2_50-GHz
16 PCIe Lanes,

http://ark.intel.com/products/52269/
20 PCie Lanes.

Even niets...


  • HiddenWolf
  • Registratie: September 2003
  • Laatst online: 03-12 11:40
Ook ik overweeg een DIY ZFS-server op basis van FreeBSD. Verwacht gebruik is media-opslag, back-up en overig niet-bedrijfskritisch thuisgebruik. Er is niets dat echte high-performance nodig heeft. Ik wil de data niet kwijt, maar niets is onvervangbaar.

Ik heb een aantal 2tb-schijven in gebruik en op de plank, dus ik mik in eerste instantie op 6, 8 of 10 schijven van 2tb in zraid2. Na een array te zijn kwijtgeraakt tijdens resync zie ik zraid2 wel als een vereiste voor mijn gezondheid.

Ik ga ervan uit dat ik voorlopig met 6 tot 10 schijven (8-16tb) toekan, maar ik wil niet per ongeluk nu een keuze maken die me volgend jaar klem zet als die aanname niet klopt. Ik sluit niet uit dat ik uiteindelijk 2x M1015's wil draaien met 16 tot 24 disks.

Tot zover de achtergrond. Nu de vragen waar ik mee zit.
- Ik begrijp dat ECC-geheugen aangeraden word ivm het fout-corrigerende vermogen van ZFS, maar dat advies komt allemaal uit de kant van de 'serieuze' hardware. Hoe belangrijk is dit voor thuisgebruik? Ik val hierbij niet over een paar tientjes extra voor ram of de Xeon boven een i5, maar de meeste moederborden slikken geen ECC. Een server-plank is ineens prijzig terwijl verder een simpele Z77 voldoet. Zijn er 'goedkope' planken die ECC slikken?

- Gezien budget, bestaande hardware en verwacht gebruik zou 8disk zraid2 (12tb) me goed uitkomen. Er word echter ivm stripe size of 6 of 10 disks aangeraden. Afgezien van het bekende tabelletje good/bad heb ik echter geen mij duidelijke uitleg van de consequenties gezien. Gaat het alleen om performance of ook om betrouwbaarheid? Is dat dan orde-van-grootte of procentenwerk?

- Als het dan toch 10 disks worden, welke performance-consequenties zitten er dan aan als ik een vdev verdeel over verschillende controllers. Zeg 8 disks op een M1015 en 2 op onboard-SATAII? Kan ik schijven later verplaatsen naar een andere controller zonder de hele vdev opnieuw te hoeven bouwen? Zo ja, dan hoef ik niet direct een tweede M1015 te kopen.

Een M1015 vraagt om een 8-kanaals PCIe 2.0 slot. Een i5 bied 16 kanalen. Met 2xM1015 zit de bus dus vol. Echter:
Een kanaal PCIe 2.0 haalt 500mb/s. 4*500=2000,
Een WD Red haalt 150mb. 8*150=1200,
Buffer cq. overhead. 800
Kan ik daaruit concluderen dat het geen problemen moet geven om een M1015 op 4x te laten draaien met de sata-schijf van vandaag? In dat geval blijven er zelfs na uitbereiding kanalen over voor een tv-tuner of een ethernet adapter, en word het systeem wat meer multi-functioneel.

[ Voor 0% gewijzigd door HiddenWolf op 22-04-2013 14:21 . Reden: tikfoutje ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
HiddenWolf schreef op maandag 22 april 2013 @ 14:19:
Ook ik overweeg een DIY ZFS-server op basis van FreeBSD. Verwacht gebruik is media-opslag, back-up en overig niet-bedrijfskritisch thuisgebruik. Er is niets dat echte high-performance nodig heeft. Ik wil de data niet kwijt, maar niets is onvervangbaar.

Ik heb een aantal 2tb-schijven in gebruik en op de plank, dus ik mik in eerste instantie op 6, 8 of 10 schijven van 2tb in zraid2. Na een array te zijn kwijtgeraakt tijdens resync zie ik zraid2 wel als een vereiste voor mijn gezondheid.

Ik ga ervan uit dat ik voorlopig met 6 tot 10 schijven (8-16tb) toekan, maar ik wil niet per ongeluk nu een keuze maken die me volgend jaar klem zet als die aanname niet klopt. Ik sluit niet uit dat ik uiteindelijk 2x M1015's wil draaien met 16 tot 24 disks.
Je moet weten dat het niet mogelijk is om een array zomaar uit te breiden. Je moet een nieuwe VDEV bijplaatsen. Je kan dus niet zomaar van 6*2TB RAIDZ2 naar 8*2TB RAIDZ2. Die keuze moet je dus eigenlijk wel nu alvast maken. Wat wel kan is nu 6*2TB RAIDZ2 en later nog maals 6*2TB in RAIDZ2 (of zelfs 6*3TB, maar dat is niet relevant) bijplaatsen. Dan krijg je dus een soort van RAID 60. De data word namelijk gestriped over die 2 VDEV's.
Tot zover de achtergrond. Nu de vragen waar ik mee zit.
- Ik begrijp dat ECC-geheugen aangeraden word ivm het fout-corrigerende vermogen van ZFS, maar dat advies komt allemaal uit de kant van de 'serieuze' hardware. Hoe belangrijk is dit voor thuisgebruik? Ik val hierbij niet over een paar tientjes extra voor ram of de Xeon boven een i5, maar de meeste moederborden slikken geen ECC. Een server-plank is ineens prijzig terwijl verder een simpele Z77 voldoet. Zijn er 'goedkope' planken die ECC slikken?
Niet echt, AMD kon het in het AM2/AM3(+) tijdperk wel, maar volgens mij is die ECC mogelijkheid sinds de FM1/FM2 sockets weer geschrapt. Dus je zult inderdaad naar een iets duurder serverbord moeten gaan.
Goedkoopste oplossing is een SuperMicro X9SCL-F volgens mij.
- Gezien budget, bestaande hardware en verwacht gebruik zou 8disk zraid2 (12tb) me goed uitkomen. Er word echter ivm stripe size of 6 of 10 disks aangeraden. Afgezien van het bekende tabelletje good/bad heb ik echter geen mij duidelijke uitleg van de consequenties gezien. Gaat het alleen om performance of ook om betrouwbaarheid? Is dat dan orde-van-grootte of procentenwerk?
In de benchmarks is het erger dan in real life. Je mist misschien 10-15% performance als je het gek maakt, maar of je nou 450MB/s of 350MB/s haalt, who cares, dat is al absurd veel sneller dan Gigabit ethernet doet...
- Als het dan toch 10 disks worden, welke performance-consequenties zitten er dan aan als ik een vdev verdeel over verschillende controllers. Zeg 8 disks op een M1015 en 2 op onboard-SATAII? Kan ik schijven later verplaatsen naar een andere controller zonder de hele vdev opnieuw te hoeven bouwen? Zo ja, dan hoef ik niet direct een tweede M1015 te kopen.
Geen, Zolang de controllers geen bandbreedte delen, mag je je schijven verdelen zoals je zelf wil.
Een M1015 vraagt om een 8-kanaals PCIe 2.0 slot. Een i5 bied 16 kanalen. Met 2xM1015 zit de bus dus vol. Echter:
Een kanaal PCIe 2.0 haalt 500mb/s. 4*500=2000,
Een WD Red haalt 150mb. 8*150=1200,
Buffer cq. overhead. 800
Kan ik daaruit concluderen dat het geen problemen moet geven om een M1015 op 4x te laten draaien met de sata-schijf van vandaag? In dat geval blijven er zelfs na uitbereiding kanalen over voor een tv-tuner of een ethernet adapter, en word het systeem wat meer multi-functioneel.
Dat klopt, je tikt zelden het limiet van de PCIe x4 bus aan. Let wel op, dat als je er SSD's bij zet, het een stuk harder gaat (een moderne goede SSD doet al snel >500MB/s)

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Ik heb 3 x M1015: 2 x in PCI-E 3.0 8x sloten, en 1 in PCI-E 2.0 4x slot.
op de M1015 in de 8x sloten 8 hdd's en op die in het 4x slot 4 hdd's

Werkt allemall goed met 2 x 10 hhd RaidZ2 pools.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Je hebt helemaal gelijk, dan is dat de reden dat het nu goed werkt denk ik...

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
FireDrunk schreef op maandag 22 april 2013 @ 14:27:
[...]

Niet echt, AMD kon het in het AM2/AM3(+) tijdperk wel, maar volgens mij is die ECC mogelijkheid sinds de FM1/FM2 sockets weer geschrapt. Dus je zult inderdaad naar een iets duurder serverbord moeten gaan.
Goedkoopste oplossing is een SuperMicro X9SCL-F volgens mij.
Ik zou voor een X9SRl-F samen met een Intel Xeon E5-1620 gaan. Kost wel iets meer moet ik toe geven.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Uiteraard, E5 Xeon's zijn mooi spul!

Ik zit persoonlijk met smart te wachten tot ze een Ivy Bridge / Haswell Xeon uitbrengen.

Dan heb je > 256GB geheugen mogelijkheden voor < 30W idle :D

Even niets...


  • Omisys
  • Registratie: Oktober 2010
  • Laatst online: 21-12 14:14
Ik gebruik op het moment een synology DS212j. Ik wil graag wat meer performance, vooral met het downloaden/uitpakken van bestanden. Ik gebruik Sabnzbd, couchpotato en sickbeard voor het downloaden. Voor de synology is dit allemaal vrij zwaar en download ik ook met maar ~3mb/s. Nu is mijn plan om zelf een NAS te bouwen. Ik heb eigenlijk niet veel eisen, ik wil alleen snel kunnen downloaden met de eerder genoemde software en deze data makkelijk bereikbaar maken voor mijn vrienden en familie zodat deze weer van mij kunnen downloaden. Nu had ik zelf deze setup gemaakt(er zitten geen harde schijven in, deze ga ik uit mijn synology halen en in deze setup plaatsen)

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 51,20€ 51,20
1ASRock B75 Pro3-M€ 56,90€ 56,90
1Cooler Master Elite 120 Advanced€ 38,74€ 38,74
1Corsair CMV8GX3M2A1333C9€ 49,68€ 49,68
1be quiet! Pure Power L7 300W€ 37,60€ 37,60
Bekijk collectie
Importeer producten
Totaal€ 234,12


Red ik het met deze specs om mijn volle 100mbit te trekken?

Ook heb ik eigenlijk geen idee wat voor software handig voor mij is. Ik ben DSM, de software van synology gewend en deze is erg gebruikersvriendelijk. Eigenlijk zoek ik iets wat hierop lijkt, dus het liefste met een web GUI zodat andere mensen ook gemakkelijk bij mijn bestanden kunnen komen.

TL:DR;
Ik wil zelf een NAS bouwen, opzetje staat ^. Trek ik hiermee 100mbit weg?
Welke software bevat een eenvoudige web GUI waarmee makkelijk bestanden gedeeld kunnen worden met anderen?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Ja, maar waarom die ASRock, als je toch maar 2 schijven gaat plaatsen?
Je kan dan beter voor een simpeler bordje gaan, iets als een Intel DH61AG ofzo, dan heb je ook geen voeding meer nodig, maar alleen een goede 19V adapter. Scheelt ook nog een hoop energie...

Even niets...


  • Omisys
  • Registratie: Oktober 2010
  • Laatst online: 21-12 14:14
Ik heb de ASRock gepakt omdat deze in de BBG stond. Op het moment heb ik nog genoeg schijfruimte maar met het oog op eventuele uitbreidingen heb ik voor deze gekozen. Enig idee qua software wat ik zou kunnen gebruiken? Ik lees wel goede verhalen over Freenas, iemand hier die dat gebruikt?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
FreeNAS is simpel en uitgemodificeerd, het is een stabiele basis die iets achter loopt.
Als je iets nieuwer, maar iets minder stabiel wil, kan je naar Nas4Free gaan (gebaseerd opnieuwere versie van FreeBSD).

Als je meer vrijheid wil in de software die je kiest, en niet van een USB stick / UFS drive wil draaien, kan je het beste ZFSguru draaien. Deze ondersteund Root-on-ZFS, waardoor je zelfs je OS op je data pool kan zetten (maar wel in een apart filesystem, dus zit niet in de weg).
Nadeel is dan wel dat je geen spindown meer hebt op je hoofd pool, omdat FreeBSD je pool dan wakker houdt. Wil je dat niet, moet je een losse disk/ssd voor je OS gebruiken.

ZFSguru kan in de toekomst ook op USB, maar dat is momenteel nog niet volledig functioneel.

* FireDrunk draait ook ZFSguru :)

Over de ASRock, dat bord is op zich prima, en de zuinigste oplossing voor 8 schijven, maar als je maar maximaal 6 schijven gaat gebruiken, zijn er veel zuinigere bordjes te krijgen.

Bijna elk ander MSI of Intel bord met een B75 of H77 chipset is zuiniger namelijk.

[ Voor 13% gewijzigd door FireDrunk op 22-04-2013 16:59 ]

Even niets...


  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 21:29
Omisys schreef op maandag 22 april 2013 @ 16:02:
Ik gebruik op het moment een synology DS212j. Ik wil graag wat meer performance, vooral met het downloaden/uitpakken van bestanden. Ik gebruik Sabnzbd, couchpotato en sickbeard voor het downloaden. Voor de synology is dit allemaal vrij zwaar en download ik ook met maar ~3mb/s.
Heb je nzbget al geprobeerd ipv SABnzbd? Das een C++ app ipv python en gebruikt daardoor minder resources en dus beter geschikt voor een synology apparaat.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De Be Quiet voeding is door de Capxon condensators van erg slechte kwaliteit, niet nemen dus. Zie wekelijks FSP build voedingen zoals deze met Capxon condensators die er na een paar jaar mee ophouden.

[ Voor 20% gewijzigd door -The_Mask- op 22-04-2013 21:40 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Omisys
  • Registratie: Oktober 2010
  • Laatst online: 21-12 14:14
RudolfR schreef op maandag 22 april 2013 @ 19:22:
[...]


Heb je nzbget al geprobeerd ipv SABnzbd? Das een C++ app ipv python en gebruikt daardoor minder resources en dus beter geschikt voor een synology apparaat.
Ik heb Nzbget als is geprobeerd ja, maar ik maak gebruik van een downloadsite die gemaakt is door een vriend van mij welke de optie heeft om met 1 druk op de knop NZB's door te sturen naar sab op mijn server, en dit is niet compatible met nzbget dus vandaar de voorkeur voor sab.

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
Omisys schreef op dinsdag 23 april 2013 @ 09:18:
[...]


Ik heb Nzbget als is geprobeerd ja, maar ik maak gebruik van een downloadsite die gemaakt is door een vriend van mij welke de optie heeft om met 1 druk op de knop NZB's door te sturen naar sab op mijn server, en dit is niet compatible met nzbget dus vandaar de voorkeur voor sab.
Dropbox en een watched folder en je hebt dezelfde functionaliteit EN je moet je Sab niet openzetten naar het internet toe.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Gewoon VPNen jongens, veel veiliger allemaal...

Even niets...


  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
Zo doen eindbazen het ja :7 . Of via SSH natuurlijk... :7

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
nieuws: AMD introduceert embedded socs op basis van Jaguar-architectuur

Hmm, ECC ondersteuning :)

Zou dat ook Registered ECC zijn? :D

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
<3 *O*

De CSL/OT kroeg !


  • als het ware
  • Registratie: April 2013
  • Laatst online: 22:28
Dag allemaal,

Ik ben op zoek naar een arm gebasseerd moederbord om er een nas mee te bouwen.

Maar het valt me vies tegen om een arm moederboard te vinden met meer dan 2 sata aansluitingen.

Afgezien van het doel om een zo energie zuinig mogelijk nas te bouwen is het ook voor de leuk, de kennis en ervaring van het werken met linux op arm.

Weet iemand een arm moederbord met meer dan 2 sata aansluitingen ?

Alvast bedankt. :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Je zou eens kunnen kijken of de bestaande ARM bordjes met SATA niet een Port Multiplier ondersteunen.

Even niets...


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Als je nog geduld hebt, is dit misschien wel interessant voor je:
http://www.engadget.com/2...embedded-chips/#continued

  • als het ware
  • Registratie: April 2013
  • Laatst online: 22:28
klinkt zeker interessant, is er ergens een roadmap van dat ding te vinden ?

  • als het ware
  • Registratie: April 2013
  • Laatst online: 22:28
Ik heb even een selectie gemaakt op (huidige) g-series, storage en mini-itx op de amd site

http://wwwd.amd.com/catal...r=Mini-ITX]&SearchOrder=4

De bordjes zijn inderdaad best zuinig maar blijven toch steken op 25w.

Ik hoop dat die nieuwe g-serie daar verbetering in kan brengen :)

Ik ga eens afwachten.

Thanx

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
Ik ben ook op zoek naar een vooral zuinige setup (cpu/mobo) voor een 3 of 4 disk raid 5 setup. Performance is mooi meegenomen maar aangezien de nas veel zal idlen vind ik een laag idle verbruik wel belangijk (ik verwacht zo'n 21uur per dag idle)

Ik heb nog wel een leftover pctje (4x sata / intel 945G chipset + e4300). Er valt wel wat te underclocken en uit te schakelen en dat lijkt me ook een mooie uitdaging, maar echt zuinig ga ik dat volgens mij nooit krijgen...

Edit: zelf nog wat doorgezocht en oplossingen bedacht. Kan ook WOL gaan gebruiken om in plaats van idle echt helemaal uit te gaan en eventueel een ssd om rap op te starten.

[ Voor 30% gewijzigd door savale op 25-04-2013 09:27 ]

Pagina: 1 ... 125 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.