• FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Ik vraag me nog steeds af waarom fabrikanten head parking zo aggresief aanzetten en garantie geven, en wij het uitzetten omdat je disk te hard zou slijten... Beetje tegenstrijdig..

Ik kom er trouwens net achter dat het grote boze tuneraid.sh script wat hier veel gebruikt word, niet meer werkt op (mijn) Ubuntu 11.10 bak. Hij blijft hangen bij het ophalen van de devices. Beetje vreemd.

Anderen hier ook last van?

Regels waar het om gaat:

DEVSTR="`grep \"^$MDDEV : \" /proc/mdstat` eol"
while \
 [ -z "`expr match \"$DEVSTR\" '\(\<sd[a-z]\[[12]\?[0-9]\]\((S)\)\? \)'`" ] ### was (\<sd[a-z]1\[[12]\?[0-9]\]\((S)\)\? \)
do
  DEVSTR="`echo $DEVSTR|cut -f 2- -d \ `"
done


De while lus blijft hangen.

[ Voor 66% gewijzigd door FireDrunk op 06-03-2012 14:35 ]

Even niets...


  • grotius
  • Registratie: April 2007
  • Laatst online: 16-10 09:56
Erik Jan schreef op maandag 05 maart 2012 @ 10:40:
Ik heb zelf een stapeltje Hitachi's 5K3000 2TB, van toen ze nog 60 euro/stuk waren, en ben er erg tevreden mee. Mijn vorige WD10EADS'en (3 platters) vielen bij bosjes uit, en de Hitachi's houden zich sterk (maar dat kan ook puur toeval zijn).

Ze vibreren ook veel minder dan de WD's.

Ook zijn ze geloof ik iets sneller (5900 RPM), maar daar staat wel weer het iets hogere verbruik en mindere cache tegenover.

edit: toen ook nog voor 5K3000 gekozen vanwege de 512B sectors, i.p.v. de 4KB van WD's.
Eindelijk een vergelijking tussen beide schijven gevonden:
http://www.tomshardware.c...8%5D=on&prod%5B5323%5D=on

Idle verbruiken ze nagenoeg evenveel stroom. Bij hevig gebruik is de seagate vanzelfsprekend (7200 rpm) duurder in gebruik. Echter het scheelt maar 1,4 watt. Daarstaat tegenover een verbetering v/d preformance

Ik twijfel nog steeds :(

[ Voor 11% gewijzigd door grotius op 06-03-2012 18:16 ]


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:40
grotius schreef op dinsdag 06 maart 2012 @ 18:11:
[...]


Eindelijk een vergelijking tussen beide schijven gevonden:
http://www.tomshardware.c...8%5D=on&prod%5B5323%5D=on

Idle verbruiken ze nagenoeg evenveel stroom. Bij hevig gebruik is de seagate vanzelfsprekend (7200 rpm) duurder in gebruik. Echter het scheelt maar 1,4 watt. Daarstaat tegenover een verbetering v/d preformance

Ik twijfel nog steeds :(
De vraag blijft of je iets van dat prestatie verschil gaat merken. Je hebt niet veel nodig om een gigabit lijn vol te trekken. Dus als je de performance niet nodig hebt zou ik dus nog steeds voor zuinigere en goedkopere schijven gaan.

Sinds de 2 dagen regel reageer ik hier niet meer


  • grotius
  • Registratie: April 2007
  • Laatst online: 16-10 09:56
CurlyMo schreef op dinsdag 06 maart 2012 @ 18:20:
[...]

De vraag blijft of je iets van dat prestatie verschil gaat merken. Je hebt niet veel nodig om een gigabit lijn vol te trekken. Dus als je de performance niet nodig hebt zou ik dus nog steeds voor zuinigere en goedkopere schijven gaan.
Op basis van bovenstaand en de uitgebreide reactie van CiPHER gekozen voor de Hitachi Deskstar 5K3000, 3TB. In totaal heb ik dan 7x dezelfde HDD :)

[ Voor 1% gewijzigd door _Dune_ op 26-03-2013 21:09 ]


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Na een weekje gewacht te hebben zijn de nieuwe sandy bridge e xeon processors uit. Alleen heb ik op de site van SuperMicro nog geen Mobo's gevonden met sas aansluitingen die geflashed kunnen worden naar it. Nu mijn vraag ben ik zo stom geweest dat ze er wel zijn of zijn ze er idd (nog) niet?

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Hoeveel VM ware's zou ik op deze setup kunnen draaien?

pricewatch: Intel Celeron G530 Boxed
pricewatch: Corsair CMV4GX3M1A1333C9

4GB + Duo Core 2,4GHz

Ik denk dat 2x 10.4 op een 11.10 wel moet lukken toch?

Voor een project op school zou het wel handig zijn.
Liefst werken we dan ook met VMware esxi, maar daar ben ik nog totaal niet mee bekend dus zal eens goed gaan google. Anders werkt virtualbox of vmware los wel op ubuntu neem ik aan?

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Ik heb nog steeds geen USB stick gevonden die goede random write prestaties heeft. Welke USB sticks worden er door jullie gebruikt, en hoe belangrijk is het? Heeft de snelheid van de USb stick (waar FreeNAS op komt en later misschien ESXi) invloed op de schrijf en leesprestaties van de Raidz(2) array?

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 24-10 18:26
Gezien freenas van een read only filesystem draait, zo goed als geen, alleen je config staat op een rw slice

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Als je IPKG gebruikt kan dat toch gewoon op je USB stick?

Even niets...


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 24-10 18:26
Als je die eerst rw remount of uitpakt naar een rw filesystem wel

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Oke, fair enough. In dat geval gooi ik mijn oude 4Gb voyager er gewoon in. Dat de installatie wat langer duurt is geen probleem. Scheelt me weer een nieuwe USb stick.

Nog een vraag, ik probeer iets te vinden over de FireFly media server, maar de website (fireflyediaserver.org) is leeg? mt-daap project lijkt ook beeindigd te zijn.. Gebruikt iemand hier *iets* om media te streamen / iTunes server te spelen?

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Ben gisteravond bezig geweest om de testbak die ik gebruik te voorzien van FreeNAS 8.04 MULTIMEDIA, waar FireFly etc gewoon inzitten. 8.04 is een voorloper van 8.2 die (binnenkort?) uitkomt. Door wat te kloten in de shell kun je Firefly aanzetten maar ik krijg het niet voor elkaar. Heb een guide gevonden op het net, ga er vanavond nog eens doorheen en alles opnieuw doen, want het zou moeten werken in 8.04. enige nadeel is dus dat je geen GUI hebt om instellingen te wijzigen, alles wat je doet moet via de shell.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Verwijderd

Dit nieuws komt als een geschenk uit de hemel:
nieuws: Intel brengt goedkope 10-gigabit-netwerkcontroller uit

Zou het dan toch zo zijn? SuperMicro bordjes met dual 10 gigabit intel LAN erop? De SuperMicro PDF van nieuwe borden maakt helaas nog geen melding van 10 gigabit ethernet.

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik ben bezig met het bouwen van een RAID NAS.
Nu wil ik een hardware matige RAID5 opstelling maken alleen zit ik te twijfelen over de root disk. Is het verstandig om de root disk gewoon in de RAID5 opstelling te zetten?
Of moet dit een losse schijf zijn die niet op de RAID controller is aangesloten?

Verwijderd

Je weet dat je dan dure TLER schijven nodig hebt en een Battery Backup Unit voor je RAID controller? Een erg dure oplossing die je uiteindelijk een lager kwaliteit opslagmedium biedt dan moderne software RAID, zoals onder Linux of ZFS.

RAID5 is ook niet veilig genoeg meer; je kunt dat beschouwen als een RAID0 met bescherming voor uBER. Wil je een disk failure + uBER kunnen weerstaan, dan is RAID6 de minimum. Dit is ook de grondslag voor artikelen als:
Why RAID 5 stops working in 2009.

Als je echt zeker weet dat dit de beste setup voor jou is (wat ik zeer betwijfel) dan ligt het aan je wensen of je systeemschijf op de RAID5 staat of niet. Je zult dan een operating system hebben die random writes doet op je RAID5; iets waar RAID5 heel slecht in is.

Kortom, ik word niet zo warm van zo'n setup. Dat is hoe 'we' het 10 jaar geleden deden, toen we nog niets beters hadden. Weet je zeker dat je zoveel geld wilt investeren in technologie die zijn flair heeft verloren en veel goedkopere en veiligere softwarematige alternatieven kent?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 04-11 16:45
Dat RAID5 zogezegd oude troep is is nog maar de vraag en vergt nuancering. Door de hoge datadichtheid is de kans op foutjes bij een degraded array inderdaad groter, maar er is nu eenmaal (vooral enterprise gericht) geen alternatief dat zo gemakkelijk schaalt zonder een grote hap uit je budget te nemen. ZFS is nieuwe vdevs maken, RAID10 is naarmate je array groeit een grote hap uit je budget, RAID6 is duurder om mee te starten en heeft hogere write penalties.

Voor thuisgebruik is het allemaal wel leuk enzo om ZFS of mdadm te draaien (vind ik zelf ook een ultieme combo moesten ze vdevs nu eens kunnen uitbreiden) maar de wereld gaat verder dan dat. RAID 5 is nog steeds de gulden middenweg voor vele toepassingen gaande van enterprise tot DIY NAS. Eenvoudig in implementatie, uitbreiding en beheer. Het schoeit ook op een simpele ubuntu setup met GUI. Bottomline: mdadm RAID5 is super toegankelijk.

Waar ik je wel volg is de hardware Vs software kwestie. Voor DIY en SOHO is software RAID de beste keuze. Enterprise is buiten de scope van dit topic maar daar heeft hardware RAID wel nog voordelen.

Blijft vast staan: Goed informeren en de opties afwegen vooraleer je iets in elkaar begint te boksen. Een goed hardwarelijstje is 1, juiste config is 2. Hoeveel klanten we niet krijgen die klagen dat hun VNX slecht presteert en die we dan op structurele configuratiefouten moeten wijzen ... .

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik zelf heb op dit moment dit in mijn server zitten:
i3 2100T
4GB DDR3
Intel RAID Controller SASUC8I (non flashed)
8x 2TB HDD

Op dit moment zitten nu 4 van de 8 2TB HDD's vol met data en heb ik dus 4 schijven over om mee te beginnen.
Alleen zodra hier dus ZFS of MDADM opstaat, zal ik dus telkens data van een losse schijf over moeten zetten naar de ZFS/MDADM setup. Maar hoe zit het dan met zodra er weer een nieuwe schijf leeg is en deze gekoppeld moet worden met de ZFS/MDADM setup bij welke gaat die soepeler?

Ik wil dus makkelijk een schijf toe kunnen voegen zonder dat ik gekke dingen moet uithalen, wat is hiervoor toegankelijker ZFS of MDADM?

En mijn operating system dus op een losse disk neem ik aan?

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Dutch3men schreef op donderdag 08 maart 2012 @ 16:10:
Ik zelf heb op dit moment dit in mijn server zitten:
i3 2100T
4GB DDR3
Intel RAID Controller SASUC8I (non flashed)
8x 2TB HDD

Op dit moment zitten nu 4 van de 8 2TB HDD's vol met data en heb ik dus 4 schijven over om mee te beginnen.
Alleen zodra hier dus ZFS of MDADM opstaat, zal ik dus telkens data van een losse schijf over moeten zetten naar de ZFS/MDADM setup. Maar hoe zit het dan met zodra er weer een nieuwe schijf leeg is en deze gekoppeld moet worden met de ZFS/MDADM setup bij welke gaat die soepeler?

Ik wil dus makkelijk een schijf toe kunnen voegen zonder dat ik gekke dingen moet uithalen, wat is hiervoor toegankelijker ZFS of MDADM?

En mijn operating system dus op een losse disk neem ik aan?
Bij ZFS kun je alleen een nieuw volume maken van de schijven die je toevoegt. Je kunt niet één schijf toevoegen aan een raidz(2) array.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Pixeltje schreef op donderdag 08 maart 2012 @ 16:14:
[...]

Bij ZFS kun je alleen een nieuw volume maken van de schijven die je toevoegt. Je kunt niet één schijf toevoegen aan een raidz(2) array.
Dus als ik ZFS zou willen gebruiken zou ik telkens als er een disk vrij komt een nieuw volume moeten aanmaken, maar aangezien ik RAID5/6 wil draaien moet ik telkens wachten tot ik 3 of 4 disken leeg ik voordat ik weer een nieuw volume kan aanmaken. Dus kort weg gezegd stel ik wil met mijn huidige setup ZFS draaien in RAID5, moet ik twee volumes aanmaken en verlies ik i.v.m RAID5 twee harde schijven aan opslag.

Dan lijkt MDADM een betere oplossing aangezien hierbij gewoon telkens een HDD aan een array gekoppeld kan worden, correct?

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
MDADM gaat alleen minder goed om met bad sectors.

Je kan trouwens met MDADM gewoon je array laten groeien ja.

Korte vraag tussendoor, je kan met MDADM van raid5 naar raid6 zonder data verlies of het opnieuw opbouwen van je array?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 04-11 16:45
MDADM biedt online grow aan voor RAID5 naar 6.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Jormungandr schreef op donderdag 08 maart 2012 @ 16:43:
MDADM biedt online grow aan voor RAID5 naar 6.
RAID 5 growen of spare toevoegen kan ik ook online vinden.
Van raid5 naar raid6 is wat moeilijker te vinden.

In 2008 zeiden ze dat het wel mogelijk werd binnen een half jaar.
Zal nu dus wel mogelijk zijn, nu nog zoeken hoe.

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Verwijderd schreef op donderdag 08 maart 2012 @ 13:22:
Dit nieuws komt als een geschenk uit de hemel:
nieuws: Intel brengt goedkope 10-gigabit-netwerkcontroller uit

Zou het dan toch zo zijn? SuperMicro bordjes met dual 10 gigabit intel LAN erop? De SuperMicro PDF van nieuwe borden maakt helaas nog geen melding van 10 gigabit ethernet.
De nieuwe bordjes met een T in het typenummer bieden dubbel 10Gbe.
http://www.supermicro.com...d/Xeon/C600/X9DRG-HTF.cfm
De rest is nog 'coming soon'.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
DO WANT!
* FireDrunk heeft net een InfiniBand setje gekocht 8-)
Jormungandr schreef op donderdag 08 maart 2012 @ 15:58:
*knip*
RAID6 is duurder om mee te starten en heeft hogere write penalties.
*knip*
Het scheelt 1 disk en wat CPU kracht? Dat is toch niet zo veel?

Even niets...


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

FireDrunk schreef op donderdag 08 maart 2012 @ 17:54:
DO WANT!
* FireDrunk heeft net een InfiniBand setje gekocht 8-)


[...]

Het scheelt 1 disk en wat CPU kracht? Dat is toch niet zo veel?
Dat hangt er vanaf met hoeveel schijven je start. Ik zou (met 4 schijven) de helft kwijt zijn aan parity, das best veel. Als je start met 10 schijven is 2 relatief weinig.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Ahzo, ik heb het met 8. En het verschil in write performance met RAID5 is nou niet echt denderend...

Even niets...


Verwijderd

Jormungandr schreef op donderdag 08 maart 2012 @ 15:58:
Dat RAID5 zogezegd oude troep is is nog maar de vraag en vergt nuancering.
Oude troep is erg negatief; ik heb zelf ook een Areca gehad en dat zijn mooie producten! Maar toch is Hardware RAID nu niet erg sexy meer als je vergelijkt met de software RAID alternatieven die je veel goedkoper kunt krijgen:
  • Je hebt een dure RAID controller nodig met eigen RAID logic en onboard geheugen (Write-back engine)
  • Je hebt dure TLER-schijven nodig; schandalig duur voor een softwarefeature. Bij veel RAID controllers is het maar de vraag of ze ook CCTL/ERC ondersteunen, want alleen TLER werkt automatisch; bij CCTL/ERC moet er elke boot opnieuw CCTL/ERC op 7 seconden ingesteld worden.
  • Je hebt ook nog een Battery Backup Unit (BBU) nodig om write-back modus veilig te kunnen gebruiken. Zonder write-back zijn RAID5 en RAID6 enorm traag met writes.
  • Hardware RAID gaat niet goed om met bad sectors. Het is meer een zwart-wit concept. Of de schijf is perfect en doet mee, maar als één sector onleesbaar is knallen we hem eruit. In het huidige tijdperk met schijven met steeds hogere datadichtheid waarbij bad sectors door simpele mathematica (uBER=10^-14) steeds vaker voorkomen, biedt hardware RAID dus een oplossing die enigszins verouderd is. Niet lager zijn schijven stuk of werkend, maar steeds vaker kunnen in principe gezonde schijven een paar sectoren niet lezen.
  • Je kunt schijnveiligheid creëren. Een RAID5 lijkt veilig maar als je tijdens een rebuild nog op bad sectors stuit op de resterende schijven, zit je al in de moeilijkheden. Veel RAID engines gaan over de zeik als tijdens dit soort operaties de resterende schijven niet goed functioneren. Je kunt dataverlies hebben terwijl al je schijven in principe nog functioneren; dus de gedachte 'RAID5 biedt bescherming totdat twee schijven helemaal stuk zijn' is een utopie. Vroeger was RAID5 veel meer nuttig dan tegenwoordig; wat alles met de hardeschijven zelf te maken heeft, en de trend van meer onleesbare bad sectors naarmate de datadichtheid toeneemt.
  • Traditionele filesystems bieden ook absoluut geen bescherming voor je metadata en bestanden zelf. De gevoelige metadata kan corrupt raken door tal van oorzaken, met name in combinatie met RAID5 en RAID6. Als dat gebeurt kun je grote delen van je filesystem kwijt raken.
Kortom, ik wil aangeven dat de combinatie Hardware RAID + traditioneel filesystem zoals nog steeds veel wordt gebruikt hedendaags, eigenlijk niet meer van deze tijd is. Door de trend die al langer zichtbaar en gedocumenteerd is, zal de betrouwbaarheid van dergelijke systemen ook blijven afnemen. Het is niet voor niets dat Microsoft al langer bezig is de nadelen van het ouderwetse NTFS op te vangen. Bij WHS 2 was de DriveExtender 2.0 - die uiteindelijk was gecancelled - wel ontworpen met een redundancy overhead ingebouwd om bad sectors op te kunnen vangen. Bij het recent aangekondigde ReFS is ook sprake van filesystem redundancy (evenals checksums). De noodzaak voor 'slimmere' technologie in plaats van een 'domme RAID controller' die alleen met RAID bezig houdt en een 'dom filesystem' wat denkt dat hij op een enkele schijf geïnstalleerd staat, is wat mij betreft dan ook zeker duidelijk.

Wat betreft redundante filesystems is ZFS zeker op dit moment gewoon de koning. Het is volwassen, biedt veel features en is beschikbaar op diverse platforms (tegenwoordig doet Linux ook al redelijk mee). Dus het is niet zo gek dat de traditionele oplossingen die we vroeger allemaal hebben gebruikt, nu onder vuur komen te liggen, nu alternatieven zeker voor handen zijn. Appliances als ZFSguru, FreeNAS, Nexenta moeten deze technologie ook toegankelijk maken aan minder technische gebruikers, die gewoon snel een servertje willen opzetten met veilige opslag, en die met hun Windows/Linux/Mac desktop kunnen aanspreken.

Nuanceren ben ik helemaal voor; en niet al mijn uitspraken zijn even genuanceerd. Maar een sterke opinie is niets mis mee; ik ben iemand die op vele vlakken ver vooruit kijkt en zoekt naar betere of slimmere oplossingen in plaats van wat gemeengoed is. Dat gezegd, ieder moet kijken naar zijn eigen situatie en prioriteiten, waarbij er genoeg situaties denkbaar zijn waarbij iemand nog steeds voor Hardware RAID moet kiezen. Maar die afweging dient wel grondig gemaakt te worden, door de voordelen die ZFS en andere opkomende moderne filesystems.
Dutch3men schreef op donderdag 08 maart 2012 @ 16:24:
[...]
Dus als ik ZFS zou willen gebruiken zou ik telkens als er een disk vrij komt een nieuw volume moeten aanmaken, maar aangezien ik RAID5/6 wil draaien moet ik telkens wachten tot ik 3 of 4 disken leeg ik voordat ik weer een nieuw volume kan aanmaken. Dus kort weg gezegd stel ik wil met mijn huidige setup ZFS draaien in RAID5, moet ik twee volumes aanmaken en verlies ik i.v.m RAID5 twee harde schijven aan opslag.

Dan lijkt MDADM een betere oplossing aangezien hierbij gewoon telkens een HDD aan een array gekoppeld kan worden, correct?
Ouderwets expanden van RAID5 is voor thuisgebruikers heerlijk, omdat ze altijd even een schijfje bij kunnen pleuren. Voor Enterprise-gebruikers is deze feature niet interessant, om meerdere redenen:
  • Je server in principe offline voor 24+ uur; de lage I/O performance is onvoldoende om een enterprise server te laten draaien
  • Het is niet volkomen veilig; het is een riskante operatie waarbij het de vraag is hoe goed de engine omgaat met bijvoorbeeld een crash of bad sector of andere problemen tijdens de expansion
  • Het verlaagt je redundancy-niveau; je hebt meer schijven maar niet meer redundancy; je array wordt er dus onveiliger van. Meestal niet zo'n probleem.
Voor thuisgebruikers is het niet 'ouderwets' kunnen expanden van ZFS een groot nadeel. Maar wat vaak onderkend wordt, is dat ZFS ook voordelen biedt boven de 'ouderwetse' methode:
  • ZFS expansion is volkomen veilig; de bestaande data blijft waar hij staat.
  • ZFS expansion is in één seconde afgerond; geen downtime of lage I/O performance whatsoever.
  • ZFS expansion behoudt je redundancy, doordat je steeds nieuwe arrays toevoegt in plaats van de stripe width uitbreidt.
  • Je kunt vdevs van een ander type toevoegen; dus bijvoorbeeld RAID5 met mirror combineren; of RAID-Z2 met RAID-Z3 combineren.
  • Je kunt grotere disks gebruiken; dus je begint nu met 2TB disks en later voeg je 3TB disks toe en in de toekomst ruimte voor 4TB disks. Bij ouderwets expanden moet je dezelfde disks gebruiken.
  • ZFS doet load balancing over de verschillende vdevs; dus als je nieuwe array/vdev sneller of langzamer is dan de oude, remmen ze elkaar niet af. Bij ouderwets expansion zal een snellere schijf nauwelijks voordeel geven.
  • Doordat je ook extra SATA poorten nodig hebt en dus een controller moet kopen, is het uitbreiden met meerdere disks tegelijk meestal niet zo heel erg als je dat kunt plannen.
Wat bijvoorbeeld ook kan:
  • Beginnen met een degraded RAID-Z of RAID-Z2 array. Dus bijvoorbeeld een 6-disk RAID-Z2 waarbij je maar 4 echte schijven gebruikt. Je kunt dan data overkopiëren en schijven vrijmaken waar nog data op stond, en die vervolgens toevoegen aan je pool.
  • Beginnen met een RAID0 en uitbreiden naar mirror; of andersom. Dus bijvoorbeeld 4 disks in RAID0 waarnaartoe je data kopiëert. En later voeg je 4 schijven toe zodat je 4 mirrors hebt van in totaal 8 schijven.
Ik wil niet zeggen dat ZFS daarmee alle nadelen voor thuisgebruikers wegneemt, maar het is ook een kwestie van perspectief. Als je op een andere manier denkt, is de methode van ZFS eigenlijk zo gek nog niet. Natuurlijk hoop ik wel dat die feature er ooit in komt, maar voorlopig zie ik dat niet gebeuren.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-10 22:23

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 08 maart 2012 @ 17:54:
DO WANT!
* FireDrunk heeft net een InfiniBand setje gekocht 8-)


[...]

Het scheelt 1 disk en wat CPU kracht? Dat is toch niet zo veel?
En welke IB HCA's heb je dan gekocht als ik vragen mag??

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
weet iemand of er nog supermicro borden binnenkort komen met singel/dual xeon 2011 en sas it hba?

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Wat dus kan volgens jou is een RAIDZ2 vdev combineren met een RAIDZ3 vdev zodat ze één pool vormen.

Hierna kan je een RAIDZ1 vdev van .... 3x 3TB disks toevoegen, en je pool wordt dan weer 6TB groter?

Daar moet ik dan wel even aan wennen hoor als dat kan 8)7

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Verwijderd

Dat kan inderdaad. Zelfs RAID0 (single disk) toevoegen kan; maar dat wil je niet omdat als die disk uitvalt de overige data ook ontoegankelijk is; alle vdevs moeten beschikbaar zijn.

Maar stel je begint met een 8-disk RAID-Z2 met 1TB schijven die je al had, en je koopt er 3x 3TB schijven bij; dan kun je prima RAID-Z2 en RAID-Z combineren. De performanceverschillen tussen de vdevs (de RAID-Z2 en de nieuwe RAID-Z) zijn niet zo belangrijk. Als een bepaalde vdev sneller is, schrijft ZFS daar gewoon meer data naartoe. Dat zijn wel mooie features van de 'ZFS expansion' evenals dat je kunt upgraden met nieuwere, grotere schijven.

Een nadeel is wel dat na expansion de bestaande data niet sneller wordt; hij blijft immers staan op de originele disks en wordt niet automatisch verdeeld. Alleen nieuw geschreven data wordt over alle vdevs verdeeld. Als je de extra performance ook voor bestaande data wilt hebben, dan kun je als volgt doen:
1. rename je directory, bijvoorbeeld van 'media' naar 'media_tmp'
2. Kopiëer de 'media_tmp' directory naar 'media', zodat je je gegevens dubbel hebt
3. Verwijder de oude 'media_tmp' directory.

Iet slimmer werkt het als je op ZFS filesystem-niveau werkt:
1. rename je huidige filesystem van 'tank/media' naar 'tank/media_tmp'
2. maak een nieuwe filesystem aan 'tank/media'
3. Verplaats (niet kopiëer) de data van /tank/media_tmp/ naar /tank/media/
4. Verwijder de oude 'tank/media_tmp' filesystem

Dat laatste werkt beter omdat je de data ook gelijk verwijderd op de oude locatie. Dit werkt dus beter voor hele grote filesystems, zoals thuisgebruikers vaak hebben.

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Op dit moment speel ik met het volgende idee in mijn hoofd.
Ik heb 8x een 2TB HDD's, waarvan 4 disks vrijwel vol zitten en de overige vier zijn leeg.

Het OS wil ik graag op een USB stick zetten zodat ik het OS en de data mooi van elkaar gescheiden kan houden.

Van de eerste 4 disks maak ik één ZFS pool van in RAID5.
Vervolgens zet ik zoveel mogelijk data van de 4 volle hdd's over naar de ZFS pool die in RAID5 draait, datgene aan data wat ik net niet kwijt kan parkeer ik tijdelijk op een andere pc.
De 4 disks die vol waren zijn nu leeg en maak van deze 4 disks ook weer een ZFS pool in RAID5.
De data die tijdelijk op een andere pc staan kan ik nu kwijt in de tweede pool.

Enige nadeel is nu wel dat ik nu ten opzichte van raid5 in mdadm, 1x een 2TB hdd kwijt ben. Maar als ik dingen lees over mdadm over hoe traag het rebuilden duurt als er een extra hdd aan een array toegevoegd word kan zo een hele dag in beslag nemen, dan begin ik te twijfelen of mdadm wel een slimme keuze zou zijn.

De reden waarom ik voor telkens pools van 4 disks kies is omdat ik in mijn kast maximaal 16 disks kwijt kan, en als ik alles per 4 disks doe kan je het nog lekker overzichtelijk houden. Plus dat mocht ik ooit uitbreiden zou ik er ook voor kunnen kiezen om in één keer 8x 2TB of groter koop, deze in één pool zet. De data van de andere twee pools overzet en dan de twee lege pools delete en hier weer één pool van maak, zodat ik uit eindelijk uitkom op 2x een pool met elk 8 HDD's in RAID5/6 in ZFS.

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Het is me overigens gelukt om Firefly werkend te krijgen. Zoals altijd bij coden zit de fout in een klein lullig detail. In dit geval twee:

- Er zat een extra / ergens in een padnaam, foutje door klote toetsenbord (de enter-toets is twee keer zo klein als ik gewend ben)
- De # voor MP3_dir moet even weggehaald worden.. anders snapt freenas niet dat het een regel is waar hij iets mee moet ;)

Anyway, het werk, en ik ben blij. En wat een supermakkelijke commando's om dingen te doen zeg.. heerlijk!

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 04-11 11:35

Ultraman

Moderator Harde Waren

Boefje

Dutch3men schreef op donderdag 08 maart 2012 @ 21:24:
Op dit moment speel ik met het volgende idee in mijn hoofd.
Ik heb 8x een 2TB HDD's, waarvan 4 disks vrijwel vol zitten en de overige vier zijn leeg.

Het OS wil ik graag op een USB stick zetten zodat ik het OS en de data mooi van elkaar gescheiden kan houden.

Van de eerste 4 disks maak ik één ZFS pool van in RAID5.
Vervolgens zet ik zoveel mogelijk data van de 4 volle hdd's over naar de ZFS pool die in RAID5 draait, datgene aan data wat ik net niet kwijt kan parkeer ik tijdelijk op een andere pc.
De 4 disks die vol waren zijn nu leeg en maak van deze 4 disks ook weer een ZFS pool in RAID5.
De data die tijdelijk op een andere pc staan kan ik nu kwijt in de tweede pool.

Enige nadeel is nu wel dat ik nu ten opzichte van raid5 in mdadm, 1x een 2TB hdd kwijt ben. Maar als ik dingen lees over mdadm over hoe traag het rebuilden duurt als er een extra hdd aan een array toegevoegd word kan zo een hele dag in beslag nemen, dan begin ik te twijfelen of mdadm wel een slimme keuze zou zijn.

De reden waarom ik voor telkens pools van 4 disks kies is omdat ik in mijn kast maximaal 16 disks kwijt kan, en als ik alles per 4 disks doe kan je het nog lekker overzichtelijk houden. Plus dat mocht ik ooit uitbreiden zou ik er ook voor kunnen kiezen om in één keer 8x 2TB of groter koop, deze in één pool zet. De data van de andere twee pools overzet en dan de twee lege pools delete en hier weer één pool van maak, zodat ik uit eindelijk uitkom op 2x een pool met elk 8 HDD's in RAID5/6 in ZFS.
Noot: vier disken in raidz is alleen niet slim qua performance, want nu moet je een block I/O door drie delen en dat is niet lekker te rijmen omdat je dan voor een request van bijv 128K uit komt op 42.5K die per disk gelezen moet worden. Namelijk 3 data disken en 1 parity -> 128K / 3
Op 512b sectored disken merk je dit niet to minder, maar als je voor de toekomst bouwt wil je rekening houden met Advanced Format schijven welke 4K sectoren gebruiken. Misschien heb je zelfs al wel dergelijke schijven in gebruik?
Je bent qua performance in jouw geval beter af met een raid50 achtig opstelling, door set van 3 disken in raidz te stripen. Aangezien jij acht disken hebt, zou je ook voor 3-disk raidz + 5-disk raidz kunnen gaan.
Maar bijvoorbeeld een disk er bij halen en een zpool maken van 3 maal 3-disk raidz is nog beter.
Mocht je dan ooit je kast geheel willen vullen dan kom je tot 15 disken en een spare.
Of gebruik het vrije slot voor een caching SSD als je workload daar geschikt voor is. :)

Of natuurlijk een acht disk raidz2, maar je zit in jouw geval met data die je wilt bewaren. Dus die zul je dan elders kwijt moeten kunnen voordat je zo'n array kunt aanmaken.

Hier is ook veel info over te vinden in het ZFS topic mocht je meer willen weten.

[ Voor 3% gewijzigd door Ultraman op 08-03-2012 22:46 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Ultraman schreef op donderdag 08 maart 2012 @ 22:44:
[...]

Noot: vier disken in raidz is alleen niet slim qua performance, want nu moet je een block I/O door drie delen en dat is niet lekker te rijmen omdat je dan voor een request van bijv 128K uit komt op 42.5K die per disk gelezen moet worden. Namelijk 3 data disken en 1 parity -> 128K / 3
Op 512b sectored disken merk je dit niet to minder, maar als je voor de toekomst bouwt wil je rekening houden met Advanced Format schijven welke 4K sectoren gebruiken. Misschien heb je zelfs al wel dergelijke schijven in gebruik?
Hier is ook veel info over te vinden in het ZFS topic mocht je meer willen weten.
In hoeverre heeft dat impact op je performance? Ik ben ook van plan om 4 schijven in raidz(2) te zetten. Zijn geen 4k schijven trouwens..

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ultraman schreef op donderdag 08 maart 2012 @ 22:44:
[...]

Noot: vier disken in raidz is alleen niet slim qua performance, want nu moet je een block I/O door drie delen en dat is niet lekker te rijmen omdat je dan voor een request van bijv 128K uit komt op 42.5K die per disk gelezen moet worden. Namelijk 3 data disken en 1 parity -> 128K / 3
Op 512b sectored disken merk je dit niet to minder, maar als je voor de toekomst bouwt wil je rekening houden met Advanced Format schijven welke 4K sectoren gebruiken. Misschien heb je zelfs al wel dergelijke schijven in gebruik?
Je bent qua performance in jouw geval beter af met een raid50 achtig opstelling, door set van 3 disken in raidz te stripen. Aangezien jij acht disken hebt, zou je ook voor 3-disk raidz + 5-disk raidz kunnen gaan.
Maar bijvoorbeeld een disk er bij halen en een zpool maken van 3 maal 3-disk raidz is nog beter.
Mocht je dan ooit je kast geheel willen vullen dan kom je tot 15 disken en een spare.
Of gebruik het vrije slot voor een caching SSD als je workload daar geschikt voor is. :)

Of natuurlijk een acht disk raidz2, maar je zit in jouw geval met data die je wilt bewaren. Dus die zul je dan elders kwijt moeten kunnen voordat je zo'n array kunt aanmaken.

Hier is ook veel info over te vinden in het ZFS topic mocht je meer willen weten.
Ik heb hier:
6x Western Digital Caviar Green WD20EADS
2x Western Digital Caviar GreenPower WD20EARS

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Pantagruel schreef op donderdag 08 maart 2012 @ 20:10:
En welke IB HCA's heb je dan gekocht als ik vragen mag??
V&A aangeboden: 10 Gbps Infiniband setje | 2x Mellanox Infinihost III EX Pci-e x8 infiniband kaarten 1x 10M Infiniba
Pixeltje schreef op donderdag 08 maart 2012 @ 22:47:
In hoeverre heeft dat impact op je performance? Ik ben ook van plan om 4 schijven in raidz(2) te zetten. Zijn geen 4k schijven trouwens..
In de praktijk wisselt dit, maar verwacht iets in de trend van 200MB/s ipv 250-280MB/s.
Het heeft meer impact op Random Writes, maar daar merk je minder van op een data array uiteraard.

[ Voor 33% gewijzigd door FireDrunk op 09-03-2012 08:46 ]

Even niets...


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 01-11 18:20
Als je 4 schijven in een raidz2 zet zou dit toch geen problemen moeten geven, aangezien je dan effectief 2 schijven gebruikt. Eigenlijk hetzelfde als een (wel optimale) 3 disk raidz.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Dan heb je 150-200MB/s denk ik. Prima voor een simepele server met 1 x 1Gbit.

Even niets...


  • Roeligan
  • Registratie: December 2001
  • Laatst online: 22-07 11:37

Roeligan

Feyenoord

Na wat verder uitzoek werk denk ik dat in mijn geval ik geen raid nodig heb voor mijn servertje (alleen een raid 1 voor mijn foto's/video's/doc's welke ook 1x per week naar een externe disk wordt gebackupped). Maar zal ik LVM gebruiken.

Ik wil gewoon 1 pool hebben voor mijn films/series/muziek en dat kan best met LVM. Nu komt er ook Sabnzbd/sickbeard/coutchpotato op te draaien, dus alleen serveren is ook niet het geval, wat kan ik het best gebruiken qua processor (kosten/performance/verbruik in ogenschouw nemend)?

A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Mooi spul!
[...]

In de praktijk wisselt dit, maar verwacht iets in de trend van 200MB/s ipv 250-280MB/s.
Het heeft meer impact op Random Writes, maar daar merk je minder van op een data array uiteraard.
Ik zat gister even te testen; laptop met cat6 (een goede) aangesloten op router, testNAS nog met cat5e (een niet zo'n goede) en had dataoverdracht met gemiddeld 60MB/s, pieken naar 75MB/s, dalen naar 0 (erg onstabiele verbinding ofzo? daar zal ik vanavond wel even plaatje van posten). Dat is met één schijf aangesloten, dus geen raidz oid.

Als ik 200MB/s haal met 4 schijven in Raidz ben ik tevreden. Is prima voor thuisgebruik. Lezen heb ik niet getest gister, maar dat doe ik vanavond wel even.

Overigens haal ik met "Wifi N" krap 8 MB/s overdracht. Valt me vies tegen.

[ Voor 3% gewijzigd door Pixeltje op 09-03-2012 09:45 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
@Roeligan. Elke dual core CPU volstaat wel, het ligt er vooral aan hoe lang je zelf wil wachten... Je tegen SAB zeggen dat hij maar op 1 core mag draaien, dan worden de files altijd nog op je andere core geserveerd en zou je nergens last van hebben tijdens par/rar werkzaamheden. Maar wil je dat alles een beetje vlotjes gaat, kan je misschien naar een QC kijken. Maar dat is geheel van jou eisen van stroomverbruik en kosten afhankelijk.

@Pixeltje
CAT5e of CAT6 zou op afstanden < 40M niets uit moeten maken met Gbit. Test je overigens met SMB? Of iets anders? SMB is sowieso een bagger protocol.

Wifi N op 2.4Ghz of 5Ghz? Maakt nogal verschil.

Even niets...


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Test met AFP.. misschien dat daarom de connectie zo instabiel is?

Hoe dan ook, ik heb eerder al een testje gedaan met deze kabels: de Cat6 kabel scheelt zo'n 20MB/s tov de cat5e.

Wifi N op 5GHz als ik het goed heb, is 2.4 sneller? Ik dacht dat de bandbreedte van 5GHz hoger was.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Als CAT5e en CAT6 verschil maken, is er denk ik iets anders aan de hand. Misschien magnetische storing onderweg? Want in theorie zou het niet uit moeten maken.

5Ghz is sneller. 8MB/s is niet slecht hoor. (64Mbit) Op watvoor afstand zit je?

nieuws: MSI toont Series 7-moederbord met Thunderbolt
Mooi bord voor een dikke DIY NAS! 3x PCIe voor HBA's en Thunderbolt voor een snelle connectie naar je desktop!

[ Voor 19% gewijzigd door FireDrunk op 09-03-2012 10:59 ]

Even niets...


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

FireDrunk schreef op vrijdag 09 maart 2012 @ 10:58:
Als CAT5e en CAT6 verschil maken, is er denk ik iets anders aan de hand. Misschien magnetische storing onderweg? Want in theorie zou het niet uit moeten maken.
Ik denk eerder dat ik een slechte Cat5e kabel heb. De kabel is 20m.. (er loopt een topic hier op GoT over slechte kabels, maar die kan ik zo snel even niet vinden). Kabel is ook al een paar jaar oud en was vrij goedkoop.
5Ghz is sneller. 8MB/s is niet slecht hoor. (64Mbit) Op watvoor afstand zit je?
In principe is wifi-N 300mbps toch? Dan zou ik, overhead daargelaten, 30MB/s moeten kunnen halen. Stel nu dat je 30% kwijt bent aan overhead, afstand (die overigens maar 3-4 meter is, zonder muren ertussen en op dezelfde verdieping) etc, dan zou ik nog steeds 20MB/s moeten halen, right?
nieuws: MSI toont Series 7-moederbord met Thunderbolt
Mooi bord voor een dikke DIY NAS! 3x PCIe voor HBA's en Thunderbolt voor een snelle connectie naar je desktop!
Zeker een mooi bord, zat er net naar te kijken op de FP. Ze zouden een m-ITX ord met thunderbolt uit moeten brengen :) Dan kan het ding aan mijn netwerk en tegelijk via thunderbolt aan m'n mbp.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 04-11 16:45
Verwijderd schreef op donderdag 08 maart 2012 @ 19:40:
[...]
Nuanceren ben ik helemaal voor; en niet al mijn uitspraken zijn even genuanceerd. Maar een sterke opinie is niets mis mee; ik ben iemand die op vele vlakken ver vooruit kijkt en zoekt naar betere of slimmere oplossingen in plaats van wat gemeengoed is. Dat gezegd, ieder moet kijken naar zijn eigen situatie en prioriteiten, waarbij er genoeg situaties denkbaar zijn waarbij iemand nog steeds voor Hardware RAID moet kiezen. Maar die afweging dient wel grondig gemaakt te worden, door de voordelen die ZFS en andere opkomende moderne filesystems.
De nuancering en de stelling ouderwets was ook vooral gericht op "de menigte" en niet zozeer op jouw stelling/mening :). Van de personnen in dit topic ben jij imo een van de mensen met de meest onderbouwde meningen en facts dus op dat vlak zit het wel goed ;).

Ik denk dat we wel kunnen concluderen dat wat er de laatste paginas gezegd is over HW vs SW raid alles goed samenvat. HW raid is niet meer wat het vroeger was en is bijgebeend door SW raid. In se is RAID ook nooit gemaakt met het idee om corrupte sectoren maar om hele disk failures op te vangen. Vandaar dat je er nog een schil bovenop moet leggen wil je dat opvangen. Laat nou net dat zijn waar ZFS koning in is. Geen gezeik, alle sh*t samen.

(Maar ik ga toch echt niet mijn mdadm array opnieuw herinitialiseren naar ZFS :P)
Ik denk eerder dat ik een slechte Cat5e kabel heb. De kabel is 20m.. (er loopt een topic hier op GoT over slechte kabels, maar die kan ik zo snel even niet vinden). Kabel is ook al een paar jaar oud en was vrij goedkoop.
De grootste oorzaken voor snelheidsverlies zitten tegenwoordig bij de bekabeling, de NIC of het protocol.
Je kan best eens kijken waarlangs de kabel loopt. Een flyby langs de microgolfoven en je kan het wel schudden :). Indien het kan zou ik gewoon zelf een kabel afwerken. Eens je de kleurcode en het gepruts gewoon bent is het een 1 minute job. Ga dan zeker naar Cat6 of zelfs Cat6a. Dat laatste is handig als je wat afstand moet doen en misschien later 10GigE wil gebruiken.

Verwijderd

Ik ga in mijn nieuwbouwhuis aan de cat6, mocht ik de boel dan op 1gbit willen zetten dan lukt dat wel (alles onder de 25m, vaak 10m) :)

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Jormungandr schreef op vrijdag 09 maart 2012 @ 11:53:
[...]
[knip]

[...]


De grootste oorzaken voor snelheidsverlies zitten tegenwoordig bij de bekabeling, de NIC of het protocol.
Je kan best eens kijken waarlangs de kabel loopt. Een flyby langs de microgolfoven en je kan het wel schudden :). Indien het kan zou ik gewoon zelf een kabel afwerken. Eens je de kleurcode en het gepruts gewoon bent is het een 1 minute job. Ga dan zeker naar Cat6 of zelfs Cat6a. Dat laatste is handig als je wat afstand moet doen en misschien later 10GigE wil gebruiken.
Wat bedoel je met microgolven? De kabel loopt van de router (die in een houten kast staat) langs een muur waar geen apparaten in de buurt staan, naar mijn bureau. Ook daar staan geen apparaten. Het enige: de kabel loopt over een houten kabelgoot die de verwarmingsbuis aan het zicht moet onttrekken.

De Cat6 kabel die ik nu heb is shielded, en was ook erg duur. Die werkt prima. Ik denk dat ik die cat5e kabel gewoon afschrijf (na 7 jaar ofzo?) en een cat6(a) kabel in elkaar ga zetten, zoals je voorstelt. Heb, om het netjes te doen, iets minder dan 15 meter nodig, dat lijkt me prima haalbaar :)

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
http://www.smallnetbuilde...s/bar/64-5-ghz-dn?see=MAX

De 'snelste' consumenten wifi router haalt dus 82Mbit (10MB/s)

[ Voor 3% gewijzigd door FireDrunk op 09-03-2012 12:58 ]

Even niets...


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Das een deceptie.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Ik volg je niet, jij zegt dat je meer haalt? :)
offtopic:
(even kort, we raken al best offtopic...)


http://www.smallnetbuilde...reviewed?showall=&start=3

Oke, 130Mbit, net uit, en snelste ooit getest...

[ Voor 83% gewijzigd door FireDrunk op 09-03-2012 14:45 ]

Even niets...


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

FireDrunk schreef op vrijdag 09 maart 2012 @ 14:39:
Ik volg je niet, jij zegt dat je meer haalt? :)
offtopic:
(even kort, we raken al best offtopic...)
Nee ik zeg dat ik dat jammer vind, omdat ik in de illusie verkeerde dat 300mbps ook echt 300mbps is, en geen 130 mbps. Wist wel van overhead en signaalsterkteverlies etc, maar meer dan 55% had ik niet gedacht.

Verder een ontopic vraag; Ik ben van plan om FreeNAS op een USB stick te zetten. Als dat nodig is weet ik dat je de schijven met behoud van data over kunt zetten naar een ander FreeNAS systeem, als ik van USB stick moet wisselen, werkt dat dan hetzelfde? Met andere woorden; als ik een nieuwe stick met een nieuwe FreeNAS erop in mijn nas prik, kan ik dat ook doen met behoud van pool en data?

[ Voor 5% gewijzigd door Pixeltje op 09-03-2012 15:22 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Ja, je hoeft alleen nog maar je pool te importeren.

Even niets...


  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Pixeltje schreef op vrijdag 09 maart 2012 @ 15:22:
[...]

Nee ik zeg dat ik dat jammer vind, omdat ik in de illusie verkeerde dat 300mbps ook echt 300mbps is, en geen 130 mbps. Wist wel van overhead en signaalsterkteverlies etc, maar meer dan 55% had ik niet gedacht.
WiFi is een half duplex medium, dus je kan eigenlijk maximaal 150Mb/s doen. 130 / 150 * 100 ~= 87%. Prima dus :)

Je gaat met 802.11g ook niet sneller doen dan (1/2) * 54 Mbps = 27Mbps = 3.3MBps. Als je 2.5 à 3 MBps haalt mag je al in je handjes wrijven :)

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Verwijderd

Ik maak altijd onderscheid tussen bandbreedte (de theoretisch maximum) en wat je uiteindelijk kunt halen; de throughput. De throughput is daadwerkelijk verzonden data; niet de overhead die door alle protocols verloren gaat. Bij PCI-express 1.0 en 2.0 geldt dat het 8/10-bit encodingschema gebruikt wordt; waardoor er sowieso al 20% overhead is. Verder geldt dat PCI-express ook lang niet altijd de maximum throughput kan halen.

Om dit mooi te visualiseren:

PCI-express payload efficiency

Als je daadwerkelijk 1GB/s wilt kunnen vervoeren, kun je het beste een PCI-express interface hebben die 2GB/s aan kan.

In het plaatje hierboven valt ook te zien dat ethernet traffic er in het bijzonder minder goed vanaf komt, en dat de efficiency erg van de payload size afhangt. Op mijn serverbord kan ik de PCI-express payload size instellen van iets van 64 bytes tot 4096 bytes. Testen heb ik nog niet gedaan, tenzij iemand echt geïnteresseerd is?

[ Voor 6% gewijzigd door Verwijderd op 09-03-2012 19:34 ]


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-10 22:23

Pantagruel

Mijn 80486 was snel,....was!

Ziet er uit als twee stuks Mellanox MHEA28-XTC en die werken goed onder Windows en Linux (getest op Ubuntu 11.10 als server en Win 7 x64 als client, IB leverde vanuit RAM disk zo'n 900MB/sec, zie post op ZFSguru forum.
Onder FreeBSD is het me trouwens tot op heden nog niet gelukt om hetzelfde voor elkaar te krijgen. Aangezien de MHEA28-XTC een HCA zonder geheugen is kan OpenIndiana/OpenSolaris/Nexenta er weinig mee aangezien die enkel samen schijnen te werken met IB HCA's die onboard geheugen hebben.
Vorige week heb ik daarom op Ebay een MHEA28-2TC gekocht (256 MB onboard memory) en hopelijk is OI/OS/Nex wel zo ver te krijgen om mbv Comstar een ZFS pool over IB beschikbaar te maken. Voorlopig wachten tot dat de kaart aankomt en zijn weg door de douane vindt.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Verwijderd

Pantagruel: is het een idee om jouw bevindingen met de OFED kernel support in ZFSguru/FreeBSD te melden aan de ontwikkelaars? Wellicht willen ze dan nog verdere informatie van je, zoals dingen uittesten. Maar wellicht kun je ze zo helpen de performance te verbeteren. Werkte het verder wel stabiel? Hoe lang/intensief heb je de support getest?

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Verwijderd schreef op vrijdag 09 maart 2012 @ 19:32:
Op mijn serverbord kan ik de PCI-express payload size instellen van iets van 64 bytes tot 4096 bytes. Testen heb ik nog niet gedaan, tenzij iemand echt geïnteresseerd is?
Duidelijk verhaal. Die payload size, is dat te vergelijken met de MTU die je in kunt stellen? Daar heb ik met mijn vorige nas namelijk wel even mee zitten spelen. De uitkomst was dat het voor dat apparaat het beste werkte als de MTU zo hoog mogelijk was. De router ondersteund tot maximaal MTU=9xxx, die stond eerst op MTU=15xx, nogal een verschil dus.

Scheelde ongeveer 1MB/s. Had wel weer problemen met sommige websites na die instelling, dus heb alles weer teruggezet.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Verwijderd

Ja, je zou kunnen zeggen dat Payload Size voor PCI-express is wat MTU (Maximum Transmission Unit) voor ethernet is. Zoals bij zoveel interfaces haal je alleen >99% efficiency als je de lijn continu bezig houdt met daadwerkelijke data. Bij kleine berichtjes elke keer zijn er voldoende momenten dat er niets nuttigs gebeurt op de lijn.

Dit is bijvoorbeeld ook de reden dat TCP/IP een 'TCP Receive Window' heeft, waarbij in feite meerdere requests tegelijk worden afgehandeld; zeg maar een hogere queue depth. Zonder die feature zou je enorm lage throughput halen over gigabit. Dit heeft alles te maken met het Bandwidth Delay Product, waarmee de bandbreedte met latency wordt vergeleken. Vooral interfaces met een groot Bandwidth Delay Product hebben moeite de lijn continu bezet te houden en hebben dus baat bij optimalisatie, zoals het verhogen van de MTU en TCP Receive Window, enzovoorts.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-10 22:23

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op vrijdag 09 maart 2012 @ 20:07:
Pantagruel: is het een idee om jouw bevindingen met de OFED kernel support in ZFSguru/FreeBSD te melden aan de ontwikkelaars? Wellicht willen ze dan nog verdere informatie van je, zoals dingen uittesten. Maar wellicht kun je ze zo helpen de performance te verbeteren. Werkte het verder wel stabiel? Hoe lang/intensief heb je de support getest?
Op zich wel een optie, uitvinden waar ik mijn bevindingen en vragen kan deponeren. In het forum van FreeBSD zelf is er erg weinig info rondom IB.
Sec gezien werkt het, maar verder dan een iperf/hperf testrun tussen de Windows 7 x64 bak en een ZFSguru 0.0.-beta3/FreeBSD 9 custom OFED kernel test bak ben ik nooit gekomen (zie wederom ZFSGuru). SRP target setup zoals David Hunt in zijn blog laat zien mbv scstadmin is er niet (scstadmin ontbreekt in FreeBSD), maar ook de richting FreeBSD geporte IB tools zijn niet zo uitgebreid als die voor linux.
Binnenkort maar eens proberen of er via scstadmin een ZFS pool als SRP target te presenteren is, ZFS on Linux is dan misschien niet de meest ideale situatie, maar in ieder geval heb ik wat om de tijd te doden totdat de MHEA28-2TC IB HCA binnenkomt en OI/OS/Nexenta in het vizier komen. Een rauwe dev als SRP target presenteren was in ieder geval niet al te moeilijk (onder Ubuntu linux dan voor de duidelijkheid).

[ Voor 3% gewijzigd door Pantagruel op 09-03-2012 22:53 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Verwijderd

Je kunt het gewoon mailen naar de ontwikkelaars, of ik doe het voor je als je al je data op pastebin zet. :)

En net even je laatste reactie weer gelezen in die thread, en er ging een lampje branden:
Tested the tmpfs SMB share
Alleen de livecd heeft een werkende tmpfs share dacht ik, want de Root-on-ZFS distro gebruikt standaard helemaal geen tmpfs, terwijl er wel een tmpfs share kan zijn. Verwarrend ja, vandaar dat hij nu pleite is geloof ik. Maargoed als dit klopt dan heb je je systeem filesystem getest en je error kan hiermee ook verband houden; want ik kan CrystalDiskMark prima op mijn gemapte tmpfs-share loslaten.

Dus misschien gewoon nog eens proberen? Met 7 gigabit zou je dus veel beter moeten scoren. Als je dit binnenkort een keer wilt testen: voel je vrij me te DMen, of we spreken af op IRC ook prima.

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik heb hier een Intel RAID Controller SASUC8I, en ik lees dat veel mensen deze kaart flashen, maar kan iemand mij uitleggen waarom het flashen precies gedaan wordt?

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-10 22:23

Pantagruel

Mijn 80486 was snel,....was!

Dutch3men schreef op zaterdag 10 maart 2012 @ 02:28:
Ik heb hier een Intel RAID Controller SASUC8I, en ik lees dat veel mensen deze kaart flashen, maar kan iemand mij uitleggen waarom het flashen precies gedaan wordt?
Flashen van IR (integrated RAID) naar IT (initiator target) mode wordt gedaan om de RAID controller om te zetten naar een 'domme' SATA controller. De reden hier voor is dat het beter is dat ZFS direct toegang heeft tot de hardeschijven voor het data beheer en t berekenen van de pariteitsdata. Door IT mode te flashen verwijder je dus de RAID 'laag' en zit deze ZFS niet langer in het vaarwater.

(Verschillende mensen, waaronder ik zelf, hebben wel een poging gedaan om op een hardware RAID controller een ZFS pool werkend te krijgen door de controller in JBOD of pass through mode te gebruiken. In de regel eindigde dit in corrupte data en veel frustraties)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Pantagruel schreef op zaterdag 10 maart 2012 @ 08:45:
[...]


Flashen van IR (integrated RAID) naar IT (initiator target) mode wordt gedaan om de RAID controller om te zetten naar een 'domme' SATA controller. De reden hier voor is dat het beter is dat ZFS direct toegang heeft tot de hardeschijven voor het data beheer en t berekenen van de pariteitsdata. Door IT mode te flashen verwijder je dus de RAID 'laag' en zit deze ZFS niet langer in het vaarwater.

(Verschillende mensen, waaronder ik zelf, hebben wel een poging gedaan om op een hardware RAID controller een ZFS pool werkend te krijgen door de controller in JBOD of pass through mode te gebruiken. In de regel eindigde dit in corrupte data en veel frustraties)
Oke, dan moet ik de kaart dus ook flashen en nu ben ik aan het zoeken naar de juiste firmware, maar dat valt vies tegen :( Iemand een linkje inclusief de flashtool?

Ik vond deze maar of het de goede is :? ftp://ftp.supermicro.com/.../Firmware/B3/L8i/1.30.00/

[ Voor 5% gewijzigd door FabiandJ op 10-03-2012 17:13 ]


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-10 22:23

Pantagruel

Mijn 80486 was snel,....was!

Dutch3men schreef op zaterdag 10 maart 2012 @ 15:51:
[...]

Oke, dan moet ik de kaart dus ook flashen en nu ben ik aan het zoeken naar de juiste firmware, maar dat valt vies tegen :( Iemand een linkje inclusief de flashtool?

Ik vond deze maar of het de goede is :? ftp://ftp.supermicro.com/.../Firmware/B3/L8i/1.30.00/
Geen idee, maar op ServeTheHome hebben ze er een howto over.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • eX0duS
  • Registratie: Juni 2001
  • Laatst online: 21:02
Heb een behuizing van een QNAP 809 RP:

Afbeeldingslocatie: http://www.a1securitycameras.com/images/security_camera/TS-809U-RP.jpg

Moederbord lijkt defect te zijn, start niet meer op (gaat even aan en meteen weer uit). Voeding lijkt wel te werken, heb ik doorgemeten.
De voeding heeft standaard ATX aansluitingen, dus die kan ik nog mooi gebruiken.

Inmiddels heb ik het moederbord er uit gehaald, en de backplate aan de achterkant. Deze valt naar binnen, en heeft ook niet het standaard ATX formaat.

Nou wil ik natuurlijk het m-ATX moederbord van mijn server er in zetten. Qua formaat past het wel, echter is de uitsparing aan de achterkant te klein (zit wel ongeveer op de goede plek, nog niet nagemeten). Helaas zitten de schroefgaten niet op de goede plek.

Ik dacht er aan ergens een standaard ATX backplate te zoeken en deze er in te zetten.
Misschien dat iemand nog een ander idee hoe ik dit het beste kan plaatsen?

Zie plaatje van de achterkant:
Afbeeldingslocatie: http://image.inesun.com/uploadedimages1/201004/TS-809U-RP/inesunBase1270527655/TS-809U-RP12714097918882.jpg

Het mooiste zou zijn als ik een tray heb waar het moederbord op kan + backplate, zoals dit:

Afbeeldingslocatie: http://desmond.imageshack.us/Himg379/scaled.php?server=379&filename=atxcutqb5.jpg&res=medium

Nog mooier zou zijn als het er precies in zou passen. Al kan ik het maar in de QNAP plaatsen, nog achter de originele beplating, dan zit het uit het zicht en weet niemand beter dan dat het zo hoort...

[ Voor 15% gewijzigd door eX0duS op 11-03-2012 09:02 ]


  • mr_fragle
  • Registratie: Oktober 2000
  • Laatst online: 29-10 12:23

mr_fragle

Don't forget the guide

Dutch3men schreef op zaterdag 10 maart 2012 @ 15:51:
[...]

Oke, dan moet ik de kaart dus ook flashen en nu ben ik aan het zoeken naar de juiste firmware, maar dat valt vies tegen :( Iemand een linkje inclusief de flashtool?

Ik vond deze maar of het de goede is :? ftp://ftp.supermicro.com/.../Firmware/B3/L8i/1.30.00/
Toevallig al gedaan? Ik heb alle overige hardware werkend en wil deze week sas controller aanschaffen. Zal ook geflashed worden, maar zoek eigenlijk iemand met ervaring.... :)

And now the most interresting part of deze grot


  • robkamp
  • Registratie: Maart 2006
  • Laatst online: 27-10 10:15
Ik heb nu de volgende configuratie aan het werk met FreeNAS 8.04:

#ProductPrijsSubtotaal
1Asus E35M1-I€ 94,40€ 94,40
5Western Digital Caviar Green WD30EZRX, 3TB€ 156,50€ 782,50
1Lian Li PC-Q25B€ 110,50€ 110,50
1G.Skill RipjawsX F3-10666CL9D-16GBXL€ 108,10€ 108,10
1be quiet! Pure Power L7 300W€ 35,-€ 35,-
1Samsung 830 series Desktop Upgrade Kit 64GB€ 91,90€ 91,90
Bekijk collectie
Importeer producten
Totaal€ 1.222,40

De 16GB geheugen waar ik bang voor was dat het niet zou werken met dit moederbord werkt gewoon. De SSD wordt gebruikt als read cache.

Ik zal binnenkort een snelheidstest uitvoeren en hier publiceren.

Verwijderd

Vergeet niet de SSD in partities op te delen, zodat je een gedeelte opzij zet als spare space (overprovisioning). Niet de hele device gebruiken dus.

Heb je ook cijfers van het verbruik?

  • robkamp
  • Registratie: Maart 2006
  • Laatst online: 27-10 10:15
Verwijderd schreef op zondag 11 maart 2012 @ 13:56:
Vergeet niet de SSD in partities op te delen, zodat je een gedeelte opzij zet als spare space (overprovisioning). Niet de hele device gebruiken dus.

Heb je ook cijfers van het verbruik?
Nog niet ;-) Moet ik nog even uitzoeken!

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
mr_fragle schreef op zondag 11 maart 2012 @ 13:27:
[...]


Toevallig al gedaan? Ik heb alle overige hardware werkend en wil deze week sas controller aanschaffen. Zal ook geflashed worden, maar zoek eigenlijk iemand met ervaring.... :)
Nope nog niet gedaan.

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 19:19
Dutch3men schreef op zaterdag 10 maart 2012 @ 15:51:
[...]

Oke, dan moet ik de kaart dus ook flashen en nu ben ik aan het zoeken naar de juiste firmware, maar dat valt vies tegen :( Iemand een linkje inclusief de flashtool?

Ik vond deze maar of het de goede is :? ftp://ftp.supermicro.com/.../Firmware/B3/L8i/1.30.00/
De firmware

Uitleg

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

En ja hoor.. ik was er al bang voor; na betalen (natuurlijk pas na het betalen) was het meoderbord ineens niet meer op voorraad. Na 8 werkdagen eindelijk antwoord gekregen op mijn vraag wanneer dat ding eindelijk geleverd gaat worden, levertijd is onbekend en 13 leveranciers kunnen 'm niet leveren nu.

Met andere woorden, ding is niet meer te krijgen in europa.

Nu moet ik dus op zoek naar een vervanger voor de pricewatch: Asus P8H67-I .:(

Ik ben dus (weer) op zoek naar een m-itx moederbord voor s1155 met ondersteuning voor de IGP van mijn intel G630T, minimaal 5 SATA poorten en 2 DDR3 geheugensloten.. iemand nog suggesties?

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Verwijderd

DH67BL :)

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Die is m-atx.. past niet in de kast :( Thanks though.

Zercom komt nu met de Jetway NF9A-Q67, maar die is twee keer zo duur, en ik heb geen idee van de kwaliteit van "jetway"..

Stel dat ik een moederbord kies met 4 SATA poorten, kan het (ivm FreeNAS+ZFS) kwaad om 2 schijven op SATA300 poorten en 2 schijven op SATA600 poorten aan te sluiten? De meeste moederborden hebben van beide aansluitingen maar 2 stuks namelijk. Deze, bijvoorbeeld:
pricewatch: Intel Desktop Board DH67CF (B3)

[ Voor 74% gewijzigd door Pixeltje op 13-03-2012 12:09 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:40
Pixeltje schreef op dinsdag 13 maart 2012 @ 11:44:
[...]
Stel dat ik een moederbord kies met 4 SATA poorten, kan het (ivm FreeNAS+ZFS) kwaad om 2 schijven op SATA300 poorten en 2 schijven op SATA600 poorten aan te sluiten? De meeste moederborden hebben van beide aansluitingen maar 2 stuks namelijk. Deze, bijvoorbeeld:
pricewatch: Intel Desktop Board DH67CF (B3)
Dat maakt niet uit. Normale schijven zijn toch niet in staat om SATA 600 vol te trekken.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Curlymo schreef op dinsdag 13 maart 2012 @ 12:12:
[...]


Dat maakt niet uit. Normale schijven zijn toch niet in staat om SATA 600 vol te trekken.
Oke, maar het maakt voor de "raid" (raid) array ook niet uit dat hij via twee controller de schijven aanstuurt?

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:40
Nope, voor ZFS niet.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Thanks.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:49
Pixeltje schreef op dinsdag 13 maart 2012 @ 11:33:
En ja hoor.. ik was er al bang voor; na betalen (natuurlijk pas na het betalen) was het meoderbord ineens niet meer op voorraad. Na 8 werkdagen eindelijk antwoord gekregen op mijn vraag wanneer dat ding eindelijk geleverd gaat worden, levertijd is onbekend en 13 leveranciers kunnen 'm niet leveren nu.

Met andere woorden, ding is niet meer te krijgen in europa.

Nu moet ik dus op zoek naar een vervanger voor de pricewatch: Asus P8H67-I .:(

Ik ben dus (weer) op zoek naar een m-itx moederbord voor s1155 met ondersteuning voor de IGP van mijn intel G630T, minimaal 5 SATA poorten en 2 DDR3 geheugensloten.. iemand nog suggesties?
Het bord is in mijn ogen luxer dan de duurdere broer Deluxe versie. Ik had het bord 3 weken geleden bij MyCom besteld maar hij is ook al geannuleerd verleden week. In de tussentijd nog snel bij Azerty besteld en die hadden hem gewoon op voorraad.

Wel jammer dat ie niet meer te leveren is. Ik zou graag nog zo'n bord willen om te gebruiken voor mijn NAS.

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

GioStyle schreef op dinsdag 13 maart 2012 @ 12:25:
[...]


Het bord is in mijn ogen luxer dan de duurdere broer Deluxe versie. Ik had het bord 3 weken geleden bij MyCom besteld maar hij is ook al geannuleerd verleden week. In de tussentijd nog snel bij Azerty besteld en die hadden hem gewoon op voorraad.

Wel jammer dat ie niet meer te leveren is. Ik zou graag nog zo'n bord willen om te gebruiken voor mijn NAS.
Ja dat vind ik dus ook.. de deluxe moet het stellen met 4 SATA poorten.

Nouja, heb nu het intel desktop board voorgesteld.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • mr_fragle
  • Registratie: Oktober 2000
  • Laatst online: 29-10 12:23

mr_fragle

Don't forget the guide

Binnen een week zal ik een sas-controller moeten uitzoeken (zelf opgelegde eis :) ).

Voor mijn eisen:
  • 3tb discs
  • geen raid (dus naar IT te flashen of liever nog standaard in IT staan/reeds geflashed zijn)
  • 8 sata devices
  • PCI-e
heb ik de volgende slachtoffers in gedachten. Zie ik nu wat over het hoofd of voldoen deze allemaal?
  • LSI2008
  • MegaRAID SAS9240-8i
  • IBM SAS controller MR10i
  • IBM serveRAID M1015 (SAS9220-8i)

[ Voor 6% gewijzigd door mr_fragle op 13-03-2012 18:26 . Reden: kleine toevoeging :) ]

And now the most interresting part of deze grot


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 03-11 10:05
Volgens mij heeft de MegaRAID een niet-uitschakelbare raid layer en is de MR10i van een oudere generatie die geen >2TB aankan en waarvan het ook de vraag is of hij flashbaar is naar IT, maar ik kan me zo vergissen. LSI2008 is overigens geen kaart, maar een chip. Kaarten met deze chip zijn soms wel, maar soms ook niet te flashen. Verder is het voor zover ik weet wel de enige (recente) chip die überhaupt kan worden ingezet als HBA.

Ik denk dat je met de M1015 of één van deze: http://www.lsi.com/produc...omponents/Pages/HBAs.aspx sowieso wel goed zit.

[ Voor 13% gewijzigd door HarmoniousVibe op 13-03-2012 19:05 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Iemand ervaring met deze schijven in zijn NAS?

pricewatch: Seagate Barracuda Green 5900.3, 2TB

Is op dit moment de goedkoopste 2TB schijf die er is.
Deze wil ik in combinatie gebruiken met een WD20EARS. Lijkt me dat het geen probleem zal geven?

Ubuntu omgeving, later maak ik er een RAID5 van in mdadm.

Mooie review:
http://www.storagereview....point_f4eg_review_hd204ui

Op het vermogen wat hij trekt bij het opstarten na is het een prima schijf die goed meedoet met de rest van de 2TB schijven.

[ Voor 20% gewijzigd door Dennisik op 13-03-2012 22:25 ]


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

Dennisik schreef op dinsdag 13 maart 2012 @ 22:14:
Iemand ervaring met deze schijven in zijn NAS?

pricewatch: Seagate Barracuda Green 5900.3, 2TB

Is op dit moment de goedkoopste 2TB schijf die er is.
Deze wil ik in combinatie gebruiken met een WD20EARS. Lijkt me dat het geen probleem zal geven?

Ubuntu omgeving, later maak ik er een RAID5 van in mdadm.

Mooie review:
http://www.storagereview....point_f4eg_review_hd204ui

Op het vermogen wat hij trekt bij het opstarten na is het een prima schijf die goed meedoet met de rest van de 2TB schijven.
Eerder in dit topic is gezegd dat je in dezelfde pool beter dezelfde schijven kunt hebben, dus als je een raid 5 pool wilt maken met de WD20AERS, kun je het beste zoveel van die schijven bijkopen om tot een knappe opstelling te komen, of de WD niet gebruiken en de hele array op te bouwen uit de seagate schijven.

Ik gebruik zelf de seagate 5900 rpm schijven, maar die van mij hebben een ander serienummer (pricewatch: Seagate Barracuda LP ST32000542AS, 2TB) maar ben er best tevreden over ;)

[ Voor 5% gewijzigd door Pixeltje op 14-03-2012 10:45 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:49
Pixeltje schreef op dinsdag 13 maart 2012 @ 12:52:
[...]


Ja dat vind ik dus ook.. de deluxe moet het stellen met 4 SATA poorten.

Nouja, heb nu het intel desktop board voorgesteld.
Verwachte levertijd bij Azerty van het Asus moederbord is 3 weken.
Hopelijk komen er nog nieuwe aangeleverd.

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

GioStyle schreef op woensdag 14 maart 2012 @ 11:30:
[...]


Verwachte levertijd bij Azerty van het Asus moederbord is 3 weken.
Hopelijk komen er nog nieuwe aangeleverd.
Ja, bij zercom ook ongeveer, ik wil er niet op wachten eigenlijk. Dan haal ik in de toekomst wel een HBA als ik meer schijven nodig heb.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Pixeltje schreef op woensdag 14 maart 2012 @ 10:44:
[...]


Eerder in dit topic is gezegd dat je in dezelfde pool beter dezelfde schijven kunt hebben, dus als je een raid 5 pool wilt maken met de WD20AERS, kun je het beste zoveel van die schijven bijkopen om tot een knappe opstelling te komen, of de WD niet gebruiken en de hele array op te bouwen uit de seagate schijven.

Ik gebruik zelf de seagate 5900 rpm schijven, maar die van mij hebben een ander serienummer (pricewatch: Seagate Barracuda LP ST32000542AS, 2TB) maar ben er best tevreden over ;)
Mwah daar zijn de meningen over verdeeld. Ik krijg van andere mensen te horen dat verschillende schijven in een pool beter zijn. Vriend werkt in data center en had iets in RAID1 staan.
1ste schijf ging na 814uur kapot.
2de schijf ging na 814 en 10 minuten kapot.
Beiden zelfde typenummer en aan koopdatum.

Kwa performance ontlopen de barracuda en de WD20EARS elkaar niet dus dat scheelt.
Zit alleen beetje in te lezen over 4K sectoren maar begrijp dat nog niet helemaal icm met Ubuntu, maar dat komt nog wel.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Is uiteindelijk toch de WD20ERX geworden.

Vraagje wie heeft hun Ubuntu server ook als router draaien?
Ik heb daar nu de mogelijkheid voor, is het aan te raden?

Ik heb al ervaring met bind9 en dhcpd resolve.conf en dergelijke.
Dat moet wel lukken.

Ik vroeg mij af, hoe zit het met poort forward.
Er draaien aantal services op mijn router, maar ik neem aan dat het poort forwarden dan zinloos is.
Omdat server ook de router is, maar gooit linux server ze automatisch allemaal dicht of zijn ze automatisch allemaal beschikbaar de poorten die lokaal worden gebruikt?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 03-11 10:05
Dennisik schreef op vrijdag 16 maart 2012 @ 17:01:
Is uiteindelijk toch de WD20ERX geworden.

Vraagje wie heeft hun Ubuntu server ook als router draaien?
Ik heb daar nu de mogelijkheid voor, is het aan te raden?

Ik heb al ervaring met bind9 en dhcpd resolve.conf en dergelijke.
Dat moet wel lukken.

Ik vroeg mij af, hoe zit het met poort forward.
Er draaien aantal services op mijn router, maar ik neem aan dat het poort forwarden dan zinloos is.
Omdat server ook de router is, maar gooit linux server ze automatisch allemaal dicht of zijn ze automatisch allemaal beschikbaar de poorten die lokaal worden gebruikt?
Dit heeft weinig met NAS te maken, maar vooruit: ik heb dat ook. Simpelweg twee interfaces, waarvan er één naar mijn EttH-aansluiting gaat (publiek IP) en ééntje naar een router die ik heb ingezet als switch/AP.

Standaard is het zo, dat alle inkomende verbindingen worden afgehandeld door de server/router. Stel je draait een webserver op poort 80 op zowel je server als op een PC die in je LAN zit, zal je server het request afhandelen. Uiteraard zal er zonder firewall geen restrictie zitten op inkomende of uitgaande verbindingen. Zonder firewall zijn dus alle poorten open (net als in elk ander OS).

Ook kun je port forwarding doen op je server. Als je inkomende verbindingen op poort 80 doormapt naar die andere PC, zal die PC dus het http request afhandelen.

Zelf gebruik ik shorewall (CLI-based) voor het managen van mijn router en firewall. Hiermee kun je dmv eenvoudige tabelletjes je rules samenstellen:

code:
1
2
3
4
5
6
7
# sshd
ACCEPT      net     $FW     tcp 2222

# Xbox 360
DNAT        net     loc:192.168.1.3 tcp 3074
DNAT        net     loc:192.168.1.3 udp 3074
DNAT        net     loc:192.168.1.3 udp 88


Ik heb de default policy dat alle inkomende verbindingen worden gedropt (net all DROP in de policy-tabel), maar in dit voorbeeld accepteer ik dus verbindingen op poort 2222 van mijn server en heb ik een aantal port forwards ingesteld naar mijn Xbox tbv Xbox Live Gold gaming. Werkt vrij intuïtief wat mij betreft.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Bedankt voor je antwoord iig, ik zal er nog eens naar kijken!

Het was meer de vraag zit er al een firewall in Linux die alle poorten blokkeert.
Maar daar zal google wel even voor gebruiken.

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 30-10 23:00

afterburn

No more...

Ik wil zelf een NASje gaan bouwen omdat ik totaal niet tevreden ben met de performance van de el-cheapo nas die ik nu heb staan. Nu heb ik nog een Q6600 en geheugen liggen in mijn oude pc sinds ik ben overgestapt naar een Mac.

Is dit een beetje bruikbare CPU als je het verbruik nog een beetje onder controle wilt houden? Ik zou er dan een uATX bordje bij kopen en een kastje waar de schijven in kunnen.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Heb die Q6600 in computer zitten, leuke CPU maar zal behoorlijk wat stroom vreten volgens mij voor een NAS.

Als eerst de vraag wat wil je met je NAS gaan doen, dan kan je de vraag beantwoorden of het wat is.

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

afterburn schreef op zaterdag 17 maart 2012 @ 01:09:
Ik wil zelf een NASje gaan bouwen omdat ik totaal niet tevreden ben met de performance van de el-cheapo nas die ik nu heb staan. Nu heb ik nog een Q6600 en geheugen liggen in mijn oude pc sinds ik ben overgestapt naar een Mac.

Is dit een beetje bruikbare CPU als je het verbruik nog een beetje onder controle wilt houden? Ik zou er dan een uATX bordje bij kopen en een kastje waar de schijven in kunnen.
Als je ( zoals Dennis al zegt) bedacht hebt wat je de Nas wilt laten doen, en je kiest ervoor om de q6600 te gebruiken kun je besluiten om hem te underclocken. Het verbruik zal daarmee afnemen maar het heeft logischerwijs ook gevolgen voor power die het ding nog kan leveren.

Het scheelt je natuurlijk wel de aanschafkosten van een nieuwe CPU.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • _Apache_
  • Registratie: Juni 2007
  • Laatst online: 20:20

_Apache_

For life.

Pixeltje schreef op zaterdag 17 maart 2012 @ 10:13:
Als je ( zoals Dennis al zegt) bedacht hebt wat je de Nas wilt laten doen, en je kiest ervoor om de q6600 te gebruiken kun je besluiten om hem te underclocken. Het verbruik zal daarmee afnemen maar het heeft logischerwijs ook gevolgen voor power die het ding nog kan leveren.

Het scheelt je natuurlijk wel de aanschafkosten van een nieuwe CPU.
Klopt, dat ben ik nu ook precies aan het doen met mijn HTPC. Een E5200 heeft prima power (45nm, 2x 2,5Ghz) maar de northbridge word wat warmpjes. Daarom laat ik hem nu aanstaan met een temperatuur meter (coretemp met logging) en ga ik morgen aan de slag met het downclocken, zo kan ik precies zien wat voor effect het heeft op de temperatuur. Ik denk dat hij zelfs nog probleemloos draait op 2x 1,5Ghz

[ Voor 3% gewijzigd door _Apache_ op 17-03-2012 10:34 ]

Zero SR/S 17.3kWh / 2.7 kWP PV / Xtend WP 5kW + HRSolar zonneboiler


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
[SUM]  0.0-10.0 sec  7.22 GBytes  6.17 Gbits/sec


Mijn eerste Infiniband testjes :)

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-10 22:23

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op zaterdag 17 maart 2012 @ 14:38:
[SUM]  0.0-10.0 sec  7.22 GBytes  6.17 Gbits/sec


Mijn eerste Infiniband testjes :)
Netjes, iperf/hperf neem ik aan. (Een pietsje meer info is welkom ;) )

[ Voor 7% gewijzigd door Pantagruel op 17-03-2012 16:08 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 19:15

Pixeltje

Woo-woohoo!

FireDrunk schreef op zaterdag 17 maart 2012 @ 14:38:
[SUM]  0.0-10.0 sec  7.22 GBytes  6.17 Gbits/sec


Mijn eerste Infiniband testjes :)
Dat is rap. is dit 'out of the box' of heb je al wat optimalisaties doorgevoerd? (Infiniband moet tot 10gbit kunnen dacht ik?)

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 31-10 20:08
Test met iperf en IPoIB tussen 2 VM's die allebei een eigen kaartje via VT-d hebben gekregen.
Geen optimalisaties (hoewel ik wel geprobeerd heb met iperf meer te halen, maar dat maakte niets uit)

Even niets...

Pagina: 1 ... 96 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.