• Mirickle
  • Registratie: Oktober 2000
  • Laatst online: 22-12 14:20
Hoe zijn de ervaringen hier met de verschillende "green" 3 TB disks voor NAS gebruik?

Deze dus:
Seagate Barracuda 7200.14 ST3000DM001
Western Digital Green WD30EZRX

Als ik de rating op Newegg moet geloven zijn ze niet erg betrouwbaar (veel uitval, veel DOA). Daarnaast heeft de WD ook nog excessieve head parking als mogelijk probleem.

Ik overweeg een ZFS-bak met 3 schijven in RAID-Z1, maar je hebt weinig aan zo'n mooi filesysteem als de onderliggende disken onbetrouwbaar zijn...

WD Reds schijnen het wat beter te doen, maar dan zit je weer met TLER dus niet geschikt voor ZFS.

[ Voor 6% gewijzigd door Mirickle op 25-04-2013 21:19 ]


  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Mirickle schreef op donderdag 25 april 2013 @ 21:18:
WD Reds schijnen het wat beter te doen, maar dan zit je weer met TLER dus niet geschikt voor ZFS.
Huh, wat? Reds zijn juist voor NAS doeleinden bedoeld...

TLER betekend dat de schijf niet meer dan een minuut gaat wachten op een sector die hij niet kan lezen, wat prima is voor ZFS, dan is het maar een error, dan leest ZFS het wel van een andere schijf.

  • analog_
  • Registratie: Januari 2004
  • Niet online
Kompaan schreef op donderdag 25 april 2013 @ 22:09:
[...]

Huh, wat? Reds zijn juist voor NAS doeleinden bedoeld...

TLER betekend dat de schijf niet meer dan een minuut gaat wachten op een sector die hij niet kan lezen, wat prima is voor ZFS, dan is het maar een error, dan leest ZFS het wel van een andere schijf.
Wat betekend dat je ZFS vaker staat te resilveren dan effectief nodig, software raid heeft zoals hij goed begrepen heeft meer baat bij TLR-less schijven. Ik heb dit al eens eerder besproken met Firedrunk en CIPHER denk ik. Netto verschuif je het probleem in tijd naar een compleet rotte disk tov. enkele sector failures -> degraded raid -> disk vervangen, geld.

[ Voor 10% gewijzigd door analog_ op 25-04-2013 23:00 ]


Verwijderd

TLER is niet gevaarlijk zolang je maar redundancy hebt. Zodra je die redundancy verliest, zoals een degraded RAID-Z, dan wil je juist geen TLER hebben omdat dat je 'last line of defense' is. De laatste kans om de inhoud van de data te krijgen, alle andere protectie-mechanismen zijn doorbroken. Dan is TLER dus juist gevaarlijk!

Om die reden kun je prima TLER uitschakelen bij ZFS in combinatie met normale HBA controllers zonder RAID engine met eigen firmware die de disk timeouts kunnen beïnvloeden. Bij gebruik van Hardware RAID + ZFS moet je juist TLER aan laten anders verdwijnen de disks helemaal vanuit het perspectief van ZFS. Maar Hardware RAID + ZFS is een slechte combinatie.

Met TLER disabled kan je eigen operating system de timeout 'overrulen' door naar dezelfde plek te schrijven met redundante data verkregen van de overige disks. Deze potentie verlies je zodra je TLER gebruikt. Het is een beperking van je potentiaal om de data van een weak sector toch te krijgen met hogere latency tot gevolg. TLER capped die latency op een maximum onder de 10 seconden, waardoor vrij domme firmware in hardware RAID implementaties de disk niet detachen. Wat een ontwerp... Dat kan ik beter. :)

  • Mirickle
  • Registratie: Oktober 2000
  • Laatst online: 22-12 14:20
En schijnbaar is het (conclusie na enig googlen) op die Reds niet mogelijk om (op de disk iig) TLER uit te schakelen.
Vandaar mijn vraag over de betrouwbaarheid van de "greens".

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
@CiPHER, maar op het moment dat een disk zijn stinkende best staat te doen om een sector uit te lezen, kan je er toch niet ondertussen naar schrijven? Dan krijg je toch gewoon commando timeouts?

Even niets...


  • beodepeo
  • Registratie: Oktober 2009
  • Laatst online: 28-01 14:46
En, vraag ik me af, is het zo dat die langere periode van retries ook daadwerkelijk helpen om nog data terug te krijgen, statistisch gezien? Of is het uiteindelijk alleen uitstel van executie?

[ Voor 5% gewijzigd door beodepeo op 26-04-2013 20:38 ]


Verwijderd

Mirickle schreef op donderdag 25 april 2013 @ 21:18:
Hoe zijn de ervaringen hier met de verschillende "green" 3 TB disks voor NAS gebruik?

Deze dus:
Seagate Barracuda 7200.14 ST3000DM001
Western Digital Green WD30EZRX

Als ik de rating op Newegg moet geloven zijn ze niet erg betrouwbaar (veel uitval, veel DOA). Daarnaast heeft de WD ook nog excessieve head parking als mogelijk probleem.

Ik overweeg een ZFS-bak met 3 schijven in RAID-Z1, maar je hebt weinig aan zo'n mooi filesysteem als de onderliggende disken onbetrouwbaar zijn...

WD Reds schijnen het wat beter te doen, maar dan zit je weer met TLER dus niet geschikt voor ZFS.
Eeeh, die Seagate is geen 'green' schijf. Heb er hier een aantal 24/7 draaien al een klein 1,5 jaar zonder problemen. Niet in Raid trouwens.

  • Bachatero
  • Registratie: December 2007
  • Laatst online: 10-02 00:56
Is een USB stick (flash drive) betrouwbaar genoeg om er FreeNAS 8.3 op te installeren ?
Of is het toch raadzaam om freeNAS op een interne (PATA/SATA) disk te installeren?

Ik heb nog twee PATA aansluitingen op het moederboard over.
Als ik van USB stick ga booten kan ik deze PATA aansluitingen mischien nog gebruiken voor twee PATA drives in mirror.

Wat zijn de ervaringen tot nu toe met booten vanaf USB stick voor een server met FreeNAS.


P.S.: De hardware:
Supermicro SC743
SuperMicro X6DHT-G

[ Voor 6% gewijzigd door Bachatero op 27-04-2013 12:17 ]


  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Bachatero schreef op zaterdag 27 april 2013 @ 11:49:
Is een USB stick (flash drive) betrouwbaar genoeg om er FreeNAS 8.3 op te installeren ?
Of is het toch raadzaam om freeNAS op een interne (PATA/SATA) disk te installeren?
Zelf gebruik ik een OCZ Rally2 8GB en met 2 van deze heb ik hetzelde ondervonden: na een paar weken lijkt het file systeem corrupt te geraken. Rebooten werkt dan niet meer en ben ik genoodzaakt om de flash drive met diskpart leeg te maken op mijn laptop, om dan vervolgens weer met de ISO FreeNAS te installeren. Kwestie van het config bestand weer in te laden en dan ist ie weer up and running.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat het heel erg afhankelijk is van de USB stick controller en de USB controller op het moederbord. Als je echt zeker wilt zijn is een kleine SSD misschien beter ja. Vroeger had Transcend ook flash geheugen op PATA trouwens.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
beodepeo schreef op vrijdag 26 april 2013 @ 20:36:
En, vraag ik me af, is het zo dat die langere periode van retries ook daadwerkelijk helpen om nog data terug te krijgen, statistisch gezien? Of is het uiteindelijk alleen uitstel van executie?
Daar is helaas echt bar weinig data over te vinden... Hardeschijf fabrikanten willen die info niet geven...
Dat schaad hun imago ofzo denken ze...

Even niets...


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat het ook wisselende resultaten geeft, zelfs bij dezelfde drives. Het lijkt me ook moeilijk reproduceerbaar op een realistische manier.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Inderdaad, dus of je er in "The Real World" last van gaat krijgen is maar de vraag...

Even niets...


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Waardoor de vraag rijst of TLER op drives wel iets uitmaakt op ZFS systemen, niet draaiend in corporate omgevingen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Ik vind het niet echt belangrijk... Tis maar net waarmee je het goedkoopst uitkomt, of wat je al hebt liggen... Verder zou ik me er niet heel erg druk over maken...

Even niets...


  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Verwijderd schreef op donderdag 25 april 2013 @ 23:19:
TLER is niet gevaarlijk zolang je maar redundancy hebt. Zodra je die redundancy verliest, zoals een degraded RAID-Z, dan wil je juist geen TLER hebben omdat dat je 'last line of defense' is. De laatste kans om de inhoud van de data te krijgen, alle andere protectie-mechanismen zijn doorbroken. Dan is TLER dus juist gevaarlijk!

Om die reden kun je prima TLER uitschakelen bij ZFS in combinatie met normale HBA controllers zonder RAID engine met eigen firmware die de disk timeouts kunnen beïnvloeden. Bij gebruik van Hardware RAID + ZFS moet je juist TLER aan laten anders verdwijnen de disks helemaal vanuit het perspectief van ZFS. Maar Hardware RAID + ZFS is een slechte combinatie.

Met TLER disabled kan je eigen operating system de timeout 'overrulen' door naar dezelfde plek te schrijven met redundante data verkregen van de overige disks. Deze potentie verlies je zodra je TLER gebruikt. Het is een beperking van je potentiaal om de data van een weak sector toch te krijgen met hogere latency tot gevolg. TLER capped die latency op een maximum onder de 10 seconden, waardoor vrij domme firmware in hardware RAID implementaties de disk niet detachen. Wat een ontwerp... Dat kan ik beter. :)
Conclusie van het verhaal?

Beter een RAIDZ2/RAID6 dan je zorgen maken over TLER?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Dat sowieso... Ik heb vaker schijven gehad die gewoon sterven dan schijven die heel veel bad sectors geven.
Nou is mijn ervaring geen maatstaaf natuurlijk, maar voor mijn gevoel gaan schijven vaker gewoon kapot.
Een individuele bad sector komt wel eens voor ja, en dan pakt RAIDZ de sector eventueel op, of de schijf doet al een sector swap met behoud van data...

Even niets...


  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Wat is het soldeerwerk op de backplanes van Norco slecht zeg. Of heb ik een slecht exemplaar?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Pic's or it didn't happen :+

Even niets...


  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Afbeeldingslocatie: http://farm9.staticflickr.com/8396/8690013744_459a2847cc_z.jpg

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
revox862 schreef op zondag 28 april 2013 @ 15:17:
Wat is het soldeerwerk op de backplanes van Norco slecht zeg. Of heb ik een slecht exemplaar?
soldeerwerk Norco is sowieso niet top en jouw exemplaar ziet er niet netjes uit. Aangezien je een gelig exemplaar hebt denk ik dat je deze niet dit jaar hebt gekocht? Als het geen problemen geeft is het ook niet een probleem.
Zelf heb ik overigens wel een exemplaar gehad die spontaan in de fik vloog en daardoor sluiting veroorzaakte.
Algemeen zijn de Norco's veel kast voor het geld maar de kostenbesparing zie je wel terug aan de details op de backplanes en afwerking van de metalen delen. Voor thuisgebruik naar mijn mening prima en voor zakelijk gebruik zou ik zonder aarzelen het dubbele uitgeven aan een supermicro.

  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Vorige maand nieuw gekocht bij Ri-vier en ik krijg er steeds meer spijt van. Ik had inderdaad liever een Supermicro gekocht.

  • kabonacha
  • Registratie: Februari 2013
  • Laatst online: 04-06-2021
Zit hier zelf al een tijd de forums af te schuimen en heb nu eindelijk de tijd gehad om wat test setups te maken. Vriend van me heeft iets oudere server binnen gebracht en hiermee heb ik het volgende getest:

1)ZFSguru as VM onder ESXi (deze is wel niet goed geconfigureerd, was een vlugge test)
2)ZFSguru direct op de hardware geïnstalleerd

Hardware:
mobo: Supermicro PDSBM-LN2+M-BL02
CPU: 64-bit quad core Intel(R) Xeon(R) CPU X3220 @ 2.40GHz
HDD's: 2 x WD RED 3 TB, 1 x Seagate barracuda 320GB
RAM: 4GB DDR2

ESXi aan de praat krijgen was niet eenvoudig, installeren was natuurlijk niet moeilijk maar er blijkt een compatibiliteits probleem te zijn met de onboard ethernet adapter van het mobo (intel 82573). Na applyen van een patch was dit opgelost en kon ik ZFSguru installeren.

Doordat dit een iets oudere server is kon ik speitig genoeg geen PCI passthrough inschakelen voor de raid controller die er in zat. Alle schijven zaten dus verbonden op een onboard SATA 2 controller.

ZFSguru installeren ging heel gemakkelijk en was dood eenvoudig te configureren via de website. Vlug de eerste pool aangemaakt, 2x WD RED 3TB in RAID0. ZFSguru staat geinstalleerd op een virtuele harddisk van 8GB en kreeg zoveel mogelijk RAM, 3GB dacht ik. Na wat te spelen met de configuratie eens een samba share aangemaakt en wat benchmarks gedraaid. Voor ik de snelheid teste van de SAMBA share draaide ik de 64GB benchmark onder ZFSguru zelf.

Dit viel dik tegen...
Read: 133MB/s
Write: 97MB/s

Via de samba share haalde ik maar een luttele 20-30MB/s.

Dit ligt puur aan de configuratie van ESXi natuurlijk, maar het grote verschil met de SAMBA share laat me hier wel wat nattigheid voelen.

Heb dan eens ESXi buiten gegooid en ZFSguru rechtsteeks op de hardware geïnstalleerd.
De resultaten waren als volgt:
Read: 191MB/s
Write: 143MB/s

Niet slecht, maar weet dat hier een pool getest word van 2x WD RED in RAID 0!
Dan ook maar eens de SAMBA share test gedaan en dan kwam ik op 45MB/s.

De test van de samba share heb ik gewoon via windows gedaan en dan gewoon gekeken onder details naar de geschatte overdracht snelheid. Deze gegevens zijn dus ook niet 100% accuraat.

Beetje later beginnen zoeken naar aanleidingen voor deze toch wel mindere performance.
Na wat research in het grote ZFS topic was gebleken dat ik vergeten was de sector grote aan te passen voor mijn pool. Deze moest op 4K staan, ashift = 12.

Opnieuw dezelfde benchmark gedraaid en hoera!
Read: 270MB/s
Write: 237MB/s

Betere benchmarks dan dit kan ik me met deze setup niet inbeelden!
Nu eens de samba share getest en deze gaf 63MB/s aan write en slechts 45MB/s aan read...

Dit kom ongeveer uit op wat ik nu ervaar via mijn netwerk tussen 2 windows machines (cifs share).

Zijn er onder jullie mensen die veel betere performance halen via samba?
Zou toch graag de volle 100MB-125MB willen halen.

Het volledige network is gigabit (cat5e, server word aangesloten op cat6 sFTP).

Natuurlijk voor ZFS optimaal te laten werken heb ik meer RAM nodig en paar SSD's.
Maar kan dit impact hebben op de performance van de SAMBA share?

Ik probeer dus eigenlijk de bottleneck van de SAMBA share te achterhalen vooraleer ik mijn definitieve hardware aanschaf.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
revox862 schreef op zondag 28 april 2013 @ 21:10:
Vorige maand nieuw gekocht bij Ri-vier en ik krijg er steeds meer spijt van.
wat is er mis mee dan of is het puur de afwerking?

  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Voornamelijk de afwerking, maar ik heb ook nog problemen met de SFF-8087 naar SFF-8088 adapters.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
kabonacha schreef op zondag 28 april 2013 @ 21:18:
Zit hier zelf al een tijd de forums af te schuimen en heb nu eindelijk de tijd gehad om wat test setups te maken. Vriend van me heeft iets oudere server binnen gebracht en hiermee heb ik het volgende getest:

1)ZFSguru as VM onder ESXi (deze is wel niet goed geconfigureerd, was een vlugge test)
2)ZFSguru direct op de hardware geïnstalleerd

Hardware:
mobo: Supermicro PDSBM-LN2+M-BL02
CPU: 64-bit quad core Intel(R) Xeon(R) CPU X3220 @ 2.40GHz
HDD's: 2 x WD RED 3 TB, 1 x Seagate barracuda 320GB
RAM: 4GB DDR2

ESXi aan de praat krijgen was niet eenvoudig, installeren was natuurlijk niet moeilijk maar er blijkt een compatibiliteits probleem te zijn met de onboard ethernet adapter van het mobo (intel 82573). Na applyen van een patch was dit opgelost en kon ik ZFSguru installeren.

Doordat dit een iets oudere server is kon ik speitig genoeg geen PCI passthrough inschakelen voor de raid controller die er in zat. Alle schijven zaten dus verbonden op een onboard SATA 2 controller.

ZFSguru installeren ging heel gemakkelijk en was dood eenvoudig te configureren via de website. Vlug de eerste pool aangemaakt, 2x WD RED 3TB in RAID0. ZFSguru staat geinstalleerd op een virtuele harddisk van 8GB en kreeg zoveel mogelijk RAM, 3GB dacht ik. Na wat te spelen met de configuratie eens een samba share aangemaakt en wat benchmarks gedraaid. Voor ik de snelheid teste van de SAMBA share draaide ik de 64GB benchmark onder ZFSguru zelf.

Dit viel dik tegen...
Read: 133MB/s
Write: 97MB/s

Via de samba share haalde ik maar een luttele 20-30MB/s.

Dit ligt puur aan de configuratie van ESXi natuurlijk, maar het grote verschil met de SAMBA share laat me hier wel wat nattigheid voelen.

Heb dan eens ESXi buiten gegooid en ZFSguru rechtsteeks op de hardware geïnstalleerd.
De resultaten waren als volgt:
Read: 191MB/s
Write: 143MB/s

Niet slecht, maar weet dat hier een pool getest word van 2x WD RED in RAID 0!
Dan ook maar eens de SAMBA share test gedaan en dan kwam ik op 45MB/s.

De test van de samba share heb ik gewoon via windows gedaan en dan gewoon gekeken onder details naar de geschatte overdracht snelheid. Deze gegevens zijn dus ook niet 100% accuraat.

Beetje later beginnen zoeken naar aanleidingen voor deze toch wel mindere performance.
Na wat research in het grote ZFS topic was gebleken dat ik vergeten was de sector grote aan te passen voor mijn pool. Deze moest op 4K staan, ashift = 12.

Opnieuw dezelfde benchmark gedraaid en hoera!
Read: 270MB/s
Write: 237MB/s

Betere benchmarks dan dit kan ik me met deze setup niet inbeelden!
Nu eens de samba share getest en deze gaf 63MB/s aan write en slechts 45MB/s aan read...

Dit kom ongeveer uit op wat ik nu ervaar via mijn netwerk tussen 2 windows machines (cifs share).

Zijn er onder jullie mensen die veel betere performance halen via samba?
Zou toch graag de volle 100MB-125MB willen halen.

Het volledige network is gigabit (cat5e, server word aangesloten op cat6 sFTP).

Natuurlijk voor ZFS optimaal te laten werken heb ik meer RAM nodig en paar SSD's.
Maar kan dit impact hebben op de performance van de SAMBA share?

Ik probeer dus eigenlijk de bottleneck van de SAMBA share te achterhalen vooraleer ik mijn definitieve hardware aanschaf.
1) Hoe wil je ZFSGuru onder ESXi draaien zonder VT-d? Heb je RDM's gemaakt voor je schijven?
Want als je met VMDK's werkt, gaat dat sowieso niet goed.
2) Samba performance is nog wel wat aan te tweaken:
verander in /usr/local/etc/smb.conf even de regel socket options:
code:
1
socket options = IPTOS_LOWDELAY TCP_NODELAY SO_SNDBUF=65536 SO_RCVBUF=65536


Ik haal hier 104MB/s strak mee, veel hoger kan niet met 1GB.

Even niets...


  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
revox862 schreef op zondag 28 april 2013 @ 21:10:
Vorige maand nieuw gekocht bij Ri-vier en ik krijg er steeds meer spijt van. Ik had inderdaad liever een Supermicro gekocht.
Mijn advies, neem contact op met Ri-vier. Van wat ik hoor is hun service geweldig en misschien zijn ze bereid je op een of andere manier te helpen.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


  • kabonacha
  • Registratie: Februari 2013
  • Laatst online: 04-06-2021
FireDrunk schreef op zondag 28 april 2013 @ 22:30:
[...]


1) Hoe wil je ZFSGuru onder ESXi draaien zonder VT-d? Heb je RDM's gemaakt voor je schijven?
Want als je met VMDK's werkt, gaat dat sowieso niet goed.
2) Samba performance is nog wel wat aan te tweaken:
verander in /usr/local/etc/smb.conf even de regel socket options:
code:
1
socket options = IPTOS_LOWDELAY TCP_NODELAY SO_SNDBUF=65536 SO_RCVBUF=65536


Ik haal hier 104MB/s strak mee, veel hoger kan niet met 1GB.
Bedankt voor de tip over SAMBA, ga deze vaanvond direct uitproberen. De bedoeling zou zijn om uiteindelijk ZFSguru onder ESXi te draaien met behulp van VT-d. Maar aangezien dit test bordje geet VT-d ondersteund kan ik dit niet degelijk testen. Daarom dat ik ook aangaf dat deze setup slecht geconfigureerd was.

Ik heb nu ook ontdekt dat ZFSgru ook wat virtualisatie mogelijkheden heeft. Iemand die deze al getest heeft?

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
Leo1010 schreef op zondag 28 april 2013 @ 23:35:
[...]Mijn advies, neem contact op met Ri-vier. Van wat ik hoor is hun service geweldig en misschien zijn ze bereid je op een of andere manier te helpen.
advies lijkt mij ook. Wel lijkt mij de klacht, gezien de algemeenheid ervan, moeilijk op te lossen.
Ter nuancering van bovenstaande en om overspannen verwachtingen te temperen zou ik mijn eigen ervaring met de service van Ri-vier niet als geweldig willen omschrijvien maar eerder als wel ok (ruilen uitgefikte backplane).

[ Voor 10% gewijzigd door BartNL op 29-04-2013 10:01 ]


  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Voor zover ik heb kunnen testen is er niets mis met de backplanes, behalve hun uiterlijk. Wat mij betreft niet iets waar Ri-vier iets aan hoeft te doen.

Wat de SFF-8087 naar SFF-8088 adapters betreft ben ik er nog niet helemaal uit.

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
Volgens mij ga ik nog best een aardig zuinig systeempje krijgen met mijn intel e4300. Op de laagst instelbare vcore (1.25v) loopt hij nu nog op 2,4ghz (hij scaled uiteraard), dus dan is hij rap zat.
Ik kan hem nu passief koelen met de standaard koeler. Het enige waar ik minder blij mee ben is de intel 945g chipset. Die wordt helaas flink warm. Ik kan nog een hardware voltmod proberen, maar ik verwacht geen wonderen.
Ik zit dus zelf te kijken naar een zuiniger LGA775 bordje / chipset. (minimaal 4 sata poorten) Iemand ideeen? Ik zit zelf te denken aan de DG45FC

[ Voor 3% gewijzigd door savale op 29-04-2013 10:45 ]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Of je met een LGA775 bordje veel zuiniger kan gaan weet ik niet, een Core i2xxx of i3xxx zullen toch behoorlijk zuiniger zijn, maar of je dat er ook uit gaat halen is een ander.

Dan is het aan te raden één van de nieuwere Q43 of Q45 chipsets te nemen, deze hebben ook VT-d wat later altijd van pas kan komen. Neem dan ook direct een mATX of mITX (als je ze vind) bordje, zoals deze:
http://www.newegg.com/Pro...aspx?Item=N82E16813121357
Deze heeft een Intel 82567LM gigabit NIC wat ook weer extra offloading biedt, maar hoeverre je daarmee kan undervolten/clocken, moet je even opzoeken want dat weet ik niet.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
kabonacha schreef op maandag 29 april 2013 @ 09:38:
[...]
Ik heb nu ook ontdekt dat ZFSgru ook wat virtualisatie mogelijkheden heeft. Iemand die deze al getest heeft?
Ja hoor, VirtualBox is dat.. Werkt op zich wel, maar verwacht absoluut geen snelheidsmonster.
Heb hier een Ubuntu VM met Sickbeard, CouchPotato, Headphones etc draaien.
SabNZBd op de host gezet, want de performance daarvan onder VirtualBox is prut.

[ Voor 19% gewijzigd door FireDrunk op 29-04-2013 11:09 ]

Even niets...


  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
Phuncz schreef op maandag 29 april 2013 @ 10:52:
Of je met een LGA775 bordje veel zuiniger kan gaan weet ik niet, een Core i2xxx of i3xxx zullen toch behoorlijk zuiniger zijn, maar of je dat er ook uit gaat halen is een ander.

Dan is het aan te raden één van de nieuwere Q43 of Q45 chipsets te nemen, deze hebben ook VT-d wat later altijd van pas kan komen. Neem dan ook direct een mATX of mITX (als je ze vind) bordje, zoals deze:
http://www.newegg.com/Pro...aspx?Item=N82E16813121357
Deze heeft een Intel 82567LM gigabit NIC wat ook weer extra offloading biedt, maar hoeverre je daarmee kan undervolten/clocken, moet je even opzoeken want dat weet ik niet.
Thnx! Merk dat een zuinig lga 775 moederbord lastig te vinden is en vaak prijzig. Het plan is om nu te kijken wat ik kan halen met mijn huidige setup en anders ga ik denk ik toch over naar een nieuwer platform

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Ach, voordat je 20W verbruik terugverdient hebt met een nieuw platform, moet je toch heel lang met een servertje doen hoor...

20W 24/7 is 40,- per jaar verschil in kosten. Als je voor 200 euro een nieuw setje koopt, ben je al 5 jaar bezig om het terug te verdienen.. Dus als het qua performance en functionaliteit gewoon voldoet, niet te snel willen upgraden voor die paar watt...

Even niets...


  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
Daar heb je ook een punt inderdaad. Misschien dat het vervangen van de (ik vermoed een crappy) dell voeding die ik nu gebruik voor een seasonic wel nuttig is. (ook gezien de betrouwbaarheid / veiligheid)
Ik heb van de week als het goed is een betere multimeter die ook ac stroom meet en dan kan ik eens gaan meten wat het verbruik is. Idle zonder schijven hoop ik toch maximaal rond de 40 a 50watt te zitten, anders wil ik toch maatregelen nemen.

[ Voor 3% gewijzigd door savale op 29-04-2013 13:09 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Met een multimeter kun je nooit accuraat verbruik meten.. Daar heb je een echte verbruiksmeter nodig.
(Energy Logger 4000 ofzo)

Even niets...


  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
FireDrunk schreef op maandag 29 april 2013 @ 13:39:
Met een multimeter kun je nooit accuraat verbruik meten.. Daar heb je een echte verbruiksmeter nodig.
(Energy Logger 4000 ofzo)
Ik zet hem in serie in de power kabel en meet de AC stroom. Ik zit volgens mij nog wel met de PFC, maar ik ga er vanuit dat de voeding daar al een correctie op doet. Ik heb eventueel ook nog een vrij nieuwe voeding die efficienter is als referentie.
Een verbruiksmeter zal inderdaad wat beter zijn, maar ik verwacht dat ik er niet meer dan 10% a 20% naast zal zitten. (als iemand dit tegen kan spreken: shoot :P)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Oh muuuuuuux.......

Even niets...


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
savale schreef op maandag 29 april 2013 @ 15:45:
[...]Een verbruiksmeter zal inderdaad wat beter zijn, maar ik verwacht dat ik er niet meer dan 10% a 20% naast zal zitten. (als iemand dit tegen kan spreken: shoot
op een verbruik van 50 watt zal dat zo zijn. Omdat alle moderne PSU's een correctie doen om verschil tussen werkelijk vermogen en schijnbaar vermogen te minimaliseren zal je meetfout kleiner zijn.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
code:
1
socket options = IPTOS_LOWDELAY TCP_NODELAY SO_SNDBUF=65536 SO_RCVBUF=65536


Ik haal hier 104MB/s strak mee, veel hoger kan niet met 1GB.
Overigens misschien appels en peren, maar om aan te geven niet alles klakkeloos overal toe te passen;
Onder linux haal ik met slechts
code:
1
socket options = TCP_NODELAY

103MB/s strak, terwijl als ik alle bovenstaande options toe pas dan haal ik slechts 89MB/s.

Blijkbaar standaard al goed geoptimaliseerd.

[ Voor 5% gewijzigd door Durandal op 29-04-2013 21:13 ]


  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Durandal schreef op maandag 29 april 2013 @ 21:12:
[...]

Overigens misschien appels en peren, maar om aan te geven niet alles klakkeloos overal toe te passen;
Onder linux haal ik met slechts
code:
1
socket options = TCP_NODELAY

103MB/s strak, terwijl als ik alle bovenstaande options toe pas dan haal ik slechts 89MB/s.

Blijkbaar standaard al goed geoptimaliseerd.
Het zal *gok ik* ook pas werken als je netwerk er voor is ingesteld. Oftewel dan moet je managed switches hebben en QoS ingesteld hebben...

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • kabonacha
  • Registratie: Februari 2013
  • Laatst online: 04-06-2021
webfreakz.nl schreef op maandag 29 april 2013 @ 21:42:
[...]

Het zal *gok ik* ook pas werken als je netwerk er voor is ingesteld. Oftewel dan moet je managed switches hebben en QoS ingesteld hebben...
Ik heb eens wat settings getest en momenteel haal ik iets meer dan 80MB/s met het volgende:
code:
1
socket options = TCP_NODELAY


De andere parameters hebben allemaal een slechte invloed...

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
Hehe ja als hij het niet weet.... :P

Trouwens best fijn: zonder te tweaken schrijf ik nu al met ~70MB/s weg en lees ik met ~90MB/s van mijn degraded raid-z pool (nu nog een 1TB wd green en een 1,5TB samsung ecogreen) over smb vanuit windows 7 (gbit lan). De cpu load op de server blijft onder de 40%

Hopelijk valt het energieverbruik ook een beetje mee en dan ben ik blij :D

[ Voor 6% gewijzigd door savale op 29-04-2013 23:23 ]


  • analog_
  • Registratie: Januari 2004
  • Niet online
Hebben jullie jumbo frames, offloading etc zijn allemaal factoren die spelen wanneer je gaat spelen met tcp parameters. Ik ben nu met crypto op hardware bezig maar het verschil tussen 64bytes encoden en 128 is duidelijk waarneembaar. Ik neem aan dat dit niet anders is voor andere electronica.

  • kabonacha
  • Registratie: Februari 2013
  • Laatst online: 04-06-2021
analog_ schreef op dinsdag 30 april 2013 @ 02:56:
Hebben jullie jumbo frames, offloading etc zijn allemaal factoren die spelen wanneer je gaat spelen met tcp parameters. Ik ben nu met crypto op hardware bezig maar het verschil tussen 64bytes encoden en 128 is duidelijk waarneembaar. Ik neem aan dat dit niet anders is voor andere electronica.
Jumbo frames is inderdaad iets wat ik kan proberen, hoop alleen dat mijn hardware dit allemaal gaat ondersteunen. Volgens wikipedia zouden de meeste elektronische apparaten met gigabit dit moeten ondersteunen.

edit:
Na wat vlug zoekwerk op google er op uitgekomen dat mijn router (linksys E4200) geen jumbo frames ondersteund. Wel spijtig eigenlijk, is nochtans een kostelijke router geweest.... :(

[ Voor 13% gewijzigd door kabonacha op 30-04-2013 22:11 ]


  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
kabonacha schreef op dinsdag 30 april 2013 @ 11:48:
[...]


Jumbo frames is inderdaad iets wat ik kan proberen, hoop alleen dat mijn hardware dit allemaal gaat ondersteunen. Volgens wikipedia zouden de meeste elektronische apparaten met gigabit dit moeten ondersteunen.

edit:
Na wat vlug zoekwerk op google er op uitgekomen dat mijn router (linksys E4200) geen jumbo frames ondersteund. Wel spijtig eigenlijk, is nochtans een kostelijke router geweest.... :(
Misschien wel met andere firmware? Kijk eens naar tomato (toastman bijv) of dd-wrt

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
kabonacha schreef op dinsdag 30 april 2013 @ 11:48:
[...]


Jumbo frames is inderdaad iets wat ik kan proberen, hoop alleen dat mijn hardware dit allemaal gaat ondersteunen. Volgens wikipedia zouden de meeste elektronische apparaten met gigabit dit moeten ondersteunen.

edit:
Na wat vlug zoekwerk op google er op uitgekomen dat mijn router (linksys E4200) geen jumbo frames ondersteund. Wel spijtig eigenlijk, is nochtans een kostelijke router geweest.... :(
http://wiki.openwrt.org/toh/start#linksys

Draait zo te zien OPEN-WRT. Wel erg kwalijk dat het jumbo frames support. Zie zelfs dat de gehele lijn (Lijn van consumenten routers denk ik?) geen support heeft voor Jumbo Frames.

  • kabonacha
  • Registratie: Februari 2013
  • Laatst online: 04-06-2021
Dennisik schreef op woensdag 01 mei 2013 @ 18:53:
[...]

http://wiki.openwrt.org/toh/start#linksys

Draait zo te zien OPEN-WRT. Wel erg kwalijk dat het jumbo frames support. Zie zelfs dat de gehele lijn (Lijn van consumenten routers denk ik?) geen support heeft voor Jumbo Frames.
Mijn router flashen met andere firmware doe ik liever toch niet. Ga eerst wat andere test setups proberen, denk eerder dat de bottleneck aan de bouw van mijn netwerk/test setup zal liggen. Momenteel is mijn server verbonden aan mijn desktop pc, die heeft 2 NIC's die ik gebridged heb en zo word de server dan gevoed.

Deze bridge is volgens mij de bottleneck, ga de server eens rechtstreeks aan het netwerk hangen en via andere computer op het netwerk eens de test uitvoeren.

edit:
Bottleneck voor de transfer speeds blijkt niet aan SAMBA te liggen. Enkele tests met verschillende netwerk setups hebben uitgewezen dat de bottleneck eerder aan mijn NIC's ligt en aan de netwerkapparatuur. Sommige clients zijn natuurlijk 5-6 jaar oud en toen was een onboard gigabit NIC op het mobo niet standaard en betaalde je daar ietsjes meer voor. Deze oudere clients halen 65 MB/s, de nieuwere client (zijnde de HTPC) haalt soms pieken van 95MB/s maar hangt gemiddeld rond de 70MB/s.

Een andere test wat ik eventueel kan doen is de computer eens rechtsreeks aan de server hangen via een cross cable en een dhcp server draaien op ZFSguru(ofwel statische IP's) en dan eens de test uitvoeren. Misschien is er ergens een slechte kabel ofzo, op deze manier zou dit direct moeten zichtbaar zijn. De server word aangesloten op CAT6 maar al de rest ligt nog op normale Cat5e.

[ Voor 34% gewijzigd door kabonacha op 03-05-2013 10:45 ]


  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Gister mijn nieuwe server in elkaar gestoken. Met dank aan BlauwKeut voor zijn info voor wat betreft het moederbord.

Dit zit er in (de prijzen kloppen niet want ik hem alles 2e hands gekocht):

#ProductPrijsSubtotaal
1Intel Pentium G620€ 56,95€ 56,95
1MSI Z77MA-G45€ 91,70€ 91,70
16Samsung Spinpoint M7 HM641JI , 640GB SATA-300, 8MB, 5400rpm€ 89,-€ 1.424,-
1Western Digital Scorpio Blue WD2500LPVT, 250GB SATA-300, 8MB, 5400rpm€ 40,45€ 40,45
1Silverstone Sugo SG03B€ 91,46€ 91,46
2Kingston KVR1333D3N9/8G€ 48,-€ 96,-
2IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 237,16
1Seasonic G-Serie 360Watt€ 61,-€ 61,-
Bekijk collectie
Importeer producten
Totaal€ 2.098,72


En het verbruik (idle in freenas 8.3.1 - alle disks APM 254) is 50 watt (edit: onder load 65).

Ten opzichte van mijn vorige server, op basis van m-itx, 10 disks en een enkele m1015, ben ik er maar 10 w. op achteruit gegaan. Dit is gemeten met dezelfde meter.

De disks zijn 2 raidz-2's van 8 disks als 1 volume van 6.5 TB en de 250 GB als temp schijf. Ik overweeg nog om er 2 600-800 rpm 12 cm fans voorin te hangen, maar test nu eerst of het ook zonder kan. De heatsinks van de m1015 worden wel warm, maar ik kan mijn vinger er nog wel bovenop leggen.

De belangrijkste voordelen van deze set-up:

- compact
- stil
- energy zuinig
- relatief snelle scrub en rebuild tijden (!)
- 32 GB ram mogelijk
- toekomst bestendig (de schijven tzt vervangen door schijven met hogere capactiteit)

Nadelen:

- aanschaf kosten
- custom hdd frame (voor mij leuk, voor andere misschien niet)
- gepriegel bij onderhoud
- hoeveelheid kabels en hba's

[ Voor 16% gewijzigd door Patatjemet op 17-05-2013 18:15 ]

- raid does not fix stupid -


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Wat zijn eigenlijk de voordelen van scrub?

Ik heb toevallig aantal weken terug mogen spelen met HP P2000 storage systemen van 12x2TB.
Als ik media scrub aanstaat, is de performance zeer slecht.

Kan niet zo goed vinden wat het exact doet, maar is het niet hetzelfde als TRIM op een SSD. Simpelweg alle plaatsen op een HDD die 'leeg' zijn ook volledig leeg maken? Al werkt TRIM met tables en niet de daadwerkelijke sectoren.

Wel toffe setup, ziet er goed uit.

[ Voor 4% gewijzigd door Dennisik op 04-05-2013 14:50 ]


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
BartNL schreef op zondag 28 april 2013 @ 20:59:
[...]

soldeerwerk Norco is sowieso niet top en jouw exemplaar ziet er niet netjes uit. Aangezien je een gelig exemplaar hebt denk ik dat je deze niet dit jaar hebt gekocht? Als het geen problemen geeft is het ook niet een probleem.
Zelf heb ik overigens wel een exemplaar gehad die spontaan in de fik vloog en daardoor sluiting veroorzaakte.
Algemeen zijn de Norco's veel kast voor het geld maar de kostenbesparing zie je wel terug aan de details op de backplanes en afwerking van de metalen delen. Voor thuisgebruik naar mijn mening prima en voor zakelijk gebruik zou ik zonder aarzelen het dubbele uitgeven aan een supermicro.
Nou ik heb 2 x een 4220 gekocht en die hebbem ook allemaal gele backplanes.
Gekocht laatste maand.

Kwaliteit controle daar is zwaar waardeloos.. Bij mij is op een van de backplanes het metalen kapje van de sff-8087 connector niet door gesoldeerd.
Werkte goed, totdat ik de kabels in het stukje tussen de drives en de fantray wat wilde ordenen. Eerst vallen 2 drives uit, daarna 4 op die backplane. Dus de stekker heeft dan geen aarde meer of zo, of zit los (de connector klikt erin)
Maar goed , backplane uit de andere kast gehaald waar ik er 2 niet van gebruik, wel netjes door gesoldeerd.
Nu echter komt 1 drive niet online. Dus de m1015 waar deze backplane aan hangt heeft ook issues nu, of de drive is defect gegaan ? Of deze nooit gebruikte backplane is ook gewoon niet goed.

Ik zal de hdds overzetten op die backplane om te kijken of het de hdd of de insteek posistie is.
Zal ook de 1015 uitwisselen om die uit te sluiten.

Maandag maar eens een belletje doen naar rivier of ze me een nieuwe backplane gaan sturen, want dit is toch wel een beetje droevig.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Dennisik schreef op zaterdag 04 mei 2013 @ 14:50:
Wat zijn eigenlijk de voordelen van scrub?

Ik heb toevallig aantal weken terug mogen spelen met HP P2000 storage systemen van 12x2TB.
Als ik media scrub aanstaat, is de performance zeer slecht.

Kan niet zo goed vinden wat het exact doet, maar is het niet hetzelfde als TRIM op een SSD. Simpelweg alle plaatsen op een HDD die 'leeg' zijn ook volledig leeg maken? Al werkt TRIM met tables en niet de daadwerkelijke sectoren.

Wel toffe setup, ziet er goed uit.
Scrub controleert of je data nog consistent is; Wikipedia: Data scrubbing

Normaliter zou een P2000 alleen scrubbing op de achtergrond moeten doen, en alle I/O voorrang moeten geven (en dus bijna tot geen invloed hebben op je performance). Raar dat het bij jou wel invloed op performance heeft, heb er eigenlijk nooit last van gehad :/

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 21-12 13:50

DYX

@jacovn: ik heb dat precies hetzelfde gahd met mijn norco-4224. Volgens mij had ik groene backplans, maar 1 soldeerpunt van een 8087 connector liet ook los. Heb hem even snel zelf vastgesoldeerd voornamelijk omdat ik geen tijd verder had.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Ik ben het nu al een beetje zat. Sinds dit probleem heeft ook een andere 1015 4 kanalen niet meer actief.
Dat is diegene die eronder zit. Wellicht de molexen los geraakt bij het verwijderen van de backplane erboven ?
Torubleshooten moet wel te doen zijn, ik wissel gewoon de 2 sff8087 kabels op de controller om en zie dan of het de controller is lijkt me.
Gelukkig heb ik reserve onderdelen omdat de 2e server wacht op een voeding..
Als je dat niet heb t ben je zuur, en dat voor een kast van 400 euro..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
KennieNL schreef op zaterdag 04 mei 2013 @ 17:11:
[...]


Scrub controleert of je data nog consistent is; Wikipedia: Data scrubbing

Normaliter zou een P2000 alleen scrubbing op de achtergrond moeten doen, en alle I/O voorrang moeten geven (en dus bijna tot geen invloed hebben op je performance). Raar dat het bij jou wel invloed op performance heeft, heb er eigenlijk nooit last van gehad :/
Dank voor de link!

Media scrub kan je wel prioriteit geven, maar het grootste nadeel is dat je performance zeer inconsistent is, ondanks dat prioriteit op Low staat. Zelfs bij Low merk je het al, high is de performance drop nog groter. Buiten dat vind ik de performance echt zwaar belabberd van de P2000. Al is oorzaak daarvan nog niet helemaal duidelijk.

[ Voor 5% gewijzigd door Dennisik op 04-05-2013 17:57 ]


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
jacovn schreef op zaterdag 04 mei 2013 @ 17:24:
Wellicht de molexen los geraakt
wel beide molexen aangesloten?

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Ja en de blauwe lampjes/ledjes doen het op elke hdd lade.
Dus wel power erop. De problem dus met de kabels of de controllers.

De kabels lopen met een soort boogje, en de kap drukt erop, na een paar keer een kap verwijderd en geplaatst te hebben wellicht kabelbreuk?
Ik zag bijvoorbeeld even een extra hdd bij het aandrukken van de sff8087 connector.
Ik dacht dat die sff 8087 een grote verbetering zou zijn ten opzichte van de losse sata data connectoren die ik eerst had, niet echt blijkbaar..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 20:48
Leuk om te zien waar mijn oude moederbord terecht is gekomen. :P

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Het was uiteindelijk de sff-8087 kabel die op de backplane zat onder die ik vervangen heb.
Waarschijnlijk toch een beetje knel gezeten.
Nu al de devices weer online waren op de LSI kaarten krijg ik wel scherm na scherm foutmeldingen op DA19, en de webgui van zfsguru is non repsonsive (als ik ergens een hekel aan heb..)

Nog maar een reboot en nu start de server wel, maar mist 3 hdd's zo te zien:

(da19:mps2:0:11:0): removing device entry
(da18:mps2:0:10:0): removing device entry
(da17:mps2:0:9:0): lost device - 1 outstanding, 2 refs
(da17:(pass17:mps2:0:mps2:0:9:9:0): oustanding 0
0): passdevgonecb: devfs entry is gone
(da17:mps2:0:9:0): removing device entry


Nu er achter komen welke fysieke hdd's dit zijn..

Edit: 1e M1015 is da0-7, 2e M1015 is da8-15, en dan is de 3e da16-da23 (tot da19 in mijn geval)
Nu heb ik ook nog een setting gewijzigd dat de 1e 2 controllers maar 8 devices aan het OS mochten doorgeven en de 3e maar 4.
Op de 3e controller zat de sff-8087 op poort 1, wellicht dat dat een issue is, logisch wellicht dat port0 1t/m4, en port1 5 t/m 8 is.
Zal het morgen testen door de zaak te resetten naar default.

Hmm, kabels en m1015 vervangen (poorten gewisseld)
Die vervangen backplane is ook gewoon brak dus, in de lsi bios is het erg traag, en soms wordt een hdd wel en soms niet gevonden.
Normaal loopt de detectie snel en zijn de hdds er altijd.

Vanavond maar weer een andere uit de 2e 4220 halen...

Update: getest en die backplane was ook defect, niet de kabel, niet de controller..
Weer een andere erin, normale boot paar minuten resilver en alles is weer online.
Wel 3 hdds met cable errors erbij. Dat zuigt wel, want ze blijven in deloga staan, en hebben niets met de kwaliteit van de hdd te maken.


update: mag ze retour naar ri-vier sturen, heb een rma nummer gekregen.

[ Voor 137% gewijzigd door jacovn op 06-05-2013 18:55 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
GioStyle schreef op zaterdag 04 mei 2013 @ 22:42:
[...]


Leuk om te zien waar mijn oude moederbord terecht is gekomen. :P
Werkt perfect! :)

- raid does not fix stupid -


  • savale
  • Registratie: Oktober 2000
  • Laatst online: 23:45
Het duurde even omdat ik geen goede meter had:

systeem: 2 netwerkkaarten / p5l-vm1394 moederbord / cpu: e4300 (overclocked op 2,4ghz maar undervolted) / 3 3,5inch sata 5400rpm schijven

3 draaiende 5400rpm schijven (wel idle) + cpu idle zit ik nu op 58 watt. Niet heel zuinig, maar ook weer niet zo schokkend om meteen mijn hardware te gaan vervangen aangezien de performance prima is. Onder load zit het systeem ongeveer 80 watt
Ik vraag me wel af wat eventueel de 360watt seasonic voeding voor verbetering zou kunnen brengen. Nu zit er een standaard dell voeding van een jaar of 5 oud in het systeem (deze voelt na een tijdje best een beetje warm aan trouwens). Als ik met een betere voeding van 58 watt naar bijvoorbeeld 40 - 45 watt zou gaan vind ik het de aanschaf wel waard (ook gezien betrouwbaarheid). Iemand ervaring op dit gebied?

[ Voor 3% gewijzigd door savale op 08-05-2013 11:21 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Je kan het type nummer van die dell even door google halen om de efficientie op te zoeken.

Als dat ding zeg 70% doet, zal hij inderdaad een stuk warmer worden dan andere voedingen.

Even snel rekenen (ruwe schatting):

58 / 100 * 70 = 40.6 DC verbruik
40.6 / 87 * 100 = 47W AC verbruik met nieuwe voeding (uitgaande van 87% efficientie...

Of dat het waard is...

Even niets...


  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
jacovn schreef op zaterdag 04 mei 2013 @ 16:34:
Eerst vallen 2 drives uit, daarna 4 op die backplane. Dus de stekker heeft dan geen aarde meer of zo, of zit los (de connector klikt erin)
Maar goed , backplane uit de andere kast gehaald waar ik er 2 niet van gebruik, wel netjes door gesoldeerd.
Nu echter komt 1 drive niet online.
Precies hetzelfde bij mij. Soms werden schijven wel gezien, soms niet.
jacovn schreef op zondag 05 mei 2013 @ 07:55:
Update: getest en die backplane was ook defect, niet de kabel, niet de controller..
Ik vertrouw geen enkele backplane meer. Inmiddels beschouw ik de Norco als verloren en heb ik 725 euro voor niets uitgegeven.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Highpoint Rocket 620 aangeschaft voor extra SATA poorten.

Nu zit ik te kijken naar 3TB schijf.
https://tweakers.net/pric...0014-st3000dm001-3tb.html
Voor ~110 euro

Of deze voor ~128 euro. (18 euro duurder) voor jaar extra garantie
https://tweakers.net/pric...al-red-wd30efrx-3tb.html#

Hoeveel waarde hechten jullie aan garantie? Had jaar terug nog een oude samsung 750GB schijf die na 2,5 jaar kapot was, deze is zonder problemen vervangen. Of het die 18 euro waard is, is een tweede.

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Dennisik schreef op vrijdag 10 mei 2013 @ 16:54:
Highpoint Rocket 620 aangeschaft voor extra SATA poorten.

Nu zit ik te kijken naar 3TB schijf.
https://tweakers.net/pric...0014-st3000dm001-3tb.html
Voor ~110 euro

Of deze voor ~128 euro. (18 euro duurder) voor jaar extra garantie
https://tweakers.net/pric...al-red-wd30efrx-3tb.html#

Hoeveel waarde hechten jullie aan garantie? Had jaar terug nog een oude samsung 750GB schijf die na 2,5 jaar kapot was, deze is zonder problemen vervangen. Of het die 18 euro waard is, is een tweede.
Ik heb zelf goede ervaringen met de Reds, en een jaar extra garantie zou ik voor gaan, als ik nu 3TB schijven koop, verwacht ik die over 3 jaar nog wel te gebruiken, zo kijk ik er tegen aan.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
revox862 schreef op vrijdag 10 mei 2013 @ 16:39:
[...]Ik vertrouw geen enkele backplane meer. Inmiddels beschouw ik de Norco als verloren en heb ik 725 euro voor niets uitgegeven.
dat klinkt wel zuur. Het zal niet voor niets zijn dat Ri-Vier nu eigen merk promoot met de volgende voordelen,
  • Mini-SAS backplane adopts lead-free Silver Pastering Technology, 15U gilded connector make the bakplane more stable and work longer.
  • Mini-SAS backplane pass Intel transmission speed test and stable test, 6GB SAS connector make the transmission more stable.
Je zou kunnen vragen of je, je Norco kunt inruilen op zo'n Ri-Vier exemplaar. Lijkt mij dat wanneer zo'n Norco echt niet doet wat je er van mag verwachten ze wel iets onder coulance kunnen doen?

Persoonlijk heb ik wel wat start-up problemen met stabiliteit en een probleem met een uitgebrande backplane gehad maar sindsdien draaien twee Norco 4224's hier wel betrouwbaar.

  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Ik heb de fan grills al uit de kast gezaagd. Geval eigen schuld.

Leer momentje :)

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
De achterste fangrill's ?

Helpt dat echt om het geluidsvolume terug te brengen ?
Ik lijk toch de noctua 120 mm pwm fans te horen in de fannwall en de 20 hdds die draaien. De 2 stuks 80 mm achter in de case lijken me nu niet te storen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Misschien kan je zon Ri-Vier backplane apart te pakken krijgen? De rackcases zien er bijna gelijk uit dus met wat geluk past het gewoon als gegoten. Ik denk niet dat ze daar een probleem van zouden maken.

  • revox862
  • Registratie: September 2002
  • Laatst online: 20-12 10:13
Ja, de fan grills aan de achterkant. Ik had voornamelijk last van een hoog frequent fluit geluid.
Jormungandr schreef op maandag 13 mei 2013 @ 15:34:
Misschien kan je zon Ri-Vier backplane apart te pakken krijgen? De rackcases zien er bijna gelijk uit dus met wat geluk past het gewoon als gegoten. Ik denk niet dat ze daar een probleem van zouden maken.
De backplane van Ri-vier (Intel) is helaas anders. De Norco backplane is horizontaal en de Intel backplane is verticaal. Toch bedankt voor het meedenken :)

Ik ben nu aan het kijken naar een Lian-Li PC-A77FB met 4 Supermicro CSE-M35TQB.

  • Farmie
  • Registratie: December 2007
  • Laatst online: 23:39
Ik ben van plan om een eigen NAS-je in elkaar te steken. Hiervoor had ik gedacht aan volgende onderdelen:

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 49,99€ 49,99
1ASRock B75 Pro3-M€ 56,90€ 56,90
4Toshiba PA4293E-1HN0, 3TB€ 69,45€ 277,80
1Codegen 4U-500€ 64,50€ 64,50
1Kingston HyperX Black KHX16C10B1BK2/16X€ 92,-€ 92,-
1Seasonic G-Serie 360Watt€ 61,-€ 61,-
Bekijk collectie
Importeer producten
Totaal€ 602,19


Sinds vandaag zie ik plots een price drop van bijna €50 voor een Toshiba 3T HDD...ideaal dus?

Het opzet van deze NAS is om deze te gebruiken thuis voor storage van vooral films, muziek, foto's, ...en deze te kunnen streamen naar PC/laptop/smart TV,...niet echt speciaal, maar ik hou wel van performantie :-), maar liefst zo zuinig mogelijk natuurlijk.

Ik had gedacht om ZFS als bestandssysteem te gebruiken met als OS ZFSGuru (of wat wordt het best aangeraden om mee te beginnen?).
Ik heb nog een Samsung 830 series 64GB SSD liggen, deze wil ik gebruiken als bootdisk (en eventueel L2ARC, of is dit niet aangeraden?).

Lijkt dit moederbord/CPU oké op vlak van performantie/verbruik?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Je systeem is een prima keuze, alleen vind ik die Codegen kast een beetje log voor wat je hebt. Zulke goede kasten zijn het niet, en rackmount is als je geen rack hebt, alleen maar een nadeel.

Ik zou eerder voor een kast gaan die wat stiller is.

Verder is ZFSGuru prima voor de beginnende ZFS gebruiker.

[ Voor 10% gewijzigd door FireDrunk op 16-05-2013 11:24 ]

Even niets...


  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
Voor een NAS is dat moederbord prima. Maar er was een grote reden om voor dat bordje te gaan: het aantal sata poorten. Als je met minder kan toekomen kan je beter voor een zuiniger/ander moederbord kiezen...

Even rechtstreeks quoten:

mux' blog: BBG Zuinige Server (Maart 2013)
Moederbord: Identiek aan de vorige keer. De Asrock B75 Pro3-m is het enige moederbord in zijn prijsklasse (sterker nog, het enige moederbord onder de 130 euro) dat 8 SATA-poorten heeft en dus uitstekend geschikt is voor een systeem met veel HDDs. Heb je echter genoeg aan 6 SATA-poorten, dan kan ik de MSI H61MA-E35 sterk aanraden. Deze is nog iets zuiniger dan de Asrock, een tientje goedkoper en verder een prima keuze. Let wel: hier kunnen maar 2 geheugenreepjes in, dus je bent met goedkoop geheugen beperkt tot 16GB (hoewel tegen een flinke meerprijs ook 16GB DDR3-modules verkrijgbaar zijn).

[ Voor 65% gewijzigd door HyperBart op 16-05-2013 11:28 ]


  • Farmie
  • Registratie: December 2007
  • Laatst online: 23:39
FireDrunk schreef op donderdag 16 mei 2013 @ 11:23:
Je systeem is een prima keuze, alleen vind ik die Codegen kast een beetje log voor wat je hebt. Zulke goede kasten zijn het niet, en rackmount is als je geen rack hebt, alleen maar een nadeel.

Ik zou eerder voor een kast gaan die wat stiller is.

Verder is ZFSGuru prima voor de beginnende ZFS gebruiker.
De kast is inderdaad niet om in een rack te plaatsen, maar ik zocht een deftige case met veel bays (minstens 8 a 9). Welke zou jij kiezen?
HyperBart schreef op donderdag 16 mei 2013 @ 11:24:
Voor een NAS is dat moederbord prima. Maar er was een grote reden om voor dat bordje te gaan: het aantal sata poorten. Als je met minder kan toekomen kan je beter voor een zuiniger/ander moederbord kiezen...
Ja, inderdaad, dit bordje heeft in totaal 8 SATA aansluitingen.
Mijn bedoeling is om later (waarschijnlijk spreek ik dan over enkele jaren...) nieuwe HDDs toe te voegen (maximum 3 dus, hopelijk tegen dan minstens 4TB schijfjes, heb ik nog eens 8 TB bij).

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:22
Farmie schreef op donderdag 16 mei 2013 @ 11:30:
Ja, inderdaad, dit bordje heeft in totaal 8 SATA aansluitingen.
Mijn bedoeling is om later (waarschijnlijk spreek ik dan over enkele jaren...) nieuwe HDDs toe te voegen (maximum 3 dus, hopelijk tegen dan minstens 4TB schijfjes, heb ik nog eens 8 TB bij).
:+

Dan heb ik zoiets van, mjaaaah, ga dan gewoon in uitgaven en operationele kosten wat lager zitten ;)

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Farmie schreef op donderdag 16 mei 2013 @ 10:49:
Ik ben van plan om een eigen NAS-je in elkaar te steken. Hiervoor had ik gedacht aan volgende onderdelen:

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 49,99€ 49,99
1ASRock B75 Pro3-M€ 56,90€ 56,90
4Toshiba PA4293E-1HN0, 3TB€ 69,45€ 277,80
1Codegen 4U-500€ 64,50€ 64,50
1Kingston HyperX Black KHX16C10B1BK2/16X€ 92,-€ 92,-
1Seasonic G-Serie 360Watt€ 61,-€ 61,-
Bekijk collectie
Importeer producten
Totaal€ 602,19


Sinds vandaag zie ik plots een price drop van bijna €50 voor een Toshiba 3T HDD...ideaal dus?

Het opzet van deze NAS is om deze te gebruiken thuis voor storage van vooral films, muziek, foto's, ...en deze te kunnen streamen naar PC/laptop/smart TV,...niet echt speciaal, maar ik hou wel van performantie :-), maar liefst zo zuinig mogelijk natuurlijk.

Ik had gedacht om ZFS als bestandssysteem te gebruiken met als OS ZFSGuru (of wat wordt het best aangeraden om mee te beginnen?).
Ik heb nog een Samsung 830 series 64GB SSD liggen, deze wil ik gebruiken als bootdisk (en eventueel L2ARC, of is dit niet aangeraden?).

Lijkt dit moederbord/CPU oké op vlak van performantie/verbruik?
Heb de 3TB gekocht, had er nog een nodig. Komt zo'n onverwachte prijsdrop toch goed uit. Zo te zien heeft een leverancier wat verkeerds gedaan. 2 Webshops doen mee met de prijsdaling.

  • Farmie
  • Registratie: December 2007
  • Laatst online: 23:39
Ik heb alvast zojuist een bestelling geplaatst voor 4 x 3TB schijven :-)

  • rebulans
  • Registratie: December 2012
  • Niet online
Slim. Ik zag de prijsdaling ook deze morgen, ik was eigenlijk opzoek naar een 3e 2TB schijf om ook zelf met een nas te kunnen beginnen. Maar nu 3TB goedkoper is denk ik erover om die 2TBs van de hand te doen en 3x nieuwe 3TB's aan te schaffen. First world problems :(

[ Voor 8% gewijzigd door rebulans op 16-05-2013 11:47 ]


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 01:24

OMX2000

By any means necessary...

Wow da's ineens wel een heeeele grote prijsdaling. Bijna verdacht ;)

Ik hield de WD Red's in de gaten, maar het prijsverschil is nu wel extreem groot met de Toshiba's.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

Zercom nu ook mee
https://www.zercom.eu/ind...ts.view&product_id=266051
Niet meer leverbaar

4allshop nu weer € 132,45

[ Voor 24% gewijzigd door psy op 16-05-2013 13:24 ]

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • beodepeo
  • Registratie: Oktober 2009
  • Laatst online: 28-01 14:46
Ik ben met een build begonnen die aardig op die van Farmie lijkt, dus volgens mij kan het niet echt een slechte keus zijn ;) :
#ProductPrijsSubtotaal
1Intel Core i5 2400SDonorCPU€ -,-
1ASRock B75 Pro3-M€ 56,90€ 56,90
1Nexus Thrio 310 Silent Case€ 39,30€ 39,30
2Silverstone SST-CP06 4x SATA€ 8,17€ 16,34
1Scythe Slip Stream SY1225SL12L, 120mm€ 6,10€ 6,10
1Crucial Ballistix Sport BLS2C8G3D1609ES2LX0CEU€ 112,20€ 112,20
1Seasonic G-Serie 360Watt€ 61,-€ 61,-
Bekijk collectie
Importeer producten
Totaal€ 291,84
Maar de keus is niet helemaal zelfstandig genomen: Het bord, maar ook de kast, is al in deze thread genoemd en ook in de Best Buy Guide van maart en in de BBG Zuinige Server (Maart 2013).

De setup is in eerste instantie om een paar losse externe USB schijven die aan een 4x2TB RAID-5 Qnap 419 hangen te vervangen door iets met meer failover (6-disks in RAID-Z2). Het idee is om te booten van een losse 7e schijf (Eerst een losse HDD maar tzt. te vervangen door een SSD)
Ook wil ik in de toekomst misschien de 4 schijven uit de Qnap overzetten met toevoeging van een IBM M1015 + 2 nieuwe disks, maar da's voor later.

Alleen de keuze voor schijven daar ben ik nog niet helemaal uit... De prijs/TB voor 4TB zit wel erg dicht in de buurt van de 3TB, dus ik neig heel erg naar de Seagate Barracuda HDD.15, 4TB.
Alleen gaat mijn voorkeur uit naar 3 jaar garantie, wat mij dan weer richting de Western Digital Red WD30EFRX, 3TB duwt, aangezien de Seagates maar 2 jaar garantie hebben.
En als we het over garantie hebben, dan ben ik toch huiverig om voor de Toshiba's te gaan, aangezien Toshiba zelf aangeeft dat de enige manier om deze te claimen via de leverancier is. Ze lijken dus geen eigen RMA systeem te hebben waardoor je voor je garantie puur en alleen bij die oorspronkelijke leverancier terecht kunt. Maar ja, die veel lagere prijs...

Tenslotte OS, Ik ben er nog wat mee aan het spelen om een beetje feeling te krijgen, maar dat gaat waarschijnlijk wel ZFSguru worden met daarop in ieder geval Samba en NFS, en mischien ook Sabnzbd, Sickbeard en SpotWeb (dus ook +web/sql/php). Het wordt in ieder geval een *BSD variant vanwege ZFS. (Ik ben nog net iets te huiverig om met ZFS on Linux te stoeien)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Als je "in-ieder-geval" een BSD variant wil, zou ik sowieso voor ZFS kiezen... Kaal FreeBSD heeft geen noemenswaardige voordelen boven ZFSguru. Hooguit dat je wat meer je eigen keuzes kan maken, maar als je ZFS-on-Linux al eng vindt, vind je dat al helemaal eng ;)

Even niets...


  • beodepeo
  • Registratie: Oktober 2009
  • Laatst online: 28-01 14:46
Ik heb wel ervaring met FreeBSD, maar in een omgeving waar de nadruk niet op storage en sharing ligt. En dan hou ik het liever zo basic mogelijk. Dus ik ben niet zozeer huiverig voor FreeBSD, maar meer voor door mij gevreesde verhoogde complexiteit (en maturity) van ZFS-on-Linux. Maar dit kan ook gewoon een onderbuikgevoel zijn ;)
En de keus voor ZFSguru boven FreeBSD zou dan voornamelijk vanuit het 'luie mensen' perspectief zijn. Het is bij incenteel gebruik net even makkelijker om effe snel een webinterface aan te klikken dan om de cli in te duiken. Hoewel ik na wat met ZFSguru gestoeid te hebben wel al het idee heb dat ik daar toch vrij rap weer in zal duiken, met name voor de sharing en de 'additional services'.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Tja, als je graag je eigen keuzes maakt, en FreeBSD kennis hebt, kan ik je geen redenen vertellen om voor ZFSguru te gaan. De services zijn in mijn ogen makkelijk voor de beginnelingen, maar omdat de ports tree niet echt goed gebruikt kan worden (portmaster -a sloopt heel zfsguru) moet je genoegen nemen met een licht out of date OS.

Als je zelf weet hoe je alles moet installeren is dat uiteraard veiliger...

Even niets...


  • GNML
  • Registratie: Juli 2003
  • Laatst online: 10-12 22:54

GNML

applebuyguide.com

Heb sinds kort een areca 1680ix-244gb cache over genomen van een mede tweaker.
Van een oude server heb ik 2 sas drives overgezet, de bedoeling was om deze in raid1 te zetten als back-up share van de mailserver. Dit Naast de standaard backups.

Wat ik alleen niet snap is, de read en write snelheden zijn rond de 20mb/s.. Dit kan niet goed zijn lijkt me.
Os 2003 server.
Stripe size 64KBytes
Block size 512Bytes
Cache mode write back
Harde schijf is geformatteerd in 64K allocation unit size.

iPhone 11 | 3x HP Microserver gen8 E3-1265LV2 | www.applebuyguide.com


Verwijderd

Welke alignment gebruik je? Screenshot van AS SSD svp?

  • GNML
  • Registratie: Juli 2003
  • Laatst online: 10-12 22:54

GNML

applebuyguide.com

diskpart geeft
BlockSize Index Name StartingOffset
512 0 Disk #6, Partition #0 32256
offset is 32kb

as ssd werkt niet (.net error)

-----------------------------------------------------------------------
CrystalDiskMark 3.0.2 (C) 2007-2013 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]

Sequential Read : 199.027 MB/s
Sequential Write : 154.293 MB/s
Random Read 512KB : 197.219 MB/s
Random Write 512KB : 168.929 MB/s
Random Read 4KB (QD=1) : 89.298 MB/s [ 21801.2 IOPS]
Random Write 4KB (QD=1) : 8.458 MB/s [ 2065.0 IOPS]
Random Read 4KB (QD=32) : 6.200 MB/s [ 1513.7 IOPS]
Random Write 4KB (QD=32) : 6.565 MB/s [ 1602.8 IOPS]

Test : 1000 MB [I: 12.3% (16.1/130.4 GB)] (x5)
Date : 2013/05/16 20:13:04
OS : Windows Server 2003 SP2 [5.2 Build 3790] (x86)

Disk alignment stond op 32kb, had hem naar 1024 gezet. Nu gelijk gezet met de array stripe size 64kb en dit kwam eruit:

-----------------------------------------------------------------------
CrystalDiskMark 3.0.2 (C) 2007-2013 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]

Sequential Read : 198.500 MB/s
Sequential Write : 144.273 MB/s
Random Read 512KB : 196.924 MB/s
Random Write 512KB : 174.617 MB/s
Random Read 4KB (QD=1) : 88.503 MB/s [ 21607.2 IOPS]
Random Write 4KB (QD=1) : 6.504 MB/s [ 1587.9 IOPS]
Random Read 4KB (QD=32) : 176.711 MB/s [ 43142.2 IOPS]
Random Write 4KB (QD=32) : 169.562 MB/s [ 41396.9 IOPS]

Test : 1000 MB [I: 0.1% (0.1/130.4 GB)] (x5)
Date : 2013/05/16 20:50:16
OS : Windows Server 2003 SP2 [5.2 Build 3790] (x86)

probleem lijkt opgelost! dank

[ Voor 104% gewijzigd door GNML op 16-05-2013 20:58 ]

iPhone 11 | 3x HP Microserver gen8 E3-1265LV2 | www.applebuyguide.com


Verwijderd

Nou nee, want nu test je de RAM van je controller, en niet de disks. Probeer de test size zo hoog mogelijk in te stellen (8GB?) maar eigenlijk is dat ook niet voldoende. Maar dan krijg je als het goed is al wel iets meer echte scores.

Alignment van 32KiB is overigens prima; alle veelvouden van 4K zijn in principe prima. Alignment van 1K is niet prima, tenzij je 1024K (dus 1,048,576 ofwel 2048 sectoren) bedoelt.

  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 18-12 15:34
Hoi iedereen,


Enkele pagina's terug in dit topic heb ik mede met jullie een setup samengesteld voor mijn ESXI server. Na een goede 3 weken waren alle componenten geleverd, buiten de SSD, die heb ik geannuleerd omdat dit nog langer ging duren.

Dus ben ik gisteren maar eens beginnen knutselen:

#ProductPrijsSubtotaal
1Intel Core i5 3330 Boxed€ 158,50€ 158,50
1ASRock B75 Pro3-M€ 56,90€ 56,90
2Seagate Barracuda 7200.14 ST2000DM001, 2TB€ 77,50€ 155,-
6Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 108,99€ 653,94
1BitFenix Shinobi Window€ 48,95€ 48,95
23Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M€ 17,20€ 34,40
1Sharkoon Internal USB3.0 adapter€ 5,19€ 5,19
2Silverstone SST-CP06 4x SATA€ 8,17€ 16,34
1GeIL Enhance Corsa GOC332GB1600C10QC€ 211,28€ 211,28
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1be quiet! Pure Power L8 530W€ 64,70€ 64,70
1Intel 320 80GB€ 127,50€ 127,50
Bekijk collectie
Importeer producten
Totaal€ 1.651,28


Afbeeldingslocatie: http://img594.imageshack.us/img594/8819/img7953i.jpg

Afbeeldingslocatie: http://i48.tinypic.com/11qpffs.png


Voorlopig heb ik bijna alles draaiende gekregen. De problemen kwamen al opdagen met het flashen van de IBM 1015, omdat mijn bios UEFI is en niet DOS kreeg ik telkens foutmeldingen. Na een half uurtje googelen vond ik het antwoord en via de UEFI shell is het me dan toch gelukt om de kaart in IT mode te draaien.

Nu heb ik de 3 VMDK's al aangemaakt en beginnen te configureren maar ik stoot op een probleem bij de FreeNAS.

Ik heb de IBM kaart op passtrough gezet en toegevoegd aan de VMDK van FreeNAS, maar wanneer ik binnen FreeNAS opzoek ga naar mijn harde schijven gekoppeld aan de kaart dan vind ik ze nergens terug.

Moet ik nog ergens iets doen zodat deze wel tevoorschijn komen, drivers installeren of aanpassingen doen binnen ESXI zelf?

Want momenteel kan ik dus niet verder aangezien FreeNAS mijn volgend werkpunt was.

Als iemand hier meer informatie over kan geven zou dit geweldig zijn, voorlopig draait alles ook nog niet super maar het fine-tunen is pas voor later.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Pak Nas4Free eens. Die is een stuk niewer en kan goed de nieuwste mps driver bevatten.

Even niets...


  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 18-12 15:34
Ik had blijkbaar de instellingen niet goed opgeslagen waardoor ze niet was toegevoegd aan de VM machine zelf.

Zeer dom van mij maar het probleem is helaas nog niet opgelost.

Momenteel heb ik FreeNAS 8 kaal geïnstalleerd zonder de IBM 1015 kaart toe te voegen. Dit omdat ik tijdens het laden van de installatie of opstartprocedure na de installatie volgende error-timeout krijg te zien wanneer ik ze wel toevoeg. (dit geld ook voor NAS4Free).

Afbeeldingslocatie: http://img845.imageshack.us/img845/8575/freenaserrorpci.png

Deze timeout blijft duren en verhoogt telkens met 60 seconden tot ik de machine gedwongen moet aflsuiten.

Als ik de IBM kaart niet toevoeg krijg ik deze foutmelding niet en kan de installatie of opstart van FreeNAS/Nas4Free gewoon doorgaan zonder problemen.

De kaart zorgt dus om 1 of ander probleem waar ik het gokken naar heb (iemand ideetjes).

Hier nog 2 screenshots van de instellingen met de kaart:

Afbeeldingslocatie: http://img259.imageshack.us/img259/2073/pcipasstrough.png

Afbeeldingslocatie: http://img853.imageshack.us/img853/5420/freenasinstellingen.png

[ Voor 5% gewijzigd door Toon-VA op 17-05-2013 13:52 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Die melding komt omdat MSI/MSI-X niet goed werkt. Je moet even je /boot/loader.conf wijzigen en de volgende regels toevoegen:

hw.pci.enable_msix="0"
hw.pci.enable_msi="0"

Even niets...


  • fonsoy
  • Registratie: Juli 2009
  • Laatst online: 00:14
Is inderdaad een bekend probleem bij alle ZFS systemen die gevirtualiseerd worden.
Ik ben ook benieuwd of je last krijgt van een interrupt storm. In dat geval moet je het aantal vCores op 1 zetten. Dan nog is het systeem als het goed is performant genoeg.

Het valt wel te hopen dat de fout vroeg of laat wordt opgelost, maar wat dat betreft zijn we overgeleverd aan de gratie van de ontwikkelaars :)

Lenovo W520 - i7 2720QM - 8GB DDR3 1333Mhz - 1080p - Nvidia 1000M - 9 cell accu


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 01:24

OMX2000

By any means necessary...

Heeft iemand al ervaring met de Toshiba 3 TB schijven? Is de performance vergelijkbaar met die van de concurrenten?

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 20:48
OMX2000 schreef op vrijdag 17 mei 2013 @ 14:40:
Heeft iemand al ervaring met de Toshiba 3 TB schijven? Is de performance vergelijkbaar met die van de concurrenten?
Ze gebruiken de technologie van Western Digital, dat zit dus wel snor.


Bron
Het Japanse technologiebedrijf Toshiba heeft een overeenkomst met Western Digital getekend waarin Toshiba niet alleen productiemiddelen van Western Digitals 3,5"-harde schijven overneemt, maar ook het intellectueel eigendom verkrijgt.

[ Voor 37% gewijzigd door GioStyle op 17-05-2013 14:58 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Heb je daar een bronnetje van? :)

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
OMX2000 schreef op vrijdag 17 mei 2013 @ 14:40:
Heeft iemand al ervaring met de Toshiba 3 TB schijven? Is de performance vergelijkbaar met die van de concurrenten?
Ik heb ze in mijn server zitten.
Werkt helemaal goed.

Het zijn drives die Hitachi heeft gemaakt 'vroeger'
De 1e serie lees je uit als een 7K3000 hdd van Hitachi, de latere bios geeft Toshiba aan..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Pagina: 1 ... 126 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.