Verwijderd

Dadona schreef op woensdag 27 oktober 2010 @ 22:10:
Nice is een applicatie voor (oa) FreeBSD. Daarmee kun je prioriteiten toekennen aan processen. Nice +20 geeft de laagste prioriteit aan een proces.
Dat is inderdaad makkelijk.

Is FreeBSD veel ingewikkelder dan bijvoorbeeld Ubuntu? Wil SabNZB en Sickbeard draaien (Python). Is het lastig deze tools en Mdadm op FreeBSD te installeren en/of gaat het ook prima op FreeNAS? Heb nog geen kennis van Linux maar wil het wel leren. Heb ook een maatje die met Ubuntu en Debian kan werken. As always of course, Google is your friend _/-\o_

Zit eigenlijk op Openmediavault te wachten maar dat duurt denk ik nog wel even voordat die gereleased wordt.

Heb in mijn hoofd voor mijn NAS de setup wel staan. Alleen nog even door het forum neuzen wat voor 2TB harddrives ik erin ga gooien :)

[ Voor 4% gewijzigd door Verwijderd op 27-10-2010 22:44 ]


  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 22-12 12:28
Verwijderd schreef op woensdag 27 oktober 2010 @ 22:29:
[...]


Dat is inderdaad makkelijk.

Is FreeBSD veel ingewikkelder dan bijvoorbeeld Ubuntu? Wil SabNZB en Sickbeard draaien (Python). Is het lastig deze tools en Mdadm op FreeBSD te installeren? Heb nog geen kennis van Linux maar wil het wel leren en heb een maatje die met Ubuntu en Debian kan werken. As always of course, Google is your friend _/-\o_

Zit eigenlijk op Openmediavault te wachten maar dat duurt denk ik nog wel even voordat die gereleased wordt.

Heb denk ik de basis van mijn NAS setup wel staan. Alleen nog even door het forum neuzen wat voor 2TB harddrives ik erin ga gooien :)
Nice kun je ook onder linux en dus ubuntu gebruiken :)
Ik heb zelf 5 2TB WD20EARS draaien en ben daar niet ontevreden over, anderen zul je Samsung horen aanbevelen enz enz enz...

specs


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Ik haalde FreeBSD aan omdat ISaFeeliN dat gebruikt. (Sowieso zou ik niet vanwege een, simpele, applicatie van platform wisselen.)

FreeBSD vs Ubuntu (om twee populaire distros van unix-like en linux te noemen) is een beetje als Windows vs Ubuntu. Windows is populairder dan Ubuntu, met twee gevolgen: het is interessanter voor (exotische) ontwikkelaars en zelfstandig problemen oplossen (middels Google) is makkelijker omdat er vast wel iemand hetzelfde probleem heeft gehad. In de vergelijking tussen Ubuntu en FreeBSD is Ubuntu de meer populaire distro. (In ieder geval onder consumenten.)
Dit zegt niet dat FreeBSD minder interessant is, absoluut niet. FreeBSD is alleen misschien wat zakelijker, meer gericht op de server kant, hoge stabiliteit en features waar je in het bedrijfsleven heel blij van kunt worden.

Mind you, dit zijn accenten en vanuit mijn optiek geschreven, met nog beperkte *nix ervaring. Als je nog moet beginnen dan kan het interessant zijn om de omgeving te volgen, of anders gewoon wat te spelen met FreeBSD en Ubuntu (hoewel ik persoonlijk Debian zou kiezen voor een server).

[ Voor 3% gewijzigd door Dadona op 27-10-2010 23:18 ]

De CSL/OT kroeg !


  • Demo
  • Registratie: Juni 2000
  • Laatst online: 22-12 08:23

Demo

Probleemschietende Tovenaar

Ik denk dat je je keuze vooral moet laten afhangen van het filesystem.. ZFS (FreeBSD) is/was erg veelbelovend, maar door de overname van Sun staat de toekomst hiervan enigszins op de tocht (is het nodige over te vinden in dit topic) en een aantal features moeten nog geïmplementeerd worden.
mdadm/lvm2/ext4 of xfs is een hoop lagen op elkaar, maar performt uiteindelijk meer dan voldoende voor een thuis-NAS. Bovendien is voor Linux (en met name Debian/Ubuntu) erg veel software beschikbaar.

Zelf heb ik vanaf ik denk 2004 FreeBSD gedraaid (mijn eerste ervaring met een *nix OS) en ben pas sinds anderhalf jaar over op Ubuntu Server. Af en toe mis ik FreeBSD, maar over het algemeen heb ik geen spijt van mijn switch.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Verwijderd

Mwa vind ik niet echt een goed argument. Al blijft ZFS zoals het nu is en alleen stability fixes, dan nog zijn de features zo goed dat elk ander FS inferior lijkt. Alleen Btrfs zou kunnen concurreren, maar is enkel filesystem en dus niet direct met ZFS vergelijkbaar. Ik ken eigenlijk geen andere filesystems die tegelijkertijd RAID engine zijn; dat is vrij uniek en ook waar veel van de features van ZFS op berusten.

Voor een NAS is ZFS hét fs om te draaien. Maar je zou wel kunnen zeggen dat nu OpenSolaris draaien hooguit een tijdelijke optie is, omdat de support en updates voor dit OS gewoon ten einde zijn. Maar genoeg andere distro's die je van ZFS voorzien, toch? En al die nieuwe features als de-duplication zijn geinig maar heb je echt niet nodig. Belangrijkste features zaten al in de eerste release.

  • ISaFeeliN
  • Registratie: November 2005
  • Laatst online: 20-12 09:31
Verwijderd schreef op woensdag 27 oktober 2010 @ 22:29:
[...]
Is FreeBSD veel ingewikkelder dan bijvoorbeeld Ubuntu? Wil SabNZB en Sickbeard draaien (Python). Is het lastig deze tools en Mdadm op FreeBSD te installeren en/of gaat het ook prima op FreeNAS? Heb nog geen kennis van Linux maar wil het wel leren. Heb ook een maatje die met Ubuntu en Debian kan werken. As always of course, Google is your friend _/-\o_
Als je nog geen enkele UNIX ervaring hebt en in je op je eentje gaat verkennen, zal Linux (Ubuntu specifiek) je sneller vruchten afwerpen; het is een stuk toegankelijker. Ik ben nu eenmaal FreeBSD gewend, en krijg er sneller op elkaar wat ik wil dan bij Linux, en ik weet dan ook hoe het werkt.

Linux kan meer dan FreeBSD kan (vooral als het exotisch wordt, maar aan een NAS is niets exotisch), en het gaat een stuk makkelijker omdat het toegankelijker is en er meer mensen mee bezig zijn. Er is daarom ook meer te vinden erover op fora voor als je hulp zoekt. Ben je Linux gewend kan je altijd eens een zijstapje naar FreeBSD doen.

Een andere optie is natuurlijk FreeNAS (die ook al ZFS ondersteunt, en dat is allemaal klikbaar in een mooie webGui), die draait volgens mij ook SAB, alleen zit je dan vast aan releases van FreeNAS voor updates.

[ Voor 5% gewijzigd door ISaFeeliN op 28-10-2010 22:22 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Verwijderd schreef op donderdag 28 oktober 2010 @ 14:33:
Mwa vind ik niet echt een goed argument. Al blijft ZFS zoals het nu is en alleen stability fixes, dan nog zijn de features zo goed dat elk ander FS inferior lijkt. Alleen Btrfs zou kunnen concurreren, maar is enkel filesystem en dus niet direct met ZFS vergelijkbaar. Ik ken eigenlijk geen andere filesystems die tegelijkertijd RAID engine zijn; dat is vrij uniek en ook waar veel van de features van ZFS op berusten.

Voor een NAS is ZFS hét fs om te draaien. Maar je zou wel kunnen zeggen dat nu OpenSolaris draaien hooguit een tijdelijke optie is, omdat de support en updates voor dit OS gewoon ten einde zijn. Maar genoeg andere distro's die je van ZFS voorzien, toch? En al die nieuwe features als de-duplication zijn geinig maar heb je echt niet nodig. Belangrijkste features zaten al in de eerste release.
ZFS is qua features heel leuk, maar de meeste features zijn voor thuisgebruik niet zo belangrijk. Wat bijvoorbeeld voor thuisgebruik wel leuk is: het kunnen toevoegen (growen/expanden) van je array met extra disks naarmate je meer capaciteit nodig hebt. en dat is dus een feature die ontbreekt. Niets ten nadele van ZFS, een mooi FS, maar voor thuisgebruik zijn andere features veel belangrijker.

Zoals ook gebruiksvriendelijkheid. Vechten met computers doe je maar op je werk, thuis moet de machine in mijn beleving gewoon fatsoenlijk zijn werk doen en makkelijk in gebruik zijn. FreeBSD is niet zo makkelijk en gebruiksvriendelijk als een doorsnee Ubuntu of Debian. Windows is nog vriendelijker voor de meeste mensen, maar dan mis je weer de lol van software RAID.

ZFS vind ik een beetje teveel hype. Voor de mensen die niet zo super unix-onderlegd zijn, wat helemaal niet erg is, is ZFS misschien niet de meest voor de hand liggende keuze. die hebben meer aan de grote community met veel info zoals Ubuntu.

Ja ZFS is tof en modern. Maar voor 90% van de bezoekers hier is het schieten met een kanon op een mug.

  • Jrz
  • Registratie: Mei 2000
  • Laatst online: 09:36

Jrz

––––––––––––

Waarom geen gluster gebruiken?

Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
:D Hoewel je op zich wel een punt hebt dat het niet echt een setup-and-forget OS en filesystem is, vind ik het wel grappig dat juist jij het hebt over expanden, stoeien op werk, enz. :D
Je hebt zelf een NAS gebouwd, puur voor de fun, met 20TB aan opslagruimte. Eigenlijk zou jij dus nu net één van die personen (nog) zijn die met FreeBSD en ZFS zou kunnen werken.

De CSL/OT kroeg !


  • Jrz
  • Registratie: Mei 2000
  • Laatst online: 09:36

Jrz

––––––––––––

Ik heb nooit begrepen wat er zo "moeilijk" is aan freebsd.. Het is juist veel eenduidiger dan de meeste linux distro's.

Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)


Verwijderd

Thnx voor de reacties.

Heb mijn keuze gemaakt en ga voor Ubuntu. FreeNAS is leuk maar heeft toch minder ondersteuning, een kleinere community, beperkte releases en minder flexibiliteit. Nou heb ik dat als beginner nog niet nodig en zal FreeNAS denk ik wel volstaan, maar ik ken mezelf dat ik toch ga experimenteren O-)

Waarschijnlijk ga ik Ubuntu draaien i.c.m. FlexRAID waarbij ik een parity maak voor belangrijke folders (foto's, documenten, etc.). Het zal voornamelijk een download bak worden en media is niet iets wat me zo waardevol is omdat je het zo weer gedownload hebt. Weet niet of RAID 5 performance wise nog voordelen biedt qua read en write speeds?

Nu alleen nog nadenken of ik de disks naar XFS (meest waarschijnlijk) of EXT4 formatteer en hoe ik mijn OS ga booten (USB/2.5" uit oude laptop of gewoon een 1TB 3.5" die ik nog heb liggen).

Dit wordt denk ik mijn eerste NAS 8)

#ProductPrijsSubtotaal
4Samsung EcoGreen F3EG, 2TB€ 83,63€ 334,52
1Lian Li PC-Q08B€ 109,48€ 109,48
1AMD Athlon II X2 240E€ 53,57€ 53,57
1be quiet! Pure Power L7 300W€ 34,90€ 34,90
1Kingston ValueRAM KVR1066D3E7SK2/2GI€ 27,15€ 27,15
1OCZ Gold DDR3 PC3-10666 Low Voltage Dual Channel€ 35,51€ 35,51
1Gigabyte GA-880GMA-UD2H€ 83,-€ 83,-
Bekijk collectie
Importeer producten
Totaal€ 678,13


Ik kan nog eventueel voor Kingston ValueRAM ipv OCG gaan en besparen op de case. NAS gaat toch de meterkast ofzo in.

Nog tips? Schiet maar raak ;)

  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Dadona schreef op vrijdag 29 oktober 2010 @ 00:05:
[...]
:D Hoewel je op zich wel een punt hebt dat het niet echt een setup-and-forget OS en filesystem is, vind ik het wel grappig dat juist jij het hebt over expanden, stoeien op werk, enz. :D
Je hebt zelf een NAS gebouwd, puur voor de fun, met 20TB aan opslagruimte. Eigenlijk zou jij dus nu net één van die personen (nog) zijn die met FreeBSD en ZFS zou kunnen werken.
Het enige wat ik anders heb gedaan is dat ik wat meer storage heb, omdat de meeste mensen wél goed bij hun hoofd zijn en hun geld gewoon aan bier en vrouwen besteden.

Maar mijn systeem is juist opgezet met het idee: hoe kan ik zo goedkoop mogelijk een leuke grote array bouwen, die zo simpel mogelijk en (dus) robuust in elkaar steekt.

1 grote array. 1 groot file system. Geen gedoe met LVM of andere extra lagen, nergens voor nodig. Gewoon een grote map waar ik mijn bestanden in kwijt kan. Geen snapshots, geen andere fratsen of features, ik heb die (ook) niet nodig.

Ik wil alleen maar bestanden opslaan en bereikbaar hebben via het netwerk, meer niet. Debian ken ik al. Thuis wil ik rust. Debian is rust voor mij. BSD niet.

Met je NAS wil je eigenlijk een iPad ervaring: het fucking werkt gewoon. Altijd. Ever. Geen gedonder. Liefst draaide ik een iOS based NAS. ;)

Niet dat BSD nu zoveel 'gedonder' is of ZFS dat is. Maar het is nog net even wat lastiger dan Loenux. En ik ga niet nerden met BSD om het nerden.

Ik vind ZFS oprecht tof maar ik wil mijn tijd er toch niet zo in steken. Met OpenSolaris in de doodskist is ZFS eigenlijk alleen voor de closed Solaris ondersteund en met FreeBSD moet je maar afwachten wat het wordt, die community is niet zo groot.

En dan weer het punt dat alle software die een mens wil draaien onder Ubuntu/Debian werkt. Met BSD is het altijd weer even afwachten. Als je achtergrond BSD is, dan red je het allemaal wel. Maar als je Linux skills hebt en er geen extra noodzaak is voor BSD tja.

[ Voor 16% gewijzigd door Q op 29-10-2010 00:32 ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op vrijdag 29 oktober 2010 @ 00:24:
Nu alleen nog nadenken of ik de disks naar XFS (meest waarschijnlijk) of EXT4 formatteer en hoe ik mijn OS ga booten (USB/2.5" uit oude laptop of gewoon een 1TB 3.5" die ik nog heb liggen).
Ik heb zelf een test gedaan en daar kwam (ook onder Ubuntu) uit dat XFS behoorlijk veel sneller was. EXT4 heeft blijkbaar veel meer CPU nodig om te werken. Als je wat teruggraaft in de topic (ik denk een week of 3) kun je mijn benchmarks terugvinden. Ik vond het verschil best dramatisch.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Linux (ubuntu) + EXT4 + kleine bestanden = fucking drama. Super traag. Op het werk hebben we laptops snel weer terug op EXT3 gezet. Wat een nachtmerrie FS. De uitrol van machines duurde gewoon 45 minuten langer omdat EXT4 zo traag is met veel bestandsbewerkingen.

Verwijderd

Ubuntu kan overigens ook nog Debian worden, maar dat zal elkaar niet veel uitmaken.

Paar vragen nog:
  • Is er een duidelijk performance verschil tussen 32-bit en 64-bit voor een NAS?
  • 2GB of 4GB memory (2GB moet toch gewoon voldoende zijn tenzij je 64-bit gaat??)
  • Is een Software RAID-5 direct gesynced en up-to-date? (FlexRaid is snapshot based |:( ) Stel dat vanavond een nieuwe serie gereleased wordt, welke ik met Sickbeard download, en ik later op de avond al wil zien.
  • Is het verstandig om de OS Drive in RAID 1 te plaatsen (eventueel op een 2.5") of gewoon Raidless? Heb ook een 1TB drive over die ik evt. kan gebruiken voor iets...(downloaden ofzo?)
Thnx!

[ Voor 73% gewijzigd door Verwijderd op 29-10-2010 15:49 ]


  • FrankieHome
  • Registratie: December 2008
  • Laatst online: 22-12 18:34
Verwijderd schreef op vrijdag 29 oktober 2010 @ 00:24:
Thnx voor de reacties.

Heb mijn keuze gemaakt en ga voor Ubuntu. FreeNAS is leuk maar heeft toch minder ondersteuning, een kleinere community, beperkte releases en minder flexibiliteit. Nou heb ik dat als beginner nog niet nodig en zal FreeNAS denk ik wel volstaan, maar ik ken mezelf dat ik toch ga experimenteren O-)

Waarschijnlijk ga ik Ubuntu draaien i.c.m. FlexRAID waarbij ik een parity maak voor belangrijke folders (foto's, documenten, etc.). Het zal voornamelijk een download bak worden en media is niet iets wat me zo waardevol is omdat je het zo weer gedownload hebt. Weet niet of RAID 5 performance wise nog voordelen biedt qua read en write speeds?

Nu alleen nog nadenken of ik de disks naar XFS (meest waarschijnlijk) of EXT4 formatteer en hoe ik mijn OS ga booten (USB/2.5" uit oude laptop of gewoon een 1TB 3.5" die ik nog heb liggen).

Dit wordt denk ik mijn eerste NAS 8)

#ProductPrijsSubtotaal
4Samsung EcoGreen F3EG, 2TB€ 83,63€ 334,52
1Lian Li PC-Q08B€ 109,48€ 109,48
1AMD Athlon II X2 240E€ 53,57€ 53,57
1be quiet! Pure Power L7 300W€ 34,90€ 34,90
1Kingston ValueRAM KVR1066D3E7SK2/2GI€ 27,15€ 27,15
1OCZ Gold DDR3 PC3-10666 Low Voltage Dual Channel€ 35,51€ 35,51
1Gigabyte GA-880GMA-UD2H€ 83,-€ 83,-
Bekijk collectie
Importeer producten
Totaal€ 678,13


Ik kan nog eventueel voor Kingston ValueRAM ipv OCG gaan en besparen op de case. NAS gaat toch de meterkast ofzo in.

Nog tips? Schiet maar raak ;)
Snos,
Lijkt voor een deel op de NAS die ik heb samengesteld en net besteld heb:
#ProductPrijsSubtotaal
1Gigabyte GA-D525TUD€ 74,98€ 74,98
4Samsung EcoGreen F4EG, 2TB€ 79,-€ 316,-
1Lian Li PC-Q08B€ 109,48€ 109,48
1be quiet! Pure Power L7 300W€ 35,56€ 35,56
1Transcend TS2GDOM40V-S€ 19,21€ 19,21
1Kingston ValueRAM KVR1066D3N7K2/2G€ 30,-€ 30,-
Bekijk collectie
Importeer producten
Totaal€ 585,23


Je ziet, ik heb voor een dual-core atom gekozen (D525, 1.8 GHz). Download plannen heb ik er nog niet mee. Ik zit er aan te denken om FreeNAS te gebruiken met een (software) RAID-5. Verder wel ik encryptie gebruiken zodat als er een schijf terug moet voor waranty, ik deze zonder meer kan opsturen. Ik twijfel nog of ik ZFS ga gebruiken. Ik moet mij daar nog wat nader in verdiepen. FreeNAS is nieuw voor mij en ZFS ook.

Heeft iemand tips v.w.b. het implementeren van FreeNAS met RAID-5, ZFS en encryptie, dan lees ik ze hier graag.

Overigens ga ik de Transcend solid state disk gebruiken om FreeNAS op te zetten zodat ik er niet continu een USB-stick in hoef te steken. Deze Transcend prik je direct op de IDE connector en geeft je 2 GB aan ruimte; ruim voldoende voor FreeNAS plus eventueel nog wat extra pakketten...

Verwijderd

FrankieHome schreef op vrijdag 29 oktober 2010 @ 15:19:
Heeft iemand tips v.w.b. het implementeren van FreeNAS met RAID-5, ZFS en encryptie, dan lees ik ze hier graag.
Succes met bouwen Frankie ;)

Check deze URL eens voor het FreeNAS verhaal i.c.m. RAID-5. Deze guide gebruikt op een gegeven moment alleen UFS ipv ZFS.

  • FrankieHome
  • Registratie: December 2008
  • Laatst online: 22-12 18:34
Dank voor deze URL! Nuttig... _/-\o_

  • B3U5
  • Registratie: December 2001
  • Laatst online: 31-10 13:10
Ik ben erg geïnteresseerd in idle/load energy consumption.
Dit daar ik steeds meer neig naar i3 t.o.v. d525.
Voor diegenen die dit nog niet gepost hebben, een oproep om dat alsnog te doen _/-\o_

[ Voor 198% gewijzigd door B3U5 op 29-10-2010 18:35 . Reden: error :P ]


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Verwijderd schreef op vrijdag 29 oktober 2010 @ 01:01:
Ubuntu kan overigens ook nog Debian worden, maar dat zal elkaar niet veel uitmaken.

Paar vragen nog:
[list]
• Is er een duidelijk performance verschil tussen 32-bit en 64-bit voor een NAS?
Denk het niet.
• 2GB of 4GB memory (2GB moet toch gewoon voldoende zijn tenzij je 64-bit gaat??)
Puur als nas + nzb en torrent zat.
• Is een Software RAID-5 direct gesynced en up-to-date? (FlexRaid is snapshot based |:( ) Stel dat vanavond een nieuwe serie gereleased wordt, welke ik met Sickbeard download, en ik later op de avond al wil zien.
Hoe bedoel je synced en up-to-date? RAID 5 geeft je een 'virtuele' hele grote disk met de capaciteit van N-1 disks
• Is het verstandig om de OS Drive in RAID 1 te plaatsen (eventueel op een 2.5") of gewoon Raidless? Heb ook een 1TB drive over die ik evt. kan gebruiken voor iets...(downloaden ofzo?)
Koop twee laptopschijfjes van weinig geld met minimale capaciteit en zet die in RAID 1. Weet je zeker dat je geen gedonder hebt. Kost niets en geeft je nas meer stabiliteit.

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 22-12 22:26

voodooless

Sound is no voodoo!

Jrz schreef op donderdag 28 oktober 2010 @ 23:41:
Waarom geen gluster gebruiken?
Heb je al gelezen wat het is/doet?

Do diamonds shine on the dark side of the moon :?


  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08 23:05
Q schreef op zaterdag 30 oktober 2010 @ 00:08:
[...]
Koop twee laptopschijfjes van weinig geld met minimale capaciteit en zet die in RAID 1. Weet je zeker dat je geen gedonder hebt. Kost niets en geeft je nas meer stabiliteit.
Momenteel heb ik het inderdaad zo; twee HDs in RAID1 met de Debian systeem partities. Maar het nadeel hiervan is dat het de boel vertraagd en tevens een relatief dure optie is. M'n nieuwe systeem wil ik dagelijks backuppen met de LVM (Linux Volume Manager) snapshots en die wegschrijven naar m'n RAID array. Het voordeel hiervan is dat je ook ''echte'' backups aan het maken bent...

Q's RAID1 plan is natuurlijk wel een stuk makkelijker te implementeren.

  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
iBurger schreef op zaterdag 30 oktober 2010 @ 10:57:
[...]


Momenteel heb ik het inderdaad zo; twee HDs in RAID1 met de Debian systeem partities. Maar het nadeel hiervan is dat het de boel vertraagd en tevens een relatief dure optie is. M'n nieuwe systeem wil ik dagelijks backuppen met de LVM (Linux Volume Manager) snapshots en die wegschrijven naar m'n RAID array. Het voordeel hiervan is dat je ook ''echte'' backups aan het maken bent...

Q's RAID1 plan is natuurlijk wel een stuk makkelijker te implementeren.
Ik begrijp dat je nu klein stukje van je RAID array disks afsnoept en die ruimte gebruikt op 2 disks om in RAID 1 je OS op te draaien. Dat kun je doen. Maar ik zie harde schijven voor 30 euro in de pricewatch staan, ben je voor 70 euro klaar. Dan gaat het meer om de vraag of je voldoende SATA aansluitingen hebt.

Verwijderd

Q schreef op zaterdag 30 oktober 2010 @ 00:08:
Koop twee laptopschijfjes van weinig geld met minimale capaciteit en zet die in RAID 1. Weet je zeker dat je geen gedonder hebt. Kost niets en geeft je nas meer stabiliteit.
Lijkt me een prima oplossing alleen moet ik denk ik wel even een SATA controller op het moederbord prikken voor meer SATA aansluitingen.

Volstaat zo'n beetje elke SATA controller hiervoor i.c.m. software RAID 5?

  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Verwijderd schreef op zaterdag 30 oktober 2010 @ 12:10:
[...]


Lijkt me een prima oplossing alleen moet ik denk ik wel even een SATA controller op het moederbord prikken voor meer SATA aansluitingen.

Volstaat zo'n beetje elke SATA controller hiervoor i.c.m. software RAID 5?
Ja. :)

  • Jrz
  • Registratie: Mei 2000
  • Laatst online: 09:36

Jrz

––––––––––––

voodooless schreef op zaterdag 30 oktober 2010 @ 09:38:
[...]


Heb je al gelezen wat het is/doet?
Euhh ja? Voor 1 server misschien niet zo interesant.. maar je kan gewoon meerdere schijven gebruiken en dan ook een mirror opzetten.

Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)


  • dataindataout
  • Registratie: Oktober 2010
  • Laatst online: 06-02 09:38
Ik volg reeds enige tijd met aandacht dit forum. Een paar weken geleden ben ik redelijk wat data ( zelfgedraaide video en foto's ) kwijtgeraakt. Dat was een wtf-moment gevolgd door een "gelukkig heb ik een back-up"-moment. Tijdens het terugzetten van de back-up kreeg ik I/O-errors en bleek de back-up ook naar de maan, weg data.

Ik heb de verhaaltjes over omvallende bitjes, RAID, back-ups etc. gelezen en ik heb besloten een NAS te bouwen. In eerste instantie moet deze mijn data zo veilig mogelijk opslaan, later wil ik er eventueel mijn cd/dvd-collectie ook nog op kwijt. Ik heb getracht een systeem samen te stellen waarop ik BSD kan draaien, aangezien ik ZFS ( raidz2 ) wil gebruiken, en dat overweg kan met ECC-geheugen. Aan kopies van data stockeren bij grootouders enzo ga ik niet meedoen, zoveel moeite ga ik niet doen, gewoon de data zo veilig mogelijk bij mij thuis opslaan is de opdracht.

Kunnen jullie aub jullie mening geven over deze setup:

Asus P7F-X (i3420 - ATX - S1156 - DDR3) € 163,65 (link asus.com)
INTEL Core i3-540 (2C - S1156-1333MHz-4MB) 3,0 BOX € 97,66
PC3-10666 - 2GB - UDIMM - Kingston Server C9 2X € 39,01= € 78,02
Revoltec SIXTY2 Case € 61,55
450 Watt PSU - Be Quiet System Power 80+ € 55,24
S-ATA Voedingskabel - 4 pins -> 2xS-ATA - 0,15 mtr 2x € 5,71 = € 11,42
Western Digital 1 TB 10EARS - SATA2 - 64 MB 5x € 54,95 = € 274,77
Western Digital 320 GB 3200AAKS - SATA2 - 16 MB € 33,50

totaal inclusief verzending: 787,59€

Zoals jullie kunnen zien bestel ik alles bij die bepaalde site, niet om reclame te maken maar omdat ik dan maar één keer verzendingskosten moet betalen en ik altijd tevreden was daar. Als jullie alternatieven voorstellen zou ik die ook graag daar kunnen kopen.

ECC maakt alles meteen duur, zo heb ik een duur moederbord moeten nemen. Bestaan er goedkopere alternatieven? Intel of AMD speelt voor mij geen rol. Ik heb er het geld wel voor over maar nu vind ik het nogal belachelijk om veel uitbreidingsmogelijkheden te hebben als ik niet van plan ben ze te gebruiken. Hopelijk is dit bord van goede kwaliteit. 6 SATA-aansluitingen dus ik heb niet meteen een uitbreidingskaartje nodig.

De Core i3 omdat dat de goedkoopste was in de lijst en ik ga er van uit dat dat rekenkracht genoeg is voor een NAS. Een i5 is meteen 60€ duurder, om van de Xeons nog maar te zwijgen...

2 keer 2 GB geheugen. ZFS heeft naar het schijnt baat bij meer geheugen. ECC UDIMM dus dat zou moeten werken, of heb ik dat mis?

Case kan mij eigenlijk niet boeien, in deze kan ik volgens mij wel 6 schijven kwijt. Moet ik nog brackets bestellen om die harde schijven vooraan in de kast te monteren?

Over de PSU neem ik graag suggesties aan. Voldoet deze of toch maar groter/kleiner/ander merk? Samen met de kabeltjes op mijn lijstje zou ik wel genoeg aansluitingen moeten hebben.

5 schijven van 1 TB, van dit type heb ik al enkele schijven en ik heb er geen klagen over. Deze wil ik in raidz2 zetten dus dat geeft mij 3 TB opslag. Dat is genoeg voor mij.

1 kleine schijf voor het OS en op te werken.

Heeft er iemand ervaring met hoe gemakkelijk je nog aan je data kan als je OS-schijf er de brui aan geeft? Gewoon een nieuwe insteken, BSD opnieuw installeren en de ZFS schijven mounten?

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Even laten zien dat 2GB geheugen in een NAS meer dan voldoende is (afhankelijk natuurlijk dan de services):

last pid: 37502; load averages: 0.38, 0.35, 0.27 up 1+23:49:43 22:12:54
37 processes: 1 running, 36 sleeping
CPU: 0.5% user, 0.0% nice, 9.9% system, 7.9% interrupt, 81.7% idle
Mem: 55M Active, 1518M Inact, 298M Wired, 64M Cache, 210M Buf, 6876K Free
Swap: 3995M Total, 140K Used, 3995M Free

Systeem wordt zwaar gebruikt op dit moment:
2 x 1080P video stream
1 x Data kopie
1 x MP3 afspelen

Toch blijft het geheugen gebruik erg laag. Draai trouwens FreeBSD 8.1 met AFPD.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • ISaFeeliN
  • Registratie: November 2005
  • Laatst online: 20-12 09:31
Beus206 schreef op vrijdag 29 oktober 2010 @ 18:32:
Ik ben erg geïnteresseerd in idle/load energy consumption.
Dit daar ik steeds meer neig naar i3 t.o.v. d525.
Voor diegenen die dit nog niet gepost hebben, een oproep om dat alsnog te doen _/-\o_
Ik heb net een NAS af op Intel's Atom D510 gebaseerd, moederbordje van SuperMicro (X7SPA-H), FreeBSD 8.1 + ZFS en dan met Samba (3.4) de boel serveren.

Lezen vanaf Win7 clients: 60-80MB/sec
Schrijven vanaf Win7 clients: 40-50MB/sec

Idle (disk downspinned): 22 watt
Normale usage: 40 watt

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
dataindataout schreef op zaterdag 30 oktober 2010 @ 21:56:
en dat overweg kan met ECC-geheugen.
Heb je dan niet een Intel Xeon nodig? Bij AMD heb je, voor wat de processoren betreft, een Athlon of een Phenom nodig om non-registered ECC geheugen te kunnen benutten. Een Opteron kan ook registered ECC geheugen ten volle benutten. Semprons hebben geen ECC ondersteuning.

De CSL/OT kroeg !


  • dataindataout
  • Registratie: Oktober 2010
  • Laatst online: 06-02 09:38
Dadona: inderdaad :(

Weet je toevallig een moederbord dat dan geschikt kan zijn? Het is nogal moeilijk zoeken op ECC en zo veel mogelijk sata poorten.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Goedkoopste optie is om voor AMD te gaan en dan te kiezen voor een Asus bord of (bepaalde) moederborden van Biostar.
Ik weet dat op AM3 vlak de Biostar TA790GX A3+ opties voor ECC, zes keer SATA heeft en tegelijk behoorlijk zuinig is. De moederborden van Asus zijn minder zuinig maar hebben, voor zover ik weet, allemaal de mogelijkheid om ECC aan te spreken, dus je kunt daarbij een moederbord kiezen dat wat beter bij je wensen aansluit.

De CSL/OT kroeg !


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Gebruik zelf de volgende ECC config:

#ProductPrijsSubtotaal
1Kingston ValueRAM KVR800D2E6/2G€ 41,11€ 41,11
1Asus M4A78-E€ 72,51€ 72,51
1AMD Athlon II X2 240E€ 53,95€ 53,95

Betaalbaar, zuinig en snel. Betrouwbaar kan ik weinig over zeggen, maar het draait al een paar weken (24x7) zonder problemen.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Moederbord is ook nog eens tweedehans op Tweakers voor 50 euro. :) Maar zuinigheid, ben benieuwd naar waarden, want Asus heeft haar gepatenteerde 'better safe than sorry' model* weer toegepast ten aanzien van het aantal fasen. Dit zal de stabiliteit wel ten goede komen voor overclockers (of het echt noodzakelijk is laat ik in het midden), maar is voor een 240E super overkill.
*Gigabyte maakt van een soortgelijk model alleen gaat het daarbij om super lange duurzaamheid; de zaak niet overbelasten dan gaat het langer mee.

Overigens wil ik hiermee niet zeggen dat Asus en/of Gigabyte een slechte keuze zijn, maar wel als de laagste idle waarden belangrijk zijn. Qua betrouwbaarheid zou ik vooralsnog niet durven zeggen of Asus en Gigabyte betrouwbaarder zijn, maar het lijkt er wel op dat ze wat meer marge hebben op de onderdelen.

[ Voor 11% gewijzigd door Dadona op 31-10-2010 15:13 ]

De CSL/OT kroeg !


Verwijderd

@dataindataout: je wilt meer dan 4GB in ZFS NAS als je performance wilt; 4GB zou je als minimum kunnen beschouwen. Met 4GB worden sommige ZFS functies uitgeschakeld, zoals prefetching.

En je wilt je schijven veranderen naar Samsung F4; zijn 50% sneller dan 4-platter EARS in ZFS RAID-Z. Nieuwere 3-platter EARS is wel een optie; maar waarom niet Samsung? WD maakt de laatste tijd niet zulke goede schijven IMO; de nieuwe 3TB en oude 4-platter EARS in het bijzonder.

Als je ECC wilt betekent dat bijna per definitie dat je AMD moet gaan, anders verspil je bakken met geld voor iets wat onder ZFS toch beperkt nut heeft. Je kunt prima non-ECC met ZFS gebruiken; juist als je géén ZFS gebruikt is ECC hard nodig! Dus gebruik eerder ECC op je desktop die de data naar de NAS gaat schrijven; je hebt weinig aan ECC geheugen in de server and je client die de data aanvoert memory corruption heeft.

Oh en je hebt misschien geen aparte systeem HDD nodig; is beetje zonde. Probeer het te doen met een USB stick van 2GB; scheelt ook weer energie. Dus die 320GB heb je niet echt nodig denk ik.

Als je nou helemaal gaaf met ZFS wilt werken, koop dan een SSD zodra de nieuwe 3e generatie beschikbaar is: SF-2000, Micron C400 of Intel G3 zijn interessante keuzes. Alleen van de Intel G3 weet ik zeker dat ze veilig kunnen schrijven (supercapacitor) - dus dit type SSD is geschikt voor zowel ZIL als cache device; wat je snelheden enorm kan opkrikken en dus een must is voor een performance ZFS server.

Denk ook aan link aggregation; 2 onboard NICs + nog 2 losse NICs geeft je al snel 4Gbps ruwe bandbreedte.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Hoeveel computers heb jij thuis dat je 4Gbps ruwe bandbreedte wil? :+
Maar als je voor een SSD gaat dan moet je er meteen twee nemen, want als er iets fout gaat met je SSD dan ben je meteen je array kwijt!
Btw, als je nu een EARS schijf koopt zijn het toch inmiddels gewoon drie platter schijven? De eerste drie platter schijven waren er rond mei van dit jaar. Het lijkt mij dat de shops inmiddels toch wel door de vier platters heen zijn?

[ Voor 36% gewijzigd door Dadona op 31-10-2010 15:38 ]

De CSL/OT kroeg !


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Verwijderd schreef op zondag 31 oktober 2010 @ 15:13:
@dataindataout: je wilt meer dan 4GB in ZFS NAS als je performance wilt; 4GB zou je als minimum kunnen beschouwen. Met 4GB worden sommige ZFS functies uitgeschakeld, zoals prefetching.
Is het niet totaal waanzinnig dat je in een NAS voor thuisgebruik bijna 'verplicht' 4 GB RAM moet gaan stoppen?

Je kunt een prima stabiel en snel NAS bouwen met 512 MB RAM.
juist als je géén ZFS gebruikt is ECC hard nodig!
ECC is wenselijk voor mission-critical server toepassingen, niet voor thuisgebruik. De risico's van non-ecc geheugen worden hier schromelijk overdreven.

ECC is voor thuisgebruik overkill. Je moet mensen geen complex aanpraten.
Denk ook aan link aggregation; 2 onboard NICs + nog 2 losse NICs geeft je al snel 4Gbps ruwe bandbreedte.
Maar wat moet je met die bandbreedte als andere apparatuur in je netwerk dat niet kan benutten?
Oh en je hebt misschien geen aparte systeem HDD nodig; is beetje zonde. Probeer het te doen met een USB stick van 2GB; scheelt ook weer energie. Dus die 320GB heb je niet echt nodig denk ik.
Dan maak je paniek over ECC geheugen, maar laat je wel iemand booten van een USB-stick van 10 euro die na drie dagen (bij wijze van spreken) door zijn write-cycles heen is als het tegen zit. Ik snap hier niets van. In het kader van je advies over ECC zou ik verwachten dat je mensen op zijn minst 2 van die USB-sticks in RAID 1 laat zetten of zelfs twee reguliere disks (2.5"?) voor het OS in RAID 1 laat draaien, of 2 goedkope SSD's.

Maar in dit topic gaat het volgens mij voor iedereen om storage capaciteit en niet om bandbreedte, zolang de Gigabit maar vol getrokken wordt is het voor 99% van de mensen hier wel goed.

[ Voor 36% gewijzigd door Q op 31-10-2010 19:13 ]


  • x0rcist
  • Registratie: Juni 2004
  • Laatst online: 02-11-2024
Ik volg dit topic al een tijdje en ben van plan om ook zelf ook een nas te gaan bouwen.

Nu lees ik net voorgaande postings over AMD, ECC, Asus vs Biostar en laat ik daar nu net een config op aan het samenstellen zijn.

Ik was eerst van plan om voor een mini itx mobo te gaan maar kon er geen vinden die ECC ondersteunt. Jammer want ik wilde voor de Fractal Design Array R2 kast gaan. De Biostar borden leken leuk maar de meeste hebben maar 5 interne sata aansluitingen. Nu dus een Asus..

Verder ben ik er nog niet helemaal over uit over onderstaande config en waarschijnlijk ga ik de 2,5" in raid 1 draaien en de 2TB schijven in Raid 5 (met 1 hot spare). Het systeem gaat iig draaien op Debian en gaat onder andere dienst doen als download server, webserver, itunes streamer (forked-daapd), backup etc.

Misschien heb je iets aan de volgende config dataindata out. Mocht de rest opmerkingen en/of aanmerkingen hebben op de config.. shoot! :+

#ProductPrijsSubtotaal
4Western Digital Caviar GreenPower WD20EARS, 2TB€ 77,29€ 309,16
1Samsung Spinpoint M7 HM251HI , 250GB SATA-300, 8MB, 5400rpm€ 32,16€ 32,16
1Fractal Design Define R3 (Grijs)€ 96,90€ 96,90
1AMD Athlon II X2 250E€ 67,84€ 67,84
1be quiet! Pure Power L7 300W€ 35,56€ 35,56
1Kingston ValueRAM KVR1333D3E9SK2/2G€ 33,86€ 33,86
1Asus M4A88TD-M/USB3€ 84,90€ 84,90

Verwijderd

Dadona schreef op zondag 31 oktober 2010 @ 15:26:
Hoeveel computers heb jij thuis dat je 4Gbps ruwe bandbreedte wil? :+
Je kunt beter vragen hoeveel hardeschijven ik heb; in elk geval meer dan 3; en 3 HDDs kom je theoretisch al aan de 4Gbps, dus waarom doen alsof 4Gbps zo snel is? Ethernet is, relatief aan andere IT-infrastructuur, erg langzaam aan het evolueren; hoelang zitten we nu al met gigabit? 10GbE is nog hardstikke zeldzaam en zelfs al heb je dat nu dan is dat alweer te weinig voor een flinke NAS.

Ethernet is dus de grootste bottleneck voor een NAS. Met link aggregation kun je van je 2 onboard Intel NICs + 2 losse PCIe realteks een 4Gbps virtuele NIC maken. Onder Linux werkt dat ook. Onder Windows natuurlijk weer niet: dan mag je gaan dokken voor een Intel server adapter; honderden euros gaat dat geintje je kosten. Maar je hebt geen speciale (managed) switch nodig.
Maar als je voor een SSD gaat dan moet je er meteen twee nemen, want als er iets fout gaat met je SSD dan ben je meteen je array kwijt!
Je bedoelt dat als je de SSD als SLOG/ZIL device gebruikt, en voor ZFS pool versie 19 het verliezen van je log disk betekent dat je hele array naar de knoppen is. Ja in dat geval heb je zeker gelijk. Dus gebruik je totdat je ZFS pool versie 19 of hoger draait gewoon de SSD voor L2ARC of Cache, en dat is volkomen veilig.

Je kunt SSD ook gewoon als primary storage gebruiken, in RAID0, en backuppen op je RAID-Z pool. SSDs kun je partitioneren en voor allerlei taken gebruiken:
1) primary storage (eigen zfs pool)
2) swap partitie voor systeem
3) L2ARC cache device voor ZFS HDD pool (veilig)
4) SLOG/ZIL device voor ZFS HDD pool (gevaarlijk)
Btw, als je nu een EARS schijf koopt zijn het toch inmiddels gewoon drie platter schijven? De eerste drie platter schijven waren er rond mei van dit jaar. Het lijkt mij dat de shops inmiddels toch wel door de vier platters heen zijn?
Who knows; als je van een webshop koopt met een hoge omloopsnelheid zoals 4Launch enzo, ja dan lijkt me wel dat je nu een 3-platter koopt. Maar aangezien de 3-platter en 4-platter hetzelfde typenummer hebben is dit wel een kritisch gegeven. Ik zou voor de Samsung F4 gaan, die presteert 50% beter dan WD EARS 4-platter in RAID-Z configuraties. The nieuwere WD EARS zou betere firmware hebben en de 512-byte sector emulatie sneller uitvoeren en dus minder snelheid verliezen dan de oudere 4-platter EARS.
Q schreef op zondag 31 oktober 2010 @ 19:04:
Is het niet totaal waanzinnig dat je in een NAS voor thuisgebruik bijna 'verplicht' 4 GB RAM moet gaan stoppen?
Is niet waanzinnig dat 64GiB RAM nog zo duur is; en dat DRAM qua zowel snelheid, design an prijs-per-gigabyte nauwelijks maar dan ook nauwelijks verbetert? Je had 8 jaar geleden DDR2/1066 kunnen kopen wat nu nog steeds competitief is, en nauwelijks duurder per gigabyte; dus eigenlijk zijn we afgelopen decennium niets opgeschoten qua RAM.

4GB RAM is weinig. 6GB/8GB is het minimum waarop ZFS met alle features draait. Pas bij 12/16GB draait het fantastisch en al je de-duplicatie en andere ongein wilt zit je al gauw aan de 64GB wil je dat het snel draait. Veel mensen denken:
- is mijn processor wel snel genoeg, moet ik niet een nog snellere?
- is mijn geheugen wel snel genoeg, moet ik niet OC geheugen of andere timings nemen?

Maar voor ZFS is de kwantiteit geheugen de belangrijkste spec die de performance bepaalt, buiten de disks zelf dan.
Je kunt een prima stabiel en snel NAS bouwen met 512 MB RAM.
Natuurlijk, met traditionele filesystems. ZFS crasht om de haverklap onder de 4GB RAM; niet echt een aanrader. Als je alleen maar lichte toegang hebt tot ZFS kun je misschien een 1GB ZFS machine bouwen; maar dat gaat zo op z'n bek als je dat arme beestje blootstelt aan multi-client network loads.
ECC is wenselijk voor mission-critical server toepassingen, niet voor thuisgebruik. De risico's van non-ecc geheugen worden hier schromelijk overdreven.
Hoezo is ECC niet wenselijk voor thuisgebruik? Hardeschijven ECC ook maar afschaffen dan? We kunnen ook terug gaan naar het floppy-tijdperk als data integriteit niet van belang is.

ECC RAM is eigenlijk de basis van een stabiel systeem; elke machine zou het moeten hebben. Corruptie op consumentensystemen is inderdaad veel minder ernstig dan een zakelijke machine die per seconde 300 creditcard-transacties verwerkt; maar dat betekent niet dat data integriteit niet meer belangrijk is voor jou als consument. Dat is hetzelfde als te zeggen dat jouw data niet belangrijk is en dus geen goede bescherming verdient. Dat bepaal je nog altijd zelf, hoop ik. ;)
Maar wat moet je met die bandbreedte als andere apparatuur in je netwerk dat niet kan benutten?
Voor mensen met één workstation zou ik die workstation ook met multi-gigabit uitrusten. Een tientje per realtek PCIe kaartje en de onboard NIC krijg je al gratis; is best te doen toch qua kosten? En qua performance scheelt het flink. Niet leuk als je 10+ disks in RAID-Z hebt en aan de 80MB/s komt, nietwaar? Dat kan beter. :)

In mijn geval, ja ik heb meerdere workstations; die hebben zelf maar 1Gbps; maar samen trekken ze dus wel rond de 3Gbps van de server, die 4Gbps lagg configuratie heeft.
Dan maak je paniek over ECC geheugen, maar laat je wel iemand booten van een USB-stick van 10 euro die na drie dagen (bij wijze van spreken) door zijn write-cycles heen is als het tegen zit. Ik snap hier niets van.
Bij normale filesystems slijt unmanaged NAND inderdaad heel snel. Maar niet als je dat netjes met een memory filesystem aanstuurt, zodat je geen/nauwelijks writes hebt op je USB stick. Maar zelfs al verlies je je OS; dat is niet erg. Nieuw USB stickje schrijven en binnen 10 minuten draait alles weer precies zoals eerst.

En anders installeer je FreeBSD direct op ZFS pool, kun je er ook nog vanaf booten en heb je dus helemaal geen systeemdisk meer nodig.

Verwijderd

Dit is ook een interessant overzicht, die wel een trend weergeeft:

Afbeeldingslocatie: http://agigatech.com/blog/wp-content/uploads/2009/12/Handy-NAND-Flash-and-DRAM-Costs1.jpg

  • x0rcist
  • Registratie: Juni 2004
  • Laatst online: 02-11-2024
Verwijderd schreef op zondag 31 oktober 2010 @ 22:48:
[...]
Bij normale filesystems slijt unmanaged NAND inderdaad heel snel. Maar niet als je dat netjes met een memory filesystem aanstuurt, zodat je geen/nauwelijks writes hebt op je USB stick. Maar zelfs al verlies je je OS; dat is niet erg. Nieuw USB stickje schrijven en binnen 10 minuten draait alles weer precies zoals eerst.
Dit kan ik beamen. Ik heb hier een CH3SNAS draaien met Debian vanaf USB stick en dit draait nu al ruim 2 jaar op dezelfde USB stick zonder problemen.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op zondag 31 oktober 2010 @ 22:48:
[...]
Je kunt beter vragen hoeveel hardeschijven ik heb; in elk geval meer dan 3; en 3 HDDs kom je theoretisch al aan de 4Gbps, dus waarom doen alsof 4Gbps zo snel is?
Volgens mij mis je de point. Je kunt wel een verhaal ophangen over hoe de evolutie van ethernet gaat, maar dat doet niets af aan de vraag wat voor toepassing je thuis in vredesnaam wilt draaien op je NAS dat je 4Gbs nodig zou hebben. Dát was de vraag. Niet de evolutie van netwerkbandbreedte.
Er zijn wel toepassingen thuis te bedenken die heel veel bandbreedte vereisen, maar dan praat je over een hele specifieke en zeldzame thuisopstelling. Doorgaans wordt een NAS thuis gebruikt voor toepassingen waarbij 1Gbs ethernet meer dan zat is.
Hoezo is ECC niet wenselijk voor thuisgebruik? Hardeschijven ECC ook maar afschaffen dan? We kunnen ook terug gaan naar het floppy-tijdperk als data integriteit niet van belang is.
Gewoon omdat het veel te duur is, en ik in de 30 jaar dat ik met computers werk nog nooit een ECC error heb gezien. Ik heb wel ECC geheugen gehad (en mijn 2 pizzadozen in het DC hebben het ook), maar de meerprijs rechtvaardigd de aanschaf voor thuis gewoon niet. Tenzij je hele kritische dingen doet, maar dan ben je geen thuisgebruiker meer.

Al dit soort technologieën zijn heel erg leuk, maar als jij een NAS server voor thuis wilt inrichten met 64Gb ECC geheugen, 4x Gb Ethernet met link aggregation dan ben je een maniak....sorry... :X Of je hebt gewoon geld teveel.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Ach, het probleem is dat iedereen vanuit zijn eigen beleving hier schrijft. Ervaring met Linux vs. ervaring met Unix(-like), storage-addict vs. performance-addict.

Die 64Gb ECC geheugen is wat overdreven, maar die 4 Gigabit is nog aardig betaalbaar hoor. Juist met trunking hoef je niet opeens naar de quad gigabit nic te gaan, maar kun je voor duals gaan, of voor een hele set van enkele. Pak bord met drie pci-e sloten (of zelfs twee) en je bent er al. Mijn verwondering was meer omdat je aan beide kanten dan de schijven moet hebben om 4 Gigabit dicht te trekken of meerdere computers inzet. In het eerste geval denk ik dan eerder aan een sync tussen twee dataservers. (Vraag is alleen of je uberhaupt iedere dag zoveel veranderingen hebt dat je het echt nodig hebt. Daar was ik eigenlijk meer benieuwd naar, met meerdere pc's dan snap ik het wel.)

De wens naar veel ECC geheugen is vrij logisch en dat daar twee verschillende standpunten in komen is ook logisch. Als er iets geheugen lust, dan is het ZFS. Maar met intensief geheugen gebruik neemt de waarschijnlijkheid op fouten ook toe. Dat is een reden waarom je ook ziet dat de nodige mensen voor ECC gaan. En deels is het daarbij ook gevoel, het maakt de zaak af. Overigens valt de prijs van non-buffered ECC geheugen nog wel enigszins mee: 55 euro voor 4GB non-ecc DDR3 en 63 voor 4GB non-buffered ecc DDR3.

Maar echt, om mensen een maniak te noemen omdat ze duidelijk één richting in gaan? Waarom ben jij geen maniak die voor een X4 gaat, terwijl een dualcore het ook afkan? :)

De CSL/OT kroeg !


Verwijderd

mphilipp schreef op zondag 31 oktober 2010 @ 23:54:
[...]

Volgens mij mis je de point. Je kunt wel een verhaal ophangen over hoe de evolutie van ethernet gaat, maar dat doet niets af aan de vraag wat voor toepassing je thuis in vredesnaam wilt draaien op je NAS dat je 4Gbs nodig zou hebben.
Nodig? Waarom denk je dat mensen dingen alleen willen die nodig zijn? We willen luxe! We willen snelheid! En met opslag over de 10TB ga je al snel bandbreedte slurpen, tenzij je een specifieke 'lichte' gebruiker bent of niet zoveel waarde hecht aan performance (het geduldige type).

Het antwoord op de vraag 'waarom?' is dus: omdat het kan. ;)
En goedkoop ook, behalve op Windows.
Doorgaans wordt een NAS thuis gebruikt voor toepassingen waarbij 1Gbs ethernet meer dan zat is.
Jouw mening. Heb je ook een atom processor en 1GB RAM? Daarmee kun je je noodzakelijke werk ook doen, toch?

Misschien dat jíj het punt mist: waarom zou je minder willen, zeker als je met slim gemak heel veel voor heel weinig kunt krijgen? Dat is toch het hele punt van dit tweakers.net, om meer te halen uit je centen? Overclocken enzo, een snellere CPU krijgen maar er niet voor betalen; zelfde principe toch?

Dus ik snap niet waarom je zoveel weerstand hebt tegen hogere performance, zeker aangezien je hier merkbaar bottlenecked bent als je lekker met je NAS bezig bent. En mensen die een ZFS NAS bouwen zijn geen lichte computergebruikers, over het algemeen. ;)
Gewoon omdat het veel te duur is
Hangt er van af; AMD-platform kun je ECC goedkoop krijgen; geheugen is soms maar een paar procent duurder. Het lijkt er wel op dat ECC geheugen duurder is geworden, met name omdat Intel ECC exclusief voor Xeon serverprocessors wilt houden en daar dus enorm op verdient. Maar dat dus ten koste van de data integrity van home systemen, terwijl dat qua kosten prima zou kunnen. ECC of parity wordt al in bijna alle computertechniek gebruikt. Je hardeschijven kunnen niet meer zonder, en zouden aan ernstige amnesia lijden als dat uitgeschakeld zou kunnen worden. Sommige schijven zijn nog eerlijk over hun Raw Read Error Rate; kijk maar eens in je SMART output. De raw value reset zich elke keer dus eigenlijk loopt dit getal in de miljarden.
en ik in de 30 jaar dat ik met computers werk nog nooit een ECC error heb gezien.
Ik ook niet, maar wel gemerkt. ;)
En wees eerlijk, als je systeem crasht, programma crasht, of een deel van je file is corrupt; HOE moet je weten dat dat door memory bit flip moet komen?
Al dit soort technologieën zijn heel erg leuk, maar als jij een NAS server voor thuis wilt inrichten met 64Gb ECC geheugen, 4x Gb Ethernet met link aggregation dan ben je een maniak....sorry... :X Of je hebt gewoon geld teveel.
Nee hoor, als je je geld niet aan zinloze dingen uitgeeft, zoals RAID edition HDDs, RAID controllers, BBU, te krachtige CPU relatief aan het systeem en ga zo maar door, dan houd je geld over voor dingen waar een ZFS NAS echt om draait:
- meer schijven, of grotere schijven
- meer geheugen of SSD voor meer performance

Als je een van de aangerade SuperMicro moederborden kiest dan begin je al met 2x Intel NIC onboard. Duw twee 10-euro realtek PCIe kaartjes erbij en een LSI HBA controller en hij is klaar om je schijfjes te aanbidden! Het motto is niet geld uitgeven aan de duurste dingen, het motto is geld besparen op onnodige dingen en spenderen aan waar het om draait: meer capaciteit, meer performance, meer redundancy.

64GB RAM zou ik willen, en zou mogelijk zijn rond deze tijd als DRAM net als andere techniek goedkoper was geworden. Maar het gaat langzaam, en dat is jammer omdat ZFS RAM echt goed kan gebruiken, in tegenstelling tot traditionele filesystems, die vaak dom last accessed filecache onderhouden, maar geen onderscheid maken tussen last accessed and most frequently accessed; dat maakt het onderscheid tussen mannen en jongens. ;)

Edit: 16GB ECC DDR3 (4 repen) voor 270 euro hoef je je toch geen maniak voor te voelen? Dat is de beste investering die je in ZFS performance en stabiliteit kan doen!
pricewatch: Kingston KTA-MP1066K4/16G

[ Voor 3% gewijzigd door Verwijderd op 01-11-2010 00:42 ]


  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 22-12 22:26

voodooless

Sound is no voodoo!

Verwijderd schreef op zondag 31 oktober 2010 @ 22:48:
Hoezo is ECC niet wenselijk voor thuisgebruik? Hardeschijven ECC ook maar afschaffen dan? We kunnen ook terug gaan naar het floppy-tijdperk als data integriteit niet van belang is.
Dat is appels met peren vergelijken natuurlijk. Disks, flash en floppies, CD's, DVD's en andere meuk hebben ECC nodig om voldoende betrouwbaar te werken. RAM is gewoon een ander verhaal.
ECC RAM is eigenlijk de basis van een stabiel systeem;
Ik heb de laatste jaren eigenlijk nog heel weinig meegemaakt dat het juist het geheugen was dat kapot ging aan een systeem. Moderne geheugenplankjes zijn gewoon meer dan voldoende betrouwbaar voor thuisgebruik. In ieder geval vele malen betrouwbaarder dan de disks waar je je data op hebt staan. Ik snap best dat ECC geheugen niet heel veel duurder is, maar de rest van het systeem (als je geen AMD wil met name), absoluut wel.

[ Voor 6% gewijzigd door voodooless op 01-11-2010 07:14 ]

Do diamonds shine on the dark side of the moon :?


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op maandag 01 november 2010 @ 00:28:
[...]
Nodig? Waarom denk je dat mensen dingen alleen willen die nodig zijn? We willen luxe! We willen snelheid! En met opslag over de 10TB ga je al snel bandbreedte slurpen, tenzij je een specifieke 'lichte' gebruiker bent of niet zoveel waarde hecht aan performance (het geduldige type).
Voor mijn eisen is wat ik nu heb (en dat is geen Atom met 256Mb) meer dan voldoende. Ik kan die films namelijk niet sneller kijken dan dat ze afgespeeld worden. Idem voor mijn muziek.

Het is misschien niet veel geld, maar als het zinloos is, dan vind ik het wél teveel.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Ik zou graag zien dat mensen die dit topic lezen en zelf iets in elkaar willen knutselen niet het complex wordt aangepraat dat ze niet veilig zijn zonder ECC RAM. Dat is gewoonweg niet waar.

ECC van hard disks vergelijken met gewoon RAM is comform voodooless uitspraak appels met peren vergelijken.

Natuurlijk deel ik wel de passie voor storage en performance, zelf heb ik ook gekloot met bonding om meer dan gigabit te halen. Mijn systeem is rond het zelfde idee opgezet, weg laten wat kan zodat je geld aan meer disks kunt besteden. Maar wij moeten onze hobby niet als norm hanteren voor anderen. Dat minder niet goed zou zijn.

Die oude crappy filesystems zijn conceptueel niet zo mooi als ZFS maar zevwerken prima. VOor de meeste mensen is standaard spul ook goed. ZFS voor en thuis NAS kan maar is niet nodig.

Maar de requirement van 2 GB RAM om stabiel met ZFS te kunnen werken vind ik zot. De medste mensen hier zouden het af kunnen met een atom met weinigbram maar omdat ZFS hier zo gehyped wordt moeten ze aan de duurdere hardware. Terwijl ze het niet nodig hebben.

[ Voor 13% gewijzigd door Q op 01-11-2010 09:02 ]


  • Ashe
  • Registratie: November 2001
  • Laatst online: 25-11 08:54
Ik ben ondertussen al een kleine drie weken enorm tevreden over mijn low to mid performing fileserver. Hij is gebaseerd op een Celeron E3300 en heeft slechts 1GB ram aan boord. De processor is eigenlijk nog te krachtig voor wat hij doet maar ik ben tevreden dat ik niet meer dan 1GB ram heb genomen. Het wordt toch nooit gebruikt.

Er steken 10 WD EARS 2TB schijven in een software raid 6 configuratie onder Slackware Linux 13.1. Het OS wordt opgestart vanop een andere disk. De 2TB schijven hebben een park head idle time van 5min gekregen en ze werden allen gepartitioneerd vanaf sector 64 om de performance goed te houden.

Ik heb op een bepaald moment gedacht of ik niet wat meer geheugen zou steken etc maar mijn vorige fileserver had een Sempron 140/2GB/4x1TB raid 5 config en dat ram werd nooit volledig benut. Ik kon mijn vorige case niet uitbreiden (Antec Sonata) met nieuwe harde schijven, dus ben ik maar voor een Lian Li case gegaan.

Ik heb zelfs een goedkope SATA controller (PCIex1) voor 8 SATA apparaten gestoken die de hele raid performance wat verlaagt maar uiteindelijk draait het niet om snelheid in de eerste plaats. Al mijn films en muziek worden via een Gbit netwerk gestreamed (an mijn HDI Dune 3 heeft zelfs maar gewoon een 100Mbit connectie). Mij maakt het niet uit of ik 500MB/s lees- en schrijfsnelheden haal aangezien ik dit niet nodig heb.

Services draaien er niet echt op de fileserver: alles wordt beschikbaar gesteld intern via Samba, FTP, SFTP en er draait een squeezebox server op.

Ik begrijp dat er mensen zijn die alles perfect willen bouwen met gemiddelde snelheden maar ik twijfel of dit echt nodig is. Men kan zeggen dat ze dan "future proof" zijn maar met de snelheden van tegenwoordig, het gebrek aan nieuwe hidef standaarden etc ben ik vrij zeker dat Gbit voorlopig de komende jaren nergens heen gaat. En tegen dat er hogere snelheden nodig zijn, zijn we al enkele jaren verder met als waarschijnlijk resultaat een hele nieuwe config.

De harde schijven worden constant gemonitored via smartd en elke schijf krijgt een dagelijkse short self-test en een wekelijkse long self-test. mdadm houdt ook een extra oogje in het zeil.

Temperaturen binnen de case liggen gemiddeld: CPU draait gemiddeld op 31°C, moederbord op 36°C en de 10 harde schijven zitten tussen de 32°C en 36°C in idle. Als de CPU naar 100% schiet en er veel schijfactiviteit is stijgt de CPU met ongeveer 12°C en de harde schijven met ongeveer 7°C. Alles wordt luchtgekoeld via 2x120mm fans achteraan en 2x140mm fans vooraan.

Mijn huidige set-up haalt geen gigantische schrijf- en leessnelheden (154MB/s schrijf en 183MB/s leessnelheid) maar aangezien er geen enkele connectie van en naartoe gaat die hoger gaat dan het theoretische max van 125MB/s van Gbit, zie ik er absoluut het nut niet van in. Een wget van de oude fileserver naar de nieuwe (gestart op de nieuwe) haalt gemiddeld 77MB/s snelheden, ruimschoots voldoende voor mijn performance.

De nood voor ECC geheugen is fijn maar in mijn ogen wat overrated. Het meeste wat we allemaal opslaan zijn muziek, foto's, films, ... al dan niet legaal. Er kan veel gecompenseerd worden door wat zorgvuldig om te gaan met de bestanden. En de kans dat je iets merkt van een bitflip tijdens streaming is zowat nihil. Ik heb er alleszins nog nooit last van gehad in de 7 jaar dat ik ondertussen Linux fileservers in huis heb.

Ieder natuurlijk zijn ding. ;)

  • Pingelmonster
  • Registratie: Juli 2005
  • Niet online
Vraag:

Ik heb een Openfiler-server draaien met daarop een iSCSI-target.
De ESXi4-server heb ik ingesteld dat hij middels de iSCSI-initiator een aantal VM's krijgt aangeboden. Deze VM's draaien als een zonnetje.

Nu kan ik met Openfiler ook snapshots maken dus daar wil ik gebruik van maken.
Wat blijkt nu. Het snapshotten van de iSCSI-volumes gaat goed en ik kan ze mounten met een iSCSI-initiator op mijn werkstation.

Echter; omdat ESXi in VMFS-formaat alle data wegschrijft op die iSCSI-volumes kan ik met mijn Windows-client geen data uit de snapshots halen.

Hoe kan ik mijn iSCSI-snapshots backuppen en de content er uit halen?

  • dataindataout
  • Registratie: Oktober 2010
  • Laatst online: 06-02 09:38
Bedankt voor de discussie jongens.

Dadonna: Wat ik over de ASUS moederborden kan vinden is dat ze wel ECC geheugen ondersteunen maar ik vind geen duidelijkheid over of dat betekent dat ECC effectief gebruikt wordt of dat het wel werkt maar dan als gewoon geheugen. Zou toch zonde zijn van dan meer uit te geven aan ECC geheugen als het vervolgens niet benut wordt.

CiPHER: Hangt de hoeveelheid ram af van de grootte van de pool? Want ik ga niet boven de 4 TB uitkomen ( 6x 2TB in raidz2 ).

Ik ben niet op zoek naar extreme prestaties, meestal is er toch maar één client verbonden, maximum 3. Ik leef nog in het DVD tijdperk dus als mijn DVD-rips vlot streamen ben ik tevreden. Ik heb even een SSD overwogen als cache maar dat leek mij wat overdreven voor mijn doelstellingen: mijn foto's en homevideo's veilig bewaren.

Het OS bij op de ZFS pool installeren lijkt me wel wat, moet ik mij ineens geen zorgen meer maken over een falende OS-disk. Ik was van plan om de NAS wat werk te laten verrichten als hij toch staat te idlen, zoals video's transcoden, images resizen, ... en het leek mij veiliger om die bewerkingen te doen op een schijf die niet en de pool zit en vervolgens het resultaat te verplaatsen naar de pool. Maar alles op de pool is misschien eenvoudiger.

Je suggestie voor F4 schijven ga ik wel opvolgen.

Q: misschien is ECC inderdaad overdreven, zeker als ik de meerkost zie en ik niet zeker ben dat het effectief gaat werken zoals het moet op de ASUS/AMD combo. Uit je reacties blijkt wel dat je ZFS overdreven vindt voor thuisgebruik maar tussen mijn eerste post en deze ben ik weer 3 files kwijt. Ik heb hier een 1TB schijf en die staat bijna tot de laatste MB vol ( ext4 bestandssysteem ) en ik merk pas dat mijn files beschadigd zijn als ik ze wil kopieren of bekijken. Waarschijnlijk heb ik dus een rotte schijf maar mijn hoop is dat ik met ZFS dat sneller kan zien en daarop reageren zonder dataverlies.

Ik ga weer even alles op een rijtje zetten en binnekort post ik een nieuwe setup, waarschijnlijk zonder ECC tenzij ik zeker ben dat het gaat werken op een ASUS bordje als dit. Heeft wel ECC bij de specs staan maar doet het er ook iets mee?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
dataindataout schreef op maandag 01 november 2010 @ 17:37:
Dadonna: Wat ik over de ASUS moederborden kan vinden is dat ze wel ECC geheugen ondersteunen maar ik vind geen duidelijkheid over of dat betekent dat ECC effectief gebruikt wordt of dat het wel werkt maar dan als gewoon geheugen. Zou toch zonde zijn van dan meer uit te geven aan ECC geheugen als het vervolgens niet benut wordt.
Ik kan natuurlijk niet garanderen dat er geen moederborden van ASUS zijn die de ECC functionaliteit niet aan kunnen spreken. Los van real life experience (andere Tweaker met zelfde moederbord) kom je het dichtste bij zekerheid door te controleren op de aanwezigheid van een ECC onderdeel in het bios. Op een ouder moederbord van Asus heb ik in ieder geval geconstateerd dat ECC daadwerkelijk werkt. (AM2+ moederbord, dus verder niet echt meer relevant.)
Als je een voorkeur hebt voor Asus dan denk ik dat het wel goed komt. En zo niet dan heb je acht euro teveel uitgegeven, daar vergaat de wereld ook niet van lijkt mij? (Zeker als je 6x 2TB schijven gaat aanschaffen.)
Q: misschien is ECC inderdaad overdreven, zeker als ik de meerkost zie en ik niet zeker ben dat het effectief gaat werken zoals het moet op de ASUS/AMD combo. Uit je reacties blijkt wel dat je ZFS overdreven vindt voor thuisgebruik maar tussen mijn eerste post en deze ben ik weer 3 files kwijt. Ik heb hier een 1TB schijf en die staat bijna tot de laatste MB vol ( ext4 bestandssysteem ) en ik merk pas dat mijn files beschadigd zijn als ik ze wil kopieren of bekijken. Waarschijnlijk heb ik dus een rotte schijf maar mijn hoop is dat ik met ZFS dat sneller kan zien en daarop reageren zonder dataverlies.
Je moet ook ECC en ZFS niet als de oplossing voor alles zien. Zoals al eerder aangehaald, als je desktop rotte data neerzet dan kan je nas alleen garanderen dat die data ook rot zal worden opgeslagen. Zonder ECC en ZFS kun je overleven door checksums uit te voeren. Als je data over zet, controleer dan dat de data correct is neergezet. Mijn insziens is dat laatste het eerste dat je zou moeten doen. Dan weet je pas echt zeker dat het goed is gegaan.

De CSL/OT kroeg !


Verwijderd

dataindataout schreef op maandag 01 november 2010 @ 17:37:
CiPHER: Hangt de hoeveelheid ram af van de grootte van de pool? Want ik ga niet boven de 4 TB uitkomen ( 6x 2TB in raidz2 ).
Niet echt, de hoeveelheid RAM die je nodig hebt schaalt met performance. Dus je hebt meer RAM nodig naarmate de ZFS box sterker belast wordt. Een pool van floppydrives zou dus met een aantal megabyte voldoende kunnen, terwijl meerdere disks die 100MB/s trekken je over de gigabyte RAM nodig hebt om ZFS niet te laten crashen. Dat laatste gebeurt vrij gemakkelijk als je ZFS onder flinke load zet. Doe dat dus voordat je echte data op je NAS hebt zodat je op stabiliteit kunt testen voordat je het zaakje in gebruik neemt.

2GiB -> ZFS NAS op 100Mbps LAN
4GiB -> ZFS NAS op 1Gbps en disks die >100MB/s doen
8GiB -> 500MB/s+
16GiB -> 2GB/s+

Je kunt dus stellen hoeveel seconden kan mijn RAM bufferen. Als je disks gezamenlijk 500MB/s doen en je RAM aan ZFS 1GB is dan ben je na 2 seconde door je RAM heen; wat zeer krap is en waardoor zowel performance als stabilteit te lijden zal hebben.
Ik ben niet op zoek naar extreme prestaties, meestal is er toch maar één client verbonden, maximum 3. Ik leef nog in het DVD tijdperk dus als mijn DVD-rips vlot streamen ben ik tevreden. Ik heb even een SSD overwogen als cache maar dat leek mij wat overdreven voor mijn doelstellingen: mijn foto's en homevideo's veilig bewaren.
Overweeg wat extra aan redundancy te doen; RAID-Z2 ipv RAID-Z en copies=2 op belangrijke datasets zoals werk/administratie/brieven etc.
Het OS bij op de ZFS pool installeren lijkt me wel wat, moet ik mij ineens geen zorgen meer maken over een falende OS-disk. Ik was van plan om de NAS wat werk te laten verrichten als hij toch staat te idlen, zoals video's transcoden, images resizen, ... en het leek mij veiliger om die bewerkingen te doen op een schijf die niet en de pool zit en vervolgens het resultaat te verplaatsen naar de pool. Maar alles op de pool is misschien eenvoudiger.
Mja hoezo veiliger? Als je pool naar de knoppen is en je bent alles kwijt; dan ben je zwaar de klos en zal dat transcoden niet je grootste probleem zijn lijkt me. Dus waarom niet op één pool als je toch die werkzaamheden laat uitvoeren als jij de NAS niet gebruikt.
Uit je reacties blijkt wel dat je ZFS overdreven vindt voor thuisgebruik maar tussen mijn eerste post en deze ben ik weer 3 files kwijt. Ik heb hier een 1TB schijf en die staat bijna tot de laatste MB vol ( ext4 bestandssysteem ) en ik merk pas dat mijn files beschadigd zijn als ik ze wil kopieren of bekijken. Waarschijnlijk heb ik dus een rotte schijf maar mijn hoop is dat ik met ZFS dat sneller kan zien en daarop reageren zonder dataverlies.
Is je RAM niet verrot op dat systeem? RAM errors zijn veelvoorkomende oorzaken van on-disk corruptie. Met name corruptie in metadata kan heel ernstig zijn.

Of je nu wel of niet voor ECC gaat, als data integriteit van grootste belang is, dan wil je daar de meeste aandacht aan besteden. Dus probeer de redundancy zo ver mogelijk op te voeren, en gebruik copies=2 op de belangrijkste filesystems zodat je data extra kopiën heeft die gebruikt kunnen worden om corruptie te repareren. RAID-Z2 + copies=2 betekent dat je data een enorme hoeveelheid alternatieve blocks heeft en dus eigenlijk niet corrupt is te krijgen, zelfs al zouden je HDDs aan amnesia lijden.

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

Ashe schreef op maandag 01 november 2010 @ 11:30:
Ik ben ondertussen al een kleine drie weken enorm tevreden over mijn low to mid performing fileserver. Hij is

Ik heb zelfs een goedkope SATA controller (PCIex1) voor 8 SATA apparaten gestoken die de hele raid performance wat verlaagt maar uiteindelijk draait het niet om snelheid in de eerste plaats.Ieder natuurlijk zijn ding. ;)
Even nieuwschierig, wat voor controller ?
ik had een supermicro besteld.
Maar die is helaas niet meer leverbaar.

Dus ik ben benieuwd naar goedkope 8-poorts pcie alternatieven.
(als er 12 poorts zijn voor een redelijke prijs houd ik me trouwens ook aanbevolen)
Wil flex-raid gaan draaien, dus er hoeft geen raid-functionaliteit op de kaart te zijn.

[ Voor 5% gewijzigd door heuveltje op 01-11-2010 18:45 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • analog_
  • Registratie: Januari 2004
  • Niet online
Wikipedia: Many current microprocessor memory controllers, including almost all AMD 64-bit offerings, support ECC, but many motherboards and in particular those using low-end chipsets do not.

Ik heb zelf een collectie ECC DDR2 liggen. Zal ze eens in wat andere mobo's duwen om te testen (740G, 785G, X38 en een i945p). Is er een degelijke test methode om 100% zeker te zijn dat het enabled is. Ik weet dat memtestx86 het laat zien tijdens draaien maar is dat betrouwbaar?

Verwijderd

heuveltje: beste is toch die LSI HBA; als je Marvell HBA neemt zoals AOC-SASLP-MV8 dan kun je FreeBSD+ZFS (al dan niet in de toekomst) wel vergeten; alhoewel het redelijk lijkt te werken onder Linux. Toch hoor ik extreem veel problemen met Marvell HBA's; beste is om gewoon bij LSI te blijven dat werkt onder alle OSen. De LSI2008 met 6Gbps werkt nog niet onder BSD maar wel onder OpenSolaris.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Wat dat low-end betreft, bij Asus heeft de M2N68AM-Plus ECC ondersteuning. Dat is wel degelijk een moederbord met low end chipset. (In z'n algemeen is het een budget bord.) Ik zou ook niet zozeer het willen combineren met de chipset. Per slot van rekening is het een bios optie, het echte werk zit bij de processor.

Memtest86 laat zien of ECC daadwerkelijk werkt. Er zijn ook her en der mensen die het getest hebben door plaatselijke, tijdelijke, verhitting een fout in het geheugen te veroorzaken.

@CiPHER, ik zou niet meer mensen aanmoedigen om voor OpenSolaris te gaan, eerder om over te stappen.
Overigens wat je verhaal over copies=2. Persoonlijk zou ik dat niet meer doen. Ik vertrouw erop dat Raid-Z(2) voldoende is. De copies=2 moet dan van een tweede systeem komen. Per slot van rekening is copies=2 niet eens zoveel veiliger, harde schijf uitval is niet de enige reden waarom je data kunt kwijtraken.

[ Voor 29% gewijzigd door Dadona op 01-11-2010 19:10 ]

De CSL/OT kroeg !


  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 22-12 22:26

voodooless

Sound is no voodoo!

Ik heb vandaag de kas gehad wat te spelen met zpools op ons nieuwe database storage enclosure. Aangesloten op een simpele PC die we nog hadden staan met 2 GB memory. Het enclosure bestaat uit 9 SAS 15k7 disks en 6x Intel X25-E. Als OS heb ik Nexenta gebruikt. RAID controller is ingesteld om iedere disks gewoon kaal aan te bieden.

Na wat testjes bleek duidelijk dat de machine het geweld niet aan kon. Twee van de SSD's in een striped zpool is veel sneller dan 6 disk in een zelfde soort stripe. Duidelijk zijn hier CPU en memory resources te weinig ;). Ik ga morgen op een wat betere machine testen. Eens kijken of dat uit maakt ;)

Do diamonds shine on the dark side of the moon :?


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Hallo zeg, mag het? :D Als je dit geweld gaat inzetten dan moet er toch ergens wel iets gaan kraken. Ik vind het wel grappig om te zien dat er zo over bottlenecks wordt gesproken. Het zou zonde zijn enz, maar er is toch altijd ergens een bottleneck. Het enige is dat je niet wil dat deze bottleneck op een plaats zit die goedkoop is op te lossen. (Zoals een reepje extra geheugen erbij zoals bij voodooless.)

De CSL/OT kroeg !


  • prozak
  • Registratie: December 2003
  • Laatst online: 08-12 16:07
Ashe schreef op maandag 01 november 2010 @ 11:30:

Ik heb zelfs een goedkope SATA controller (PCIex1) voor 8 SATA apparaten gestoken die de hele raid performance wat verlaagt maar uiteindelijk draait het niet om snelheid in de eerste plaats. Al mijn films en muziek worden via een Gbit netwerk gestreamed (an mijn HDI Dune 3 heeft zelfs maar gewoon een 100Mbit connectie). Mij maakt het niet uit of ik 500MB/s lees- en schrijfsnelheden haal aangezien ik dit niet nodig heb.
Welke pciex1 kaart hebben we het over? Ik ben namelijk niet bekend met x1 kaarten met 8 poorten.

Okay ik zie net in je eerdere post een verwijzing naar je website. Het gaat dus om de Exsys EX-3508.

[ Voor 7% gewijzigd door prozak op 01-11-2010 19:38 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Ashe schreef op maandag 01 november 2010 @ 11:30:
Ik ben ondertussen al een kleine drie weken enorm tevreden over mijn low to mid performing fileserver. Hij is gebaseerd op een Celeron E3300 en heeft slechts 1GB ram aan boord. De processor is eigenlijk nog te krachtig voor wat hij doet maar ik ben tevreden dat ik niet meer dan 1GB ram heb genomen. Het wordt toch nooit gebruikt.

Er steken 10 WD EARS 2TB schijven in een software raid 6 configuratie onder Slackware Linux 13.1. Het OS wordt opgestart vanop een andere disk. De 2TB schijven hebben een park head idle time van 5min gekregen en ze werden allen gepartitioneerd vanaf sector 64 om de performance goed te houden.

Ik heb op een bepaald moment gedacht of ik niet wat meer geheugen zou steken etc maar mijn vorige fileserver had een Sempron 140/2GB/4x1TB raid 5 config en dat ram werd nooit volledig benut. Ik kon mijn vorige case niet uitbreiden (Antec Sonata) met nieuwe harde schijven, dus ben ik maar voor een Lian Li case gegaan.

Ik heb zelfs een goedkope SATA controller (PCIex1) voor 8 SATA apparaten gestoken die de hele raid performance wat verlaagt maar uiteindelijk draait het niet om snelheid in de eerste plaats. Al mijn films en muziek worden via een Gbit netwerk gestreamed (an mijn HDI Dune 3 heeft zelfs maar gewoon een 100Mbit connectie). Mij maakt het niet uit of ik 500MB/s lees- en schrijfsnelheden haal aangezien ik dit niet nodig heb.

Services draaien er niet echt op de fileserver: alles wordt beschikbaar gesteld intern via Samba, FTP, SFTP en er draait een squeezebox server op.

Ik beMijn huidige set-up haalt geen gigantische schrijf- en leessnelheden (154MB/s schrijf en 183MB/s leessnelheid) maar aangezien er geen enkele connectie van en naartoe gaat die hoger gaat dan het theoretische max van 125MB/s van Gbit, zie ik er absoluut het nut niet van in. Een wget van de oude fileserver naar de nieuwe (gestart op de nieuwe) haalt gemiddeld 77MB/s snelheden, ruimschoots voldoende voor mijn performance.


Ieder natuurlijk zijn ding. ;)
Wat voor controller gebruik jij?

Ik vind dit een mooi voorbeeld van eenvoud en doeltreffendheid. Zolang je gigabit maar vol krijgt is het goed genoeg. En toch 12 TB aan storage. Neetjes. Alllemaal oude maar vertrouwde technologie.

[ Voor 23% gewijzigd door Q op 01-11-2010 19:32 ]


  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 22-12 22:26

voodooless

Sound is no voodoo!

Dadona schreef op maandag 01 november 2010 @ 19:25:
Het enige is dat je niet wil dat deze bottleneck op een plaats zit die goedkoop is op te lossen. (Zoals een reepje extra geheugen erbij zoals bij voodooless.)
De doelmachine heeft 64GB aan boord. Genoeg voor jou? O-)

Do diamonds shine on the dark side of the moon :?


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Genoeg om alle computers in huis van ram te voorzien. :)
Maar goed, we hebben het dan ook wel over een klein verschilletje tussen die omgeving en wat ik hier thuis heb. (Ik heb niet eens een SSD, laat staan zes Intel X25-Es)

De CSL/OT kroeg !


  • dataindataout
  • Registratie: Oktober 2010
  • Laatst online: 06-02 09:38
Dadona schreef op maandag 01 november 2010 @ 18:31:
[...]
Ik kan natuurlijk niet garanderen dat er geen moederborden van ASUS zijn die de ECC functionaliteit niet aan kunnen spreken. Los van real life experience (andere Tweaker met zelfde moederbord) kom je het dichtste bij zekerheid door te controleren op de aanwezigheid van een ECC onderdeel in het bios. Op een ouder moederbord van Asus heb ik in ieder geval geconstateerd dat ECC daadwerkelijk werkt. (AM2+ moederbord, dus verder niet echt meer relevant.)
Als je een voorkeur hebt voor Asus dan denk ik dat het wel goed komt. En zo niet dan heb je acht euro teveel uitgegeven, daar vergaat de wereld ook niet van lijkt mij? (Zeker als je 6x 2TB schijven gaat aanschaffen.)
Die 8€ zal de zaak niet maken, maar als ik na lang wikken en wegen voor een moederbord kies dat dan uiteindelijk toch geen ECC gebruikt is dat toch even balen.

EDIT: In de handleiding van dit bordje vind ik:
ECC Configuration
ECC Mode [Disabled]
Allows you to set the ECC mode. Configuration options: [Disabled] [Basic] [Good]
[Super] [Max] [User]
Dus ik denk dat het die gaat worden :) Ik duw er dan maar 5 schijven in want 1 poort is opgeofferd voor esata, die esata komt misschien nog van pas als ik eens snel veel data wil overpompen dus die houd ik vrij.
/EDIT
Dadona schreef op maandag 01 november 2010 @ 18:31:
[...]
Je moet ook ECC en ZFS niet als de oplossing voor alles zien. Zoals al eerder aangehaald, als je desktop rotte data neerzet dan kan je nas alleen garanderen dat die data ook rot zal worden opgeslagen. Zonder ECC en ZFS kun je overleven door checksums uit te voeren. Als je data over zet, controleer dan dat de data correct is neergezet. Mijn insziens is dat laatste het eerste dat je zou moeten doen. Dan weet je pas echt zeker dat het goed is gegaan.
Het probleem is niet dat mijn desktop rotte data neerzet, het probleem is dat bestanden die ik vorige week nog kon lezen nu ineens I/O-errors opleveren. Rotte schijf dus en daar kom ik pas achter als het te laat is, dat hoop ik op te vangen met ZFS.
Verwijderd schreef op maandag 01 november 2010 @ 18:41:
[...]

Niet echt, de hoeveelheid RAM die je nodig hebt schaalt met performance. Dus je hebt meer RAM nodig naarmate de ZFS box sterker belast wordt. Een pool van floppydrives zou dus met een aantal megabyte voldoende kunnen, terwijl meerdere disks die 100MB/s trekken je over de gigabyte RAM nodig hebt om ZFS niet te laten crashen. Dat laatste gebeurt vrij gemakkelijk als je ZFS onder flinke load zet. Doe dat dus voordat je echte data op je NAS hebt zodat je op stabiliteit kunt testen voordat je het zaakje in gebruik neemt.

2GiB -> ZFS NAS op 100Mbps LAN
4GiB -> ZFS NAS op 1Gbps en disks die >100MB/s doen
8GiB -> 500MB/s+
16GiB -> 2GB/s+

Je kunt dus stellen hoeveel seconden kan mijn RAM bufferen. Als je disks gezamenlijk 500MB/s doen en je RAM aan ZFS 1GB is dan ben je na 2 seconde door je RAM heen; wat zeer krap is en waardoor zowel performance als stabilteit te lijden zal hebben.
Ok, dan moet 4 GiB wel volstaan. Als hij eenmaal in gebruik is zal ik dat zaakje wel eens wat stresstesten, dan weet ik ineens wat ik er van kan verwachten en of extra geheugen wenselijk is.
Verwijderd schreef op maandag 01 november 2010 @ 18:41:
Overweeg wat extra aan redundancy te doen; RAID-Z2 ipv RAID-Z en copies=2 op belangrijke datasets zoals werk/administratie/brieven etc.
RAID-Z2 ging ik sowieso doen, die copies=2 is nieuw, bedankt voor de tip.
Verwijderd schreef op maandag 01 november 2010 @ 18:41:

Is je RAM niet verrot op dat systeem? RAM errors zijn veelvoorkomende oorzaken van on-disk corruptie. Met name corruptie in metadata kan heel ernstig zijn.
In dit systeem zitten nu 3 disks, op 2 daarvan heb ik bestanden zien verdwijnen en ook op mijn externe backupschijf heb ik problemen. Ik ben van 1 disk redelijk zeker dat ze rot is maar als de rest te verklaren is door rotte RAM schiet ik al een eind op. Ik zal straks of morgen eens een test draaien.

[ Voor 5% gewijzigd door dataindataout op 01-11-2010 20:35 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
prozak schreef op maandag 01 november 2010 @ 19:25:
[...]


Welke pciex1 kaart hebben we het over? Ik ben namelijk niet bekend met x1 kaarten met 8 poorten.

Okay ik zie net in je eerdere post een verwijzing naar je website. Het gaat dus om de Exsys EX-3508.
Heel interessant die kaart. Het enige minpuntje is die PCIe van 1x, bij een rebuild of expand ga je dat merken, maar alleen dan. Als ik zo de performance lees dan is die kaart voor de meeste mensen een mooie oplossing voor software RAID. de Rocket Raid 2320 met 8 poorten doet al 250+ euro. Enige verschil is dat deze kaart PCIe 4x heeft.

Wat ook een uitkomst zou zijn is een goedkope kaart met SAS expanders of sata port multipliers. Maar ik heb nog geen topics gezien met geslaagde setup op deze basis.

[ Voor 10% gewijzigd door Q op 01-11-2010 20:48 ]


  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 22-12 12:28
Q schreef op maandag 01 november 2010 @ 20:45:
[...]


Heel interessant die kaart. Het enige minpuntje is die PCIe van 1x, bij een rebuild of expand ga je dat merken, maar alleen dan. Als ik zo de performance lees dan is die kaart voor de meeste mensen een mooie oplossing voor software RAID. de Rocket Raid 2320 met 8 poorten doet al 250+ euro. Enige verschil is dat deze kaart PCIe 4x heeft.
Hmmm, ik had die supermicro ook in m'n shortlist staan evenals deze intel Die zal toch ook voldoen voor een redelijk bedrag?
Alleen die SAS > SATA is me nog niet helemaal duidelijk en dan bedoel ik met name welke kabels ik exact moet hebben?

[ Voor 4% gewijzigd door Loekie op 01-11-2010 20:50 ]

specs


  • Black_Adder
  • Registratie: Augustus 2000
  • Laatst online: 31-08 16:22
Loekie schreef op maandag 01 november 2010 @ 20:49:
[...]

Hmmm, ik had die supermicro ook in m'n shortlist staan evenals deze intel Die zal toch ook voldoen voor een redelijk bedrag?
Alleen die SAS > SATA is me nog niet helemaal duidelijk en dan bedoel ik met name welke kabels ik exact moet hebben?
Als je met de supermicro de SASLP-MV8 bedoeld, raad ik je deze ten sterkste af als je bijvoorbeeld met Linux gaat werken. De kaartjes hebben mij alleen maar hele grote ellende bezorgd. Constant een hangende array door slechte driver support. Disks die zomaar verdwijnen. Ook na gebruik van experimentele kernels en kernel patches geen verbetering. De marvell chipset word gewoon niet goed genoeg gesupport. Voor meer info betreffende het probleem kun je hier terecht klikkerdeklik

Heb nu de Intel met LSI passthrough firmware geflashed en alles draait nu als een zonnetje.

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 22-12 12:28
Black_Adder schreef op maandag 01 november 2010 @ 20:58:
[...]

Als je met de supermicro de SASLP-MV8 bedoeld, raad ik je deze ten sterkste af als je bijvoorbeeld met Linux gaat werken. De kaartjes hebben mij alleen maar hele grote ellende bezorgd. Constant een hangende array door slechte driver support. Disks die zomaar verdwijnen. Ook na gebruik van experimentele kernels en kernel patches geen verbetering. De marvell chipset word gewoon niet goed genoeg gesupport. Voor meer info betreffende het probleem kun je hier terecht klikkerdeklik

Heb nu de Intel met LSI passthrough firmware geflashed en alles draait nu als een zonnetje.
Nope, de al eerder aangehaalde Supermicro AOC-USAS-L8i, met een beetje klussen aan te passen zodat deze ook past in ATX.
Waarom overigens niet de Intel firmware(naast het feit dat het een rebadged LSI zou zijn)?

specs


  • Black_Adder
  • Registratie: Augustus 2000
  • Laatst online: 31-08 16:22
Loekie schreef op maandag 01 november 2010 @ 21:04:
[...]

Nope, de al eerder aangehaalde Supermicro AOC-USAS-L8i, met een beetje klussen aan te passen zodat deze ook past in ATX.
Waarom overigens niet de Intel firmware(naast het feit dat het een rebadged LSI zou zijn)?
Naar mijn weten heeft intel zelf geen firmware die de aangesloten drives 1op1 presenteert aan het OS. Met de intel firmware moet ik dus allemaal losse raid0 voor single disks gaan aanmaken en heb je geen smart.

Bij LSI kun je voor de "Initiator" firmware kiezen die ervoor zorgt dat de drives gewoon als singles aangeboden worden. Perfect dus voor linux-softraid oplossingen en als je ook nog wat met smart wilt doen.

Verwijderd

Intel SASUC8i kun je flashen met SuperMicro IT-firmware, dat is wat je wilt onder Linux/BSD, anders kun je nog steeds dropped disks krijgen bij bad sectors!

IT = normal HBA mode; losse disks dus
IR = Integrated RAID; wat je niet wilt dus

De Intel komt standaard in IR-firmware, de SuperMicro in IT-mode. Als je kiest voor Intel, wil je dus de SuperMicro IT-firmware gebruiken zodat je je Intel adapter als normale HBA kunt gebruiken onder Linux/BSD.

Je kunt ook in IR-mode werken en voor elke disk een RAID0 aanmaken, dat heb ik zelf geprobeerd in het begin. Maar bij timeouts van je disk verliest je OS dan de hele disk; en dat is niet wat je wilt! Als je TLER-schijven hebt zou het wel kunnen, maar zonder TLER werken is denk ik beter, aangezien je dan betere bescherming tegen bit-error-rate hebt. TLER zorgt er immers voor dat er niet langer dan 10 seconden aan error recovery wordt gedaan. Als je een RAID-Z hebt en één disk is helemaal dood en je wilt rebuilden met een nieuwe disk, dan kan TLER er voor zorgen dat de laatste kans om data te recoveren wordt verpest omdat een weak sector geen kans krijgt op intensieve recovery door je HDD.

Dus in IT-mode werken en TLER disablen als je disk support daarvoor heeft; RAID edition disks komen standaard met TLER enabled.

Verwijderd

Loekie schreef op maandag 01 november 2010 @ 20:49:
Alleen die SAS > SATA is me nog niet helemaal duidelijk en dan bedoel ik met name welke kabels ik exact moet hebben?
SAS ondersteunt SATA door middel van SATA Tunnel Protocol (STP). Als je zo'n LSI kaart koopt heb je twee connectors op de kaart zitten, dit zijn 36-pin (uit mn hoofd, kan het mis hebben) Mini-SAS connectors.

De kabels die je nodig hebt, zijn zogenaamde 'breakout' cables. Dus de kabel begint met een Mini-SAS connector die je in je controller steekt, en eindigt in 4x SATA connectors, die je gewoon rechtstreeks in je schijven duwt. Het enige van belang is: koop de juiste kabels! Er zijn ook reverse breakout cables, die zijn er vrijwel hetzelfde uit, maar dat is niet wat je wilt!

Zo zien de kabels eruit:

Afbeeldingslocatie: http://www.webconnexxion.com/raid/images/A83074.jpg

  • Black_Adder
  • Registratie: Augustus 2000
  • Laatst online: 31-08 16:22
Verwijderd schreef op maandag 01 november 2010 @ 21:54:
Intel SASUC8i kun je flashen met SuperMicro IT-firmware, dat is wat je wilt onder Linux/BSD, anders kun je nog steeds dropped disks krijgen bij bad sectors!

IT = normal HBA mode; losse disks dus
IR = Integrated RAID; wat je niet wilt dus

De Intel komt standaard in IR-firmware, de SuperMicro in IT-mode. Als je kiest voor Intel, wil je dus de SuperMicro IT-firmware gebruiken zodat je je Intel adapter als normale HBA kunt gebruiken onder Linux/BSD.

Je kunt ook in IR-mode werken en voor elke disk een RAID0 aanmaken, dat heb ik zelf geprobeerd in het begin. Maar bij timeouts van je disk verliest je OS dan de hele disk; en dat is niet wat je wilt! Als je TLER-schijven hebt zou het wel kunnen, maar zonder TLER werken is denk ik beter, aangezien je dan betere bescherming tegen bit-error-rate hebt. TLER zorgt er immers voor dat er niet langer dan 10 seconden aan error recovery wordt gedaan. Als je een RAID-Z hebt en één disk is helemaal dood en je wilt rebuilden met een nieuwe disk, dan kan TLER er voor zorgen dat de laatste kans om data te recoveren wordt verpest omdat een weak sector geen kans krijgt op intensieve recovery door je HDD.

Dus in IT-mode werken en TLER disablen als je disk support daarvoor heeft; RAID edition disks komen standaard met TLER enabled.
Ik gebruik de IT-mode firmware van LSI zelf. Heb persoonlijk slechte ervaringen met SM-controllers/firmwares en drivers. Linkje naar de LSI firmware

  • Ashe
  • Registratie: November 2001
  • Laatst online: 25-11 08:54
heuveltje schreef op maandag 01 november 2010 @ 18:42:
[...]

Even nieuwschierig, wat voor controller ?
ik had een supermicro besteld.
Maar die is helaas niet meer leverbaar.

Dus ik ben benieuwd naar goedkope 8-poorts pcie alternatieven.
(als er 12 poorts zijn voor een redelijke prijs houd ik me trouwens ook aanbevolen)
Wil flex-raid gaan draaien, dus er hoeft geen raid-functionaliteit op de kaart te zijn.
Ik heb er eentje op eBay besteld. Heeft een weekje geduurd eer hij hier was maar werd perfect afgeleverd. Staken ook 8 SATA kabels bij. De Linux kernel herkende alle schijven meteen aangezien deze een SiL controller gebruikt. :-)

  • Ashe
  • Registratie: November 2001
  • Laatst online: 25-11 08:54
Q schreef op maandag 01 november 2010 @ 20:45:
[...]


Heel interessant die kaart. Het enige minpuntje is die PCIe van 1x, bij een rebuild of expand ga je dat merken, maar alleen dan. Als ik zo de performance lees dan is die kaart voor de meeste mensen een mooie oplossing voor software RAID. de Rocket Raid 2320 met 8 poorten doet al 250+ euro. Enige verschil is dat deze kaart PCIe 4x heeft.

Wat ook een uitkomst zou zijn is een goedkope kaart met SAS expanders of sata port multipliers. Maar ik heb nog geen topics gezien met geslaagde setup op deze basis.
Geen ervaring met SAS expanders of port multipliers. Ik wou gewoon voor een simpele oplossing gaat en het was vrij moeilijk om kaarten te vinden die goedkoop zijn, maar toch voldoende connecties voorzien.

Je hebt absoluut gelijk dat die PCIe1x de hele boel vertraagt bij rebuilds maar ik zag er niet echt het nut van in om een kaart te steken die twee maal zo duur was, waarvan ik de raid functionaliteit per definitie niet gebruikte. :) Ik heb wat zitten spelen voordat ik de set-up in de berging schoof met 2 gespeelde falende disks en het duurt inderdaad ongeveer 24 a 26u voordat een disk gerebuild werd. Op zich is dat een lange tijd maar ik maak er me niet te veel zorgen in. De kunst is bij een raid 6 disk replacement niet te rustig te zijn en wel degelijk snel een disk te vervangen. Het geeft je wat extra "window" omdat een tweede disk failure raar of zelden direct gebeurt maar ik neem telkens het zekere voor het onzekere. Van zodra een disk failed haal ik een nieuwe en vervang ik deze direct. Het tijdsverschil zal weliswaar veel korter zijn met een x4 kaart maar de prijs is dan ook navenant. :)

Omtrent de stabiliteit van de kaart kan ik weinig slecht zeggen. Ze steekt namelijk pas een kleine vier weken in de server maar de array draait ondertussen 16 dagen non stop en heb nog geen enkel probleem gemerkt met uitvallende disks of enige vertragingen. Hout vasthouden zoals altijd maar tot nu toe werkt alles prima. :)

Verwijderd

NAS wordt bijna besteld maar ik twijfel nog over de case en koeling :9

Ik kan bijvoorbeeld een Fractal Design Define R3 (Zwart) nemen met veel ruimte voor uitbreiding. Maar ik kan ook een Antec Three Hundred of Cooler Master Centurion 590 kiezen...al dan niet met de welbekende Cooler Master 4-in-3 Device Module voor de 3x 5,25" bays.

Systeem wordt een Athlon II X2 240e, Gigabyte GA-880GA-UD3H, 2GB geheugen, 2x 2,5" (OS) Raid 1, 4x F4 Ecogreen 2TB, Be Quiet 300W (voldoende?)

Wat is nou belangrijk aan een case voor deze NAS (4-6 schijven met uitbreidingsruimte tot 8)? Ontwerp is niet echt cruciaal. Is er extra koeling nodig? Moet ik er bijvoorbeeld 2x een 120mm fan inzetten? Is de koeling van de Cooler Master 4-in-3 aan te raden of kunnen ze gewoon net zo goed in hun eigen 3,5" bays zitten?

Thnx voor de input! _/-\o_

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Is stilte van groot belang? Daar zit het grote verschil tussen de Fractal Design aan de ene kant en de Antec en Coolermaster aan de andere kant. De koeling van de ventilator in de 4-in-3 module is naar mijn mening ruim voldoende, het mag zelfs wel ietsje minder naar mijn mening. (Doelende op de geluidsproductie van de ventilator.)
En de BeQuiet gaat die samenstelling wel redden, met zelfs de nodige marge.

De CSL/OT kroeg !


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op dinsdag 02 november 2010 @ 22:29:
Is de koeling van de Cooler Master 4-in-3 aan te raden of kunnen ze gewoon net zo goed in hun eigen 3,5" bays zitten?
Tsja...hoe bepaal je of het nodig is of niet? Gezien de prijs van die dingen vind ik het de investering waard. De disks komen niet boven de 30c dus dat is nooit verkeerd. In mijn kast passen 3 van die dingen boven elkaar, dus ik kan 12 disks kwijt. Bovendien heb je zo meteen wat extra airflow je kast in.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Verwijderd

Hey Mphillip jij had toch een HDD als download vangnet, waarop je parred/unrarred. Merk je daar nou echt een boost in performance mee of valt het wel mee?

Waar hang je overigens die 2.5" drives in je kast lol. Daar heb je van die 2.5 naar 3.5 brackets voor nodig right?

Ik begrijp het dus goed dat je geen extra fans nodig hebt voor in je kast als je die 4-in-3's gebruikt. HDD hebben coolermaster, CPU heeft stock cooler en verder zit er eigenlijk niets in O-)

Bij die fractal case maak je namelijk geen gebruik van 4-in-3 dus is daar extra koeling nodig??

[ Voor 15% gewijzigd door Verwijderd op 04-11-2010 18:44 ]


  • The-Source
  • Registratie: Augustus 2001
  • Nu online
Voor de mensen met een Nocro RPC-4224, RPC-4220, RPC-4116 of RPC-4020. (waaronder Q maar die heeft DM uit :P )
Er is een upgrade bracket beschikbaar om de 80mm fans te vervangen voor 120mm exemplaren. Een review.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • steve2507
  • Registratie: Juli 2005
  • Laatst online: 10-10 17:19
Heb in de pre-order bij IPCDirect slechts 1 dollar voor die bracket hoeven betalen :-)
Inmiddels is het geheel onderweg naar NL (27 okt shipped).

  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
klaasbram schreef op donderdag 04 november 2010 @ 19:13:
Voor de mensen met een Nocro RPC-4224, RPC-4220, RPC-4116 of RPC-4020. (waaronder Q maar die heeft DM uit :P )
Er is een upgrade bracket beschikbaar om de 80mm fans te vervangen voor 120mm exemplaren. Een review.
Bedankt voor de tip. Let wel op dat deze bracket geen powerstrip heeft, je moet dus wel zelf iets oplossen om de fans van stroom te voorzien. Tenminste, dat is wat ik begrijp.

  • Ashe
  • Registratie: November 2001
  • Laatst online: 25-11 08:54
Q schreef op maandag 01 november 2010 @ 20:45:
[...]


Heel interessant die kaart. Het enige minpuntje is die PCIe van 1x, bij een rebuild of expand ga je dat merken, maar alleen dan. Als ik zo de performance lees dan is die kaart voor de meeste mensen een mooie oplossing voor software RAID. de Rocket Raid 2320 met 8 poorten doet al 250+ euro. Enige verschil is dat deze kaart PCIe 4x heeft.

Wat ook een uitkomst zou zijn is een goedkope kaart met SAS expanders of sata port multipliers. Maar ik heb nog geen topics gezien met geslaagde setup op deze basis.
Voorlopig best even de kaart links laten liggen. Ik kom hiernet thuis na een fijne avond stappen in Leuven met als resultaat een raid 6 array waar er vijf disks in mankeren. Een snelle scroll door /var/log/messages en het wordt duidelijk dat de SIL3124 driver in de kernel toch buggy is aangezien hij at random disks is beginnen stoppen. Blijkbaar een veel voorkomend probleem met SIL312X controllers is de hard reset en link status messages. Ik zal dit weekend nog maar wat research doen en alvast een kernel bug filen.

Wordt vervolgd en hopelijk ben ik mn 5TB aan data niet kwijt. ;-)

Edit: deze post mag genegeerd worden, alles werkt terug! Meer details hieronder.

[ Voor 3% gewijzigd door Ashe op 07-11-2010 17:15 . Reden: Kaart werkt nog steeds prima. ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op dinsdag 02 november 2010 @ 22:49:
Hey Mphillip jij had toch een HDD als download vangnet, waarop je parred/unrarred. Merk je daar nou echt een boost in performance mee of valt het wel mee?
Geen idee, ik heb het verschil niet getest. Het was meer gevoelsmatig omdat je met die handelingen heel veel schrijfacties doet en daar is RAID5 niet echt heel goed in. Dus het is niet wetenschappelijk onderbouwd ofzo, maar een scheiding van OS/downloadbuffer/storage leek me wel goed.
Waar hang je overigens die 2.5" drives in je kast lol. Daar heb je van die 2.5 naar 3.5 brackets voor nodig right?
Ik heb geen 2.5" schijven. Die 2 download disks zijn gewoon een setje Samsung 500Gb in RAID0. Maar ze zitten op de bodem van de kast. Daar zitten 2 drive cages naast elkaar voor 6 disks. Check it out:
Afbeeldingslocatie: http://img200.imageshack.us/img200/7701/sharkoonrebel12b21024x7.jpg
Wat mij betreft een hele fijne kast voor een NAS; de hele voorkant kun je volproppen met schijven en onderin nog 6 stuks.En dat voor €90.
Ik begrijp het dus goed dat je geen extra fans nodig hebt voor in je kast als je die 4-in-3's gebruikt. HDD hebben coolermaster, CPU heeft stock cooler en verder zit er eigenlijk niets in O-)
Nou, dat zeg ik niet. Maar het draagt wel bij tot de koeling lijkt mij. Ik heb in mijn kast die 2 Coolermaster dingen, 1 stock fan op de cpu, en 1 outtake fan aan de achterkant van de kast. De Sharkoon heeft van zichzelf nog een hele grote fan in de zijkant zitten die hoegenaamd geen geluid maakt dus die staat ook aan. Die Coolermaster zijn trouwens niet echt stil, dus wees gewaarschuwd. Voor mij maakt het niets uit, want hij staat in het washok, dus herrie is geen issue bij mij.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Verwijderd

Best een leuke kast, maar kun je er ook het type vermelden? PW vermeld een hoop van dit type kasten:
http://tweakers.net/price...n/?keyword=sharkoon+rebel

Verwijderd

Naar lang wikken en wegen ben ik tot de volgende samenstelling gekomen.

NAS
#ProductPrijsSubtotaal
4Samsung EcoGreen F4EG, 2TB€ 77,-€ 308,-
2Samsung Spinpoint M7 HM251HI , 250GB SATA-300, 8MB, 5400rpm€ 32,17€ 64,34
1Cooler Master Centurion 590€ 55,-€ 55,-
1AMD Athlon II X2 240E€ 53,95€ 53,95
1Cooler Master 4-in-3 Device Module€ 14,08€ 14,08
1be quiet! Pure Power L7 300W€ 35,-€ 35,-
1OCZ Gold DDR3 PC3-10666 Low Voltage Dual Channel€ 35,51€ 35,51
1Gigabyte GA-880GA-UD3H€ 82,16€ 82,16
Bekijk collectie
Importeer producten
Totaal€ 648,04


Eventueel een andere case. De case moet goedkoop zijn, voldoende koelen en ruimte bieden aan 6-8 HDDs. Input is welkom en anders ga ik gewoon voor de Cooler Master ;)

Ik ga alles op Ubuntu draaien met Software Raid 5 in XFS format. De 2.5" HDD (OS) komen in een RAID 1 setup te hangen. Verder nog tips over de setup?

Daarnaast heb ik ook een HTPC samengesteld. Ik weet dat hier een ander draadje over is maar ik post het toch ook hier even. De helft van de memory van de NAS gaat naar de HTPC, dus beide 2GB.

HTPC
#ProductPrijsSubtotaal
1Samsung EcoGreen F3 HD105SI, 1TB€ 46,53€ 46,53
1Microsoft Windows 7 Home Premium (NL OEM 64bit)€ 82,50€ 82,50
1Lian Li PC-C37B€ 119,-€ 119,-
1MS-Tech mc-1200€ 89,80€ 89,80
1Scythe Shuriken Rev. B€ 21,94€ 21,94
2Nexus Real Silent D12SL-12 BW, 120m€ 5,-€ 10,-
1AMD Athlon II X2 240E€ 53,95€ 53,95
1Samsung SH-B083L (8x, SATA-150, dual-layer, Zwart, Retail)€ 62,50€ 62,50
1Nexus Value 430€ 54,50€ 54,50
1MSI 760GM-E51€ 49,81€ 49,81
1Club3D HD5550 Noiseless Edition€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 590,53


Ik ga denk ik voor de Lian-Li of MS-Tech (moet hier evt. fans voor aanpassen). Ben er nog niet helemaal over uit welke case het gaat worden. Ik heb in het TV meubel niet zo veel ruimte (11cm hoog) . Bij een grotere case (Zalman HD 501 / Silverstone LC-10 / Nox Live 2) zal ik concessies moeten doen en apparatuur buiten het TV meubel plaatsen :?

Vraag me ook af of de GPU goed in de kast past ondanks dat het een Low Profile kaart is. Heb er een hekel aan als dingen maar net passen. De PSU ga ik vervangen voor een stiller model. Kastje gaat op Windows 7 draaien met Mediaportal of XBMC.

Tips zijn natuurlijk altijd welkom, ondanks dat het geen NAS is. 8)

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op vrijdag 05 november 2010 @ 12:41:
Best een leuke kast, maar kun je er ook het type vermelden? PW vermeld een hoop van dit type kasten:
http://tweakers.net/price...n/?keyword=sharkoon+rebel
Het is de Rebel 12 (zie ook mijn inventaris). Daar zijn 2 uitvoeringen van, 1 met die grote zijfan en 1 zonder. Ik vind het een prima kast. Niet in dezelfde klasse als de Corsair 800D waar mijn 'desktop' in huist, maar dat boeit niet. Hij staat uit het zicht en ik hoef er toch nooit in te zijn. Hoewel ie niet eens lelijk is. Ook gaan de zijpanelen er makkelijk uit. Het is een 'veel bang for the buck kast' als je het mij vraagt.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Ashe schreef op vrijdag 05 november 2010 @ 00:50:
[...]


Voorlopig best even de kaart links laten liggen. Ik kom hiernet thuis na een fijne avond stappen in Leuven met als resultaat een raid 6 array waar er vijf disks in mankeren. Een snelle scroll door /var/log/messages en het wordt duidelijk dat de SIL3124 driver in de kernel toch buggy is aangezien hij at random disks is beginnen stoppen. Blijkbaar een veel voorkomend probleem met SIL312X controllers is de hard reset en link status messages. Ik zal dit weekend nog maar wat research doen en alvast een kernel bug filen.

Wordt vervolgd en hopelijk ben ik mn 5TB aan data niet kwijt. ;-)
Jezus, dat is zwaar Kl*te. Success met het fixen.

Verwijderd

Verwijderd schreef op vrijdag 05 november 2010 @ 22:24:
Naar lang wikken en wegen ben ik tot de volgende samenstelling gekomen.
[...]
Ik zou nog even nadenken over die kast als ik jou was. Ik heb er twee maar ik ben er niet heel tevreden over. Het is duidelijk een budgetkast (de goedkopere versie van de 690) en dat is goed te merken. De stoffilters werken maar matig: mijn Centurion 5 kon ik een jaar laten draaien en er lag amper een stofje op de bodem van de kast, een 590 ligt na een maand of twee al vol. Ik heb trouwens het vermoeden dat de fans in de bovenkant van de kast daar ook wat mee te maken hebben. Op zich is het idee leuk (warme lucht stijgt op e.d.) maar zeker als de machine uit staat valt er heel makkelijk stof door naar binnen, aangezien het uitblazende fans zijn zitten daar ook geen stoffilters. Daarnaast is het staal niet zo dik en voelt de hele kast wat goedkoop aan.

Als je NAS een beetje een fire en forgetsysteem is qua hardware zou ik kijken of je voor een vergelijkbaar bedrag niet een kast kunt vinden met een wat betere kwaliteit. :)

  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08 23:05
Afbeeldingslocatie: http://img227.imageshack.us/img227/9828/fractalfront.jpg

@Wezz6400 & Snos
Als je een paar tientjes extra kan missen zou ik toch nog eens kijken naar de Fractal R3. Het interesante van deze case is dat je HDs 90o graden zijn gedraaid. Hierdoor kan je de SATA- en power-cables achterlangs laten lopen. Daarnaast heeft ie ook stof-filters.

  • Ashe
  • Registratie: November 2001
  • Laatst online: 25-11 08:54
Q schreef op zaterdag 06 november 2010 @ 09:33:
[...]


Jezus, dat is zwaar Kl*te. Success met het fixen.
Thanks. Deze nacht had ik een Linux kernel bug 22152 gefiled maar door de hulp van een vriend ben ik tot het inzicht gekomen dat er mogelijk 5 van mijn disks geen stroom meer krijgen.

Er zijn vijf disks die allemaal boven elkaar steken met doorgeluste molex connectors die zijn beginnen falen. Deze worden ook niet meer herkend bij het booten in de BIOS van deze kaart. Ook heb ik gemerkt dat er 4 schijven ten tijde van de failures gepowercycled zijn door deze vermeldingen in mijn /var/log/messages:

root@darkstar2:~/backup_varlogmessages# grep -i spin_up messages
Nov  3 22:05:07 darkstar2 smartd[1975]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 3 Spin_Up_Time changed from 164 to 189 
Nov  3 22:05:07 darkstar2 smartd[1975]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 3 Spin_Up_Time changed from 165 to 190 
Nov  3 22:05:08 darkstar2 smartd[1975]: Device: /dev/sdj [SAT], SMART Prefailure Attribute: 3 Spin_Up_Time changed from 165 to 190 
Nov  3 22:35:08 darkstar2 smartd[1975]: Device: /dev/sdj [SAT], SMART Prefailure Attribute: 3 Spin_Up_Time changed from 190 to 240 
Nov  3 22:35:08 darkstar2 smartd[1975]: Device: /dev/sdk [SAT], SMART Prefailure Attribute: 3 Spin_Up_Time changed from 166 to 191 
root@darkstar2:~/backup_varlogmessages#


4 van de 5 schijven zijn dus blijkbaar opnieuw opgestart wat een mogelijk probleem kan zijn met de molex connectors.

Voor zover ik nog weet zitten al deze schijven die boven elkaar zitten allemaal op dezelfde port multiplier ata8 behalve eentje die op port multiplier ata7 zit. De andere drie die op ata7 zitten worden succesvol herkend, samen met de 2 andere schijven die op mijn moederbord op 2 van de 6 SATA poorten op de ICH10 SATA controller zitten.

ata1 tot en met ata6 zijn de 6 ICH10 SATA poorten, ata7 en ata8 zijn de fysieke SATA poorten met elk een port multiplier en 2 doubledeck connectors zodat er 4 SATA poorten gevormd worden per multiplier. De andere ata's zijn nog enkele poorten op mijn moederbord.

Ik was in het begin ook aan het klagen over al die "ata8.11: SATA link down (SStatus 0 SControl 0)" messages:

Nov  6 13:41:54 darkstar2 kernel: ata8.15: Port Multiplier 1.2, 0x197b:0x0325 r0, 15 ports, feat 0x5/0xf
Nov  6 13:41:54 darkstar2 kernel: ata8.00: hard resetting link
Nov  6 13:41:55 darkstar2 kernel: ata8.00: SATA link down (SStatus 0 SControl 0)
Nov  6 13:41:55 darkstar2 kernel: ata8.01: hard resetting link
Nov  6 13:41:56 darkstar2 kernel: ata8.01: SATA link down (SStatus 0 SControl 0)
Nov  6 13:41:56 darkstar2 kernel: ata8.02: hard resetting link
Nov  6 13:41:57 darkstar2 kernel: ata8.02: SATA link down (SStatus 0 SControl 0)
Nov  6 13:41:57 darkstar2 kernel: ata8.03: hard resetting link
Nov  6 13:41:58 darkstar2 kernel: ata8.03: SATA link down (SStatus 0 SControl 0)
Nov  6 13:41:58 darkstar2 kernel: ata8.04: hard resetting link
Nov  6 13:41:59 darkstar2 kernel: ata8.04: SATA link down (SStatus 0 SControl 0)
Nov  6 13:41:59 darkstar2 kernel: ata8.05: hard resetting link
Nov  6 13:42:00 darkstar2 kernel: ata8.05: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:00 darkstar2 kernel: ata8.06: hard resetting link
Nov  6 13:42:01 darkstar2 kernel: ata8.06: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:01 darkstar2 kernel: ata8.07: hard resetting link
Nov  6 13:42:02 darkstar2 kernel: ata8.07: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:02 darkstar2 kernel: ata8.08: hard resetting link
Nov  6 13:42:03 darkstar2 kernel: ata8.08: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:03 darkstar2 kernel: ata8.09: hard resetting link
Nov  6 13:42:04 darkstar2 kernel: ata8.09: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:04 darkstar2 kernel: ata8.10: hard resetting link
Nov  6 13:42:05 darkstar2 kernel: ata8.10: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:05 darkstar2 kernel: ata8.11: hard resetting link
Nov  6 13:42:06 darkstar2 kernel: ata8.11: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:06 darkstar2 kernel: ata8.12: hard resetting link
Nov  6 13:42:07 darkstar2 kernel: ata8.12: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:07 darkstar2 kernel: ata8.13: hard resetting link
Nov  6 13:42:08 darkstar2 kernel: ata8.13: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:08 darkstar2 kernel: ata8.14: hard resetting link
Nov  6 13:42:09 darkstar2 kernel: ata8.14: SATA link down (SStatus 0 SControl 0)
Nov  6 13:42:09 darkstar2 kernel: ata8: EH complete
Nov  6 19:17:34 darkstar2 kernel: ata8: SATA max UDMA/100 host m128@0xfcfffc00 port 0xfcffa000 irq 19
Nov  6 19:17:34 darkstar2 kernel: ata8: SATA link down (SStatus 0 SControl 0)
Nov  6 19:23:54 darkstar2 kernel: ata8: SATA max UDMA/100 host m128@0xfcfffc00 port 0xfcffa000 irq 19
Nov  6 19:23:54 darkstar2 kernel: ata8: SATA link down (SStatus 0 SControl 0)


Ondertussen heb ik door dat de port multipliers van deze kaart maximaal 15 disks kunnen bevatten dus de Linux kernel gaat alle "links" af om te zien of hij disks kan vinden.

Op de port multiplier ata7 kan hij wel drie van de vier disks vinden en de 4de niet (waarschijnlijk omdat deze zonder stroom zit):

Nov  6 13:08:14 darkstar2 kernel: ata7.15: Port Multiplier 1.2, 0x197b:0x0325 r0, 15 ports, feat 0x5/0xf
Nov  6 13:08:14 darkstar2 kernel: ata7.00: hard resetting link
Nov  6 13:08:14 darkstar2 kernel: ata7.00: SATA link up 3.0 Gbps (SStatus 123 SControl 320)
Nov  6 13:08:14 darkstar2 kernel: ata7.01: hard resetting link
Nov  6 13:08:14 darkstar2 kernel: ata7.01: SATA link up 3.0 Gbps (SStatus 123 SControl 320)
Nov  6 13:08:14 darkstar2 kernel: ata7.02: hard resetting link
Nov  6 13:08:14 darkstar2 kernel: ata7.02: SATA link up 3.0 Gbps (SStatus 123 SControl 320)
Nov  6 13:08:14 darkstar2 kernel: ata7.03: hard resetting link
Nov  6 13:08:14 darkstar2 kernel: ata7.03: SATA link down (SStatus 0 SControl 0)
Nov  6 13:08:14 darkstar2 kernel: ata7.04: hard resetting link
Nov  6 13:08:14 darkstar2 kernel: ata7.04: SATA link down (SStatus 0 SControl 0)
Nov  6 13:08:14 darkstar2 kernel: ata7.05: hard resetting link
.......


Spijtig genoeg kan ik nu niet bij de server maar dit zal hopelijk morgen (of uiterst maandag) wel het geval zijn en dan zal ik vrij snel zien of mijn (en dat van een vriend) vermoeden correct is dat die 5 disks gewoon zonder power zitten.

Indien dit het geval is dan zal het snel opgelost zijn en was al deze zorg voor niets. Het goeie is dan wel dat ik er enorm veel van heb bijgeleerd en dat ik (hopelijk) geen enkele data verloren ben en mijn raid 6 niet eens zal moeten geresynced worden.

To be continued...

Edit: alle disks worden terug perfect herkend. Het was dus hardware matig zoals ik hierboven al had vermeld. De vijf schijven kregen geen stroom meer. We hebben de molex connectors wat herschikt en de voeding voor de harde schijven verdeeld over enkele kabels voor alle zekerheid. In principe moet de voeding voldoende kunnen leveren per lijn (vermoed ik), maar nu heb ik er een beter gevoel bij.

root@darkstar2:~# mdadm --assemble --force --scan /dev/md0
mdadm: forcing event count in /dev/sdi1(7) from 286 upto 293
mdadm: forcing event count in /dev/sdj1(8) from 286 upto 293
mdadm: forcing event count in /dev/sdk1(9) from 286 upto 293
mdadm: clearing FAULTY flag for device 3 in /dev/md0 for /dev/sdi1
mdadm: clearing FAULTY flag for device 2 in /dev/md0 for /dev/sdj1
mdadm: clearing FAULTY flag for device 1 in /dev/md0 for /dev/sdk1
mdadm: /dev/md0 has been started with 8 drives (out of 10).
root@darkstar2:~#


Details opvragen van de raid array bevestigt dat er slechts 8 van de 10 schijven draaien:

root@darkstar2:/etc/ntp# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
md0 : active raid6 sdb1[0] sdk1[9] sdj1[8] sdi1[7] sdg1[5] sde1[3] sdd1[2] sdc1[1]
      15628115456 blocks level 6, 64k chunk, algorithm 2 [10/8] [UUUU_U_UUU]
      
unused devices: <none>
root@darkstar2:~# mdadm -D /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Sat Oct  9 07:53:36 2010
     Raid Level : raid6
     Array Size : 15628115456 (14904.13 GiB 16003.19 GB)
  Used Dev Size : 1953514432 (1863.02 GiB 2000.40 GB)
   Raid Devices : 10
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Fri Nov  5 00:15:08 2010
          State : clean, degraded
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : f512d680:c6458956:fbe53745:38f0c41a
         Events : 0.293

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       65        3      active sync   /dev/sde1
       4       0        0        4      removed
       5       8       97        5      active sync   /dev/sdg1
       6       0        0        6      removed
       7       8      129        7      active sync   /dev/sdi1
       8       8      145        8      active sync   /dev/sdj1
       9       8      161        9      active sync   /dev/sdk1
root@darkstar2:~#


Vervolgens de missing spares bijvoegen, eentje per eentje en even checken:

root@darkstar2:~# mdadm --manage /dev/md0 --re-add /dev/sdf1
mdadm: re-added /dev/sdf1
root@darkstar2:~# mdadm -D /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Sat Oct  9 07:53:36 2010
     Raid Level : raid6
     Array Size : 15628115456 (14904.13 GiB 16003.19 GB)
  Used Dev Size : 1953514432 (1863.02 GiB 2000.40 GB)
   Raid Devices : 10
  Total Devices : 9
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sun Nov  7 17:10:51 2010
          State : clean, degraded, recovering
 Active Devices : 8
Working Devices : 9
 Failed Devices : 0
  Spare Devices : 1

     Chunk Size : 64K

 Rebuild Status : 0% complete

           UUID : f512d680:c6458956:fbe53745:38f0c41a
         Events : 0.313

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       65        3      active sync   /dev/sde1
      10       8       81        4      spare rebuilding   /dev/sdf1
       5       8       97        5      active sync   /dev/sdg1
       6       0        0        6      removed
       7       8      129        7      active sync   /dev/sdi1
       8       8      145        8      active sync   /dev/sdj1
       9       8      161        9      active sync   /dev/sdk1
root@darkstar2:~# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
md0 : active raid6 sdf1[10] sdb1[0] sdk1[9] sdj1[8] sdi1[7] sdg1[5] sde1[3] sdd1[2] sdc1[1]
      15628115456 blocks level 6, 64k chunk, algorithm 2 [10/8] [UUUU_U_UUU]
      [>....................]  recovery =  0.6% (12112544/1953514432) finish=1413.8min speed=22884K/sec
      
unused devices: <none>
root@darkstar2:~# 


Het zal nog wel een dag of 2 duren voordat de 2 spares gerebuilt zijn. Geen idee waarom deze moeten gerebuilt worden maar ik laat het zijn gangetje gaan.

Ondertussen de raid array alvast eens mounten en alles lijkt in orde:

root@darkstar2:~# mount /data
root@darkstar2:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/root             457G  8.5G  425G   2% /
tmpfs                 501M     0  501M   0% /dev/shm
/dev/md0               15T  4.9T  8.8T  36% /data
root@darkstar2:~#


Ik heb de bug ondertussen afgesloten en mijn excuses aangeboden.

Dus nogmaals, de Exsys EX-3508 8 port SATA controller werkt schitterend als low cost alternatief en als je geen gigantische performance nodig hebt! Meer details hierboven te vinden.

Ik ben alvast tevreden dat ik geen data ben kwijtgeraakt en ondertussen heb ik veel bijgeleerd over hoe SATA port multipliers werken en gedetecteerd worden in Linux. Terwijl ik vroeger altijd dacht dat die hard link resets fouten waren weet ik nu dat dit gewoon de normale manier van werken is om alle disks te zoeken.

[ Voor 46% gewijzigd door Ashe op 07-11-2010 17:32 . Reden: Verbetering/correctie/aanpassing van bericht. RAID 6 werkt terug. ]


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Ik vroeg mij af...stel, ik heb 8 x 2TB in RAID5 hangen. Dat is één flinke hdd van ong. 14GB. Is het nu zo dat alle schijven bij lezen en/of schrijven actief zijn? Of is het mogelijk dat er maar 3 actief zijn en de rest inactief (spin-down) is? Ik vraag dit ivm de energiezuinigheid van een grote RAID5 array.

[ Voor 5% gewijzigd door -Moondust- op 07-11-2010 21:41 ]


  • TMon
  • Registratie: September 2006
  • Laatst online: 22-12 21:54
-Moondust- schreef op zondag 07 november 2010 @ 21:40:
Ik vroeg mij af...stel, ik heb 8 x 2TB in RAID5 hangen. Dat is één flinke hdd van ong. 14GB. Is het nu zo dat alle schijven bij lezen en/of schrijven actief zijn? Of is het mogelijk dat er maar 3 actief zijn en de rest inactief (spin-down) is? Ik vraag dit ivm de energiezuinigheid van een grote RAID5 array.
Als je even kijkt naar hoe Raid 5 werkt lijkt het me niet logisch. Als je een bestand hebt, gaat hij deze uitsmeren over alle schijven. Beter kun je 2 arrays maken en dan 1tje voor continu gebruik en 1 voor de minder veel gebruikte bestanden en die laten downspinnen. Maar downspinnen was ook niet alles lees ik soms?

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Ik heb vanmorgen een klein ventilatortje op de raid kaart gemonteerd. Ik vond dat koellichaam op de processor altijd erg warm, en ik las hier en daar op internet dat meer mensen dat gedaan hebben (ook op andere kaarten). Punt is eigenlijk dat het een vreselijk herrieding is. Hij komt in zijn eentje boven alle geluiden van het systeem uit, dus dat is best een prestatie. Aan de ene kant niet zo heel erg, want in de woonkamer hoor ik het niet, maar het stoort me wel een beetje.
Ik vrees alleen dat er in die maat (25mm) niet zoveel te krijgen is wat stiller is. Ik heb deze bij Conrad gevonden en dat was de enige op dat formaat. Iemand een tip voor een wat stiller exemplaar?

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Ashe schreef op zaterdag 06 november 2010 @ 22:02:
[...]


Thanks. Deze nacht had ik een Linux kernel bug 22152 gefiled maar door de hulp van een vriend ben ik tot het inzicht gekomen dat er mogelijk 5 van mijn disks geen stroom meer krijgen.
.....

Het zal nog wel een dag of 2 duren voordat de 2 spares gerebuilt zijn. Geen idee waarom deze moeten gerebuilt worden maar ik laat het zijn gangetje gaan.

.....


Dus nogmaals, de Exsys EX-3508 8 port SATA controller werkt schitterend als low cost alternatief en als je geen gigantische performance nodig hebt! Meer details hierboven te vinden.

Ik ben alvast tevreden dat ik geen data ben kwijtgeraakt en ondertussen heb ik veel bijgeleerd over hoe SATA port multipliers werken en gedetecteerd worden in Linux. Terwijl ik vroeger altijd dacht dat die hard link resets fouten waren weet ik nu dat dit gewoon de normale manier van werken is om alle disks te zoeken.
Gelukkig dat je de array weer terug hebt, dat scheelt weer. En qua stroom toevoer heb je het nu beter aangepakt begrijp ik. Het valt mij erg mee dat je de array weer aan de praat kreeg na zo'n catastrofe.

Toch zou ik wel even kijken of de echt belangrijke data niet ook even op een usb disk gesodemieterd kan worden. Blijft spannend niet-redundant draaien.

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

mphilipp schreef op zondag 07 november 2010 @ 22:26:
Ik heb vanmorgen een klein ventilatortje op de raid kaart gemonteerd. Ik vond dat koellichaam op de processor altijd erg warm, en ik las hier en daar op internet dat meer mensen dat gedaan hebben (ook op andere kaarten). Punt is eigenlijk dat het een vreselijk herrieding is. Hij komt in zijn eentje boven alle geluiden van het systeem uit, dus dat is best een prestatie. Aan de ene kant niet zo heel erg, want in de woonkamer hoor ik het niet, maar het stoort me wel een beetje.
Ik vrees alleen dat er in die maat (25mm) niet zoveel te krijgen is wat stiller is. Ik heb deze bij Conrad gevonden en dat was de enige op dat formaat. Iemand een tip voor een wat stiller exemplaar?
Niet echt een stiller exemplaar.
Maar ik had voor mijn oude raidkaart een 8cm fan aan de zijkant van de kast bevestigd, die over de kaart heen blaasde. kwa geluid merkte je amper verschil, en hij koelde prima.

En nu heb ik dit weer, nieuwe intel raidcontroller onderhand binnen. zijn de sas>sata kabels weer te kort, kan ik nog niks :(

Draait nu wel in een test opstelling, 14TB aan disken scannen duurt lang :(

[ Voor 3% gewijzigd door heuveltje op 07-11-2010 22:46 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
mphilipp schreef op zondag 07 november 2010 @ 22:26:
Ik heb vanmorgen een klein ventilatortje op de raid kaart gemonteerd. Ik vond dat koellichaam op de processor altijd erg warm, en ik las hier en daar op internet dat meer mensen dat gedaan hebben (ook op andere kaarten). Punt is eigenlijk dat het een vreselijk herrieding is. Hij komt in zijn eentje boven alle geluiden van het systeem uit, dus dat is best een prestatie. Aan de ene kant niet zo heel erg, want in de woonkamer hoor ik het niet, maar het stoort me wel een beetje.
Ik vrees alleen dat er in die maat (25mm) niet zoveel te krijgen is wat stiller is. Ik heb deze bij Conrad gevonden en dat was de enige op dat formaat. Iemand een tip voor een wat stiller exemplaar?
Ik heb op mijn oude hp 2320 ook een kleine ventilator gemonteerd omdat ik een keer bijna een array kwijt was door hitte problemen. De hele controller was gewoon uit linux verdwenen en hij piepte als een gek.

Ik heb zo'n zelfde kleine lawaai ventilator gewoon op 7 volt geundervolt en het geluid is acceptabel. Je kunt ook iets fabriceren dat je een grotere ventilator of een slotkoeler de boel laat koelen. Ik heb voor mijn grote NAS in mijn sig een slotkoeler precies tegenover de controller gemonteerd zodat hij alle warme lucht over de kaart weg zuigt.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/norco6.jpg

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
mphilipp schreef op zondag 07 november 2010 @ 22:26:
Ik heb vanmorgen een klein ventilatortje op de raid kaart gemonteerd. Ik vond dat koellichaam op de processor altijd erg warm, en ik las hier en daar op internet dat meer mensen dat gedaan hebben (ook op andere kaarten).
In welk slot zit die raid kaart. Als je ruimte hebt dan zou ik een groter exemplaar eronder hangen. Anders zou ik overdwars, haaks op de kaart(en), een ventilator hangen. Kies een 8-12cm exemplaar en zorg dat die rond de 800-1000rpm draait.

De CSL/OT kroeg !


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Dadona schreef op zondag 07 november 2010 @ 22:47:
[...]
In welk slot zit die raid kaart. Als je ruimte hebt dan zou ik een groter exemplaar eronder hangen. Anders zou ik overdwars, haaks op de kaart(en), een ventilator hangen. Kies een 8-12cm exemplaar en zorg dat die rond de 800-1000rpm draait.
Misschien kan ik idd iets fabriceren dat in een slot ernaast zit. Ik heb nog wel een paar fans liggen. In principe is alles beter dan deze kleine F16... Ik zal eens aan het rekenen gaan en kijken welke weerstand ik er tussen moet frunniken om 'm langzamer te laten draaien. Anders een grote fan ernaast monteren. Die hoeft ik niet eens te ondervolten, want de herrie kan nooit heel erg zijn. De machine staat in mijn washok, dus ik hoor ook die F16 alleen als ik de gang op ga. Maar ja...als je visite krijgt, vraagt iedereen zich af of er een tandarts in dat hok zit... :X

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • redfoxert
  • Registratie: December 2000
  • Niet online
mphilipp schreef op maandag 08 november 2010 @ 00:32:
[...]

Misschien kan ik idd iets fabriceren dat in een slot ernaast zit. Ik heb nog wel een paar fans liggen. In principe is alles beter dan deze kleine F16... Ik zal eens aan het rekenen gaan en kijken welke weerstand ik er tussen moet frunniken om 'm langzamer te laten draaien. Anders een grote fan ernaast monteren. Die hoeft ik niet eens te ondervolten, want de herrie kan nooit heel erg zijn. De machine staat in mijn washok, dus ik hoor ook die F16 alleen als ik de gang op ga. Maar ja...als je visite krijgt, vraagt iedereen zich af of er een tandarts in dat hok zit... :X
Zalman heeft hier ook apparaatjes voor waarmee je door middel van een draaiknopje het toerental verlaagd, en dus de weerstand verhoogd.

https://discord.com/invite/tweakers


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Of je prikt de fan op het moederbord op een beschikbare header en past het vanuit bios of je os aan. Of je pakt de ventilator zelf aan door deze, hardwarematig, op een ander voltage te laten lopen. Ik zou de ventilator op 7V laten lopen. Met 5V wil het wel eens lastig gaan en met 12V dan moet je een ventilator hebben die al erg stil is van zichzelf.
Bouwprojectje: http://www.techpowerup.com/articles/other/137

De CSL/OT kroeg !


  • steve2507
  • Registratie: Juli 2005
  • Laatst online: 10-10 17:19
Voor diegenen die nog een RPC-4224 uit de VS over willen halen; ik heb 'm zojuist binnen en heb 92 euro aan de staat af moeten dragen.
Pagina: 1 ... 29 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.