• chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
Ik heb zelf gekozen voor ext4 boven xfs, omdat het een verbetering is op ext3 en standaard ondersteund wordt. xfs stond ook wel in mijn lijst, maar het was nog niet helemaal mature en met debian weet ik niet of je dan wel een stabiele moderne implementatie van xfs hebt, ext4 wordt enorm veel gebruikt en is duidelijk superieur aan ext3 op sommige vlakken. Xfs is helemaal nog niet zo populair... en vind persoonlijk stabiliteit enorm belangrijk, dan maar het saaie ext3 of ext4, al vond ik het verwijderen van honderduizenden hardlinks van back-up software wel tergend traag, het lijkt wel uren werk.
https://secure.wikimedia.org/wikipedia/en/wiki/XFS
Red Hat Enterprise Linux 5.4 64 bit version has all needed kernel support but does not include command line tools for creating and using the system, but the tools from CentOS work. The motivation is that the system port may not yet be stable enough
Zeker indien je spreekt over productie-servers, dan is wat opslagruimte verliezen veel minder belangrijk dan redundancy en data-integriteit. Dus xfs is het beste vind ik wat kortzichtig. Ben zelf enorm enthousiast over zfs, maar dat is helaas op Linux niet in de verste verte bruikbaar. Veel mensen zeggen dat btrfs de toekomst is, maar ook nog niet klaar.
DJ-Promo schreef op zaterdag 02 juli 2011 @ 17:49:
Mijn server draait weer :).

van:

5x500GB raid5 ( chunk 64k, XFS )

naar:

3x2TB Samsung F4 ( chunk 64k, EXT4 )
Extra:
Sharkoon Rebel + Norco SS-400
wel mooi, maar ik vind persoonlijk grote hoeveelheid schijven veel gaver, dan kun je ook echt schalen met snelheid! 8xraid10 zit je aan schrijfsnelheden van 300-350MB per seconde, raid-5 nog hoger.

[ Voor 12% gewijzigd door chronoz op 04-07-2011 22:43 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 24-12 23:00
chronoz schreef op maandag 04 juli 2011 @ 22:37:
Ik heb zelf gekozen voor ext4 boven xfs, omdat het een verbetering is op ext3 en standaard ondersteund wordt. xfs stond ook wel in mijn lijst, maar het was nog niet helemaal mature en met debian weet ik niet of je dan wel een stabiele moderne implementatie van xfs hebt.
XFS is zeer oud. Als file system bestaat het al sinds 1994.

Het zit in de Linux kernel sinds eeuwen:
XFS was first merged into mainline Linux in version 2.4
Het is in vrijwel alle opzichten beter qua performance en efficientie dan EXT3 maar EXT3 is opzicht ook goed genoeg. EXT3 is relatief langzamer en gaat minder efficient om met de ruimte. EXT3 is wel rock-solid. XFS is niet zo rock solid als EXT3.
ext4 wordt enorm veel gebruikt en is duidelijk superieur aan ext3 op sommige vlakken. Xfs is helemaal nog niet zo populair...
XFS is juist heel populair en wordt erg veel gebruikt?
en vind persoonlijk stabiliteit enorm belangrijk, dan maar het saaie ext3 of ext4, al vond ik het verwijderen van honderduizenden hardlinks van back-up software wel tergend traag, het lijkt wel uren werk.
Tja, XFS is gewoon heel erg uitontwikkeld en stabiel. Zorg wel voor een goede UPS. Maar dat geldt voor alles wat niet zoals ZFS en btrfs? aan checksumming doet.
Zeker indien je spreekt over productie-servers, dan is wat opslagruimte verliezen veel minder belangrijk dan redundancy en data-integriteit. Dus xfs is het beste vind ik wat kortzichtig. Ben zelf enorm enthousiast over zfs, maar dat is helaas op Linux niet in de verste verte bruikbaar. Veel mensen zeggen dat btrfs de toekomst is, maar ook nog niet klaar.
Grappig trouwens: ik schrijf nergens dat XFS 'het beste is' maar dat mijn advies is dat je 'beter voor XFS' kunt gaan als je onder Linux voor je storage een FS wilt kiezen. ZFS en BTRFS zijn helemaal niet aan de orde en zijn trouwens ook voor Linux niet eens het overwegen waard.

Je schiet op een stroman. Ik blijf bij mijn advies: je kunt voor je storage array beter voor XFS gaan, zeker voor de toekomst. Ik heb het artikel gezien en ik vraag mij af in hoeverre de issues die worden besproken ook voor andere filesystems gelden die ook niet aan checksumming doen.

Voor de mensen die 16+ TB partities willen maken is XFS de enige praktische keuze. JFS zou misschien kunnen vanuit technisch oogpunt maar volgens mij kijkt niemand meer in Linux land naar dat file system om en wil je je systeem baseren op een FS waar niemand meer naar om kijkt?

EXT4 is een optie als je beneden de 16 TB blijft. EXT4 is nog steeds relatief jong. Keuzes. Ga je niet over de 16 TB komen? Tja. dat denk je nu. Maar over 2 jaar? Dan growen die array of kun je dan opnieuw beginnen?

EXT4 is pas stable in Debian Linux sinds squeeze. Voor mij was het niet eens een optie geweest.

http://wiki.debian.org/Ext4

[ Voor 25% gewijzigd door Q op 04-07-2011 23:44 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
iMars schreef op vrijdag 01 juli 2011 @ 19:19:
Ik heb er wat data erop gezet en het scriptje gedraait. Alle data staat er nog goed op. Maar dat geeft natuurlijk geen garantie dat het foutloos gaat bij jou ;)
root@ZEUS:/mnt/data# dd if=/dev/zero of=test.bin bs=1M count=10096
10096+0 records in
10096+0 records out
10586423296 bytes (11 GB) copied, 22.8495 s, 463 MB/s
root@ZEUS:/mnt/data# dd of=/dev/null if=test.bin bs=1M count=10096
10096+0 records in
10096+0 records out
10586423296 bytes (11 GB) copied, 17.6287 s, 601 MB/s
root@ZEUS:/mnt/data#


:) werkt perfect!, wel hoge CPU load :)

Even niets...


  • Q
  • Registratie: November 1999
  • Laatst online: 24-12 23:00
Mooie cijfers, wat voor RAID array is dit?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
RAID6 MDADM met als member disks:
4 x Seagate 5900rpm 1.5TB
4 x WD Green EADS 5400rpm 1.5TB
op een LSI Logic 1068E

met XFS als filesystem onder Ubuntu.

[ Voor 8% gewijzigd door FireDrunk op 04-07-2011 23:53 ]

Even niets...


Verwijderd

Na een paar maanden gewerkt te hebben met een Asrock Ion 3D mediacenter en 3 losse D-Link DNS-320 NAS-behuizingen kom ik er achter dat mijn verzameling films, series en overige media toch echt te groot gaat worden om nog meer NAS-behuizingen aan te blijven schaffen. De automatische download functionaliteiten van Sickbeard, Couchpotato en het verslavende "ik wil alles bewaren"-gehalte van XBMC dwingen mij tot ingrijpen... Zodoende ben ik al een paar dagen diverse fora aan het afspeuren, tips aan het lezen, compatibility issues aan het doorzoeken om zodoende tot de perfecte oplossing voor mijn situatie te komen...

De situatie is nu dus als volgt:
- 1 x Asrock Ion 3D 152D
- 3 x D-Link ShareCenter Pulse DNS-320
- 1 x TP-Link TL-SG1005D 5-poorts Gigabit switch
Dit alles is momenteel gevuld met 4 x 2TB en 2 x 1 TB schijven (verschillende merken en RPM-snelheden)

De media-schijven zijn allemaal EXT-3 geformateerd (en staan zo goed als vol), de 320GB HDD in de Asrock (Windows 7 Ultimate 64bits) is "gewoon" NTFS geformateerd. Beeld gaat via HDMI kabel, audio via optische kabel naar versterker.

In eerste instantie dacht ik aan een losse NAS icm mijn huidige Asrock, dus puur voor de opslag, maar eigenlijk wil ik alles toch vanuit één systeem gaan laten draaien ivm stroomverbruik. Met het oog op mijn nieuwe woning en de mogelijkheid om HDMI/UTP/Toslink etc in de nieuwe muren te laten wegwerken wil ik het zo mooi mogelijk oplossen door deze nieuwe NAS/HTPC in de meterkast te plaatsen en deze via een draadloos toetsenbord/muis te gaan bedienen. Op die manier is alles dat zichtbaar is dus mijn Logitech DiNovo Mini, werkt erg fijn en ziet er nog mooi uit op tafel ook...

Een voeding (350W), een DVD-spelertje en kabels laat ik even buiten beschouwing omdat ik daar nog wel het één en ander aan heb liggen. Mede door het lezen van de comments van Borroz op dit forum en op het forum van Asus kan ik niet goed kiezen wat de beste oplossing zal zijn. Oja, wellicht nog handig om te weten dat het systeem 24/7 aan zal staan, geen RAID-configuratie ivm energy-saving (alleen de actieve schijven zullen opspinnen, overige schijven blijven in idle-mode). Mocht een schijf het begeven dan kan ik vrij snel alle data wel weer een keertje opnieuw downloaden / bij vrienden met vergelijkbare configuraties back-ups halen van verloren gegane data. Dit uiteraard tenzij er echt goede argumenten van de Tweakers-community komen waarom ik beter wél in RAID kan gaan draaien (zo ja welke Raid-modus?).

OPTIE 1:

#ProductPrijsSubtotaal
1Asus E35M1-M Pro€ 108,60€ 108,60
1Asrock SATA3 Card€ 14,08€ 14,08
1LyCom ST-126 SATA II 3Gbps 1-To-5 Port Multiplier PCI Low Profile Host Adapter€ 49,-€ 49,-
1Cooler Master HAF X€ 149,50€ 149,50
1Cooler Master 4-in-3 Device Module€ 15,51€ 15,51
2Kingston ValueRAM KVR1333D3N9/2G€ 13,29€ 26,58
Bekijk collectie
Importeer producten
Totaal€ 363,27


Deze configuratie biedt ruimte voor 11 harddisks, heeft een erg zuinig moederbord met onboard CPU+GPU, maar is toch krachtig genoeg voor mijn 1080p films en 720p series. Met de 4 GB geheugen moeten Python scripts voor Sickbeard en Couchpotato, iTunes (sync iPhone en music library voor Remote app) en Spotweb als back-ground processen geen problemen geven lijkt me. Dat gaat nu ook goed op mijn Asrock namelijk...

Probleem van bovenstaande configuratie is dat ik niet goed weet of ik met dit moederbord wel kan werken met de extra Asrock Sata3 kaart en de Multiplier kaart. Iemand die mij hier meer zekerheid/duidelijkheid over kan verschaffen? Zodoende kwam ik tot


OPTIE 2:
Gelijke configuratie als hierboven, maar dan ipv de Lycom multiplier en de Asrock Sata3-card een 8-poorts Raid controller. Helaas blijkt uit het forum van Asus dat diverse kaarten nog niet (helemaal) goed functioneren icm dit moederbordje. Mensen met ervaring welke Raid-controller wél goed werkt icm dit moederbordje?


OPTIE 3:
#ProductPrijsSubtotaal
2Asrock SATA3 Card€ 14,08€ 28,16
1Cooler Master HAF X€ 149,50€ 149,50
1Intel Core i3 2105 Boxed€ 112,70€ 112,70
1Cooler Master 4-in-3 Device Module€ 15,51€ 15,51
1Kingston ValueRAM KVR1333D3N9K2/8G€ 48,79€ 48,79
1Asrock Z68 Extreme4€ 147,90€ 147,90
Bekijk collectie
Importeer producten
Totaal€ 502,56


Persoonlijk neig ik zelf toch het meest naar optie 3. Geen gedonder met Raid-controllers (alleen twee goedkope Asrock SATA3-kaarten op een Asrock moederbordje), beter DDR3 geheugen mogelijk, krachtigere processor ivm realtime converteren (streaming media naar iPhone/iPad) en het scheelt me een boel uitzoekwerk hoe ik Raid-controllers aan de praat moet krijgen. Moederbord icm sandy-bridge processor moet meer dan krachtig genoeg zijn om HD content vloeiend af te spelen lijkt me. Het enige nadeel is het stroomverbruik dat optie 3 met zich mee zal brengen, maar ik denk dat het systeem in idle toestand wel terug te schalen is naar een acceptabel stroomverbruik...

Graag toch nog even de expertise van de meer ervaren systeembouwers gewenst voor ik over ga tot de aanschaf van bovenstaande optie 3 (het begint nu na al het uitzoekwerk toch wel te kriebelen om het morgen al in elkaar te gaan schroeven eerlijk gezegd...)

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
xfs, ext4 het is maar waar je het voor gebruikt. zie het onderstaande artikel
http://blog.peacon.co.uk/file-system-choice-for-nfs-servers/

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

FireDrunk schreef op maandag 04 juli 2011 @ 23:44:
[...]


root@ZEUS:/mnt/data# dd if=/dev/zero of=test.bin bs=1M count=10096
10096+0 records in
10096+0 records out
10586423296 bytes (11 GB) copied, 22.8495 s, 463 MB/s
root@ZEUS:/mnt/data# dd of=/dev/null if=test.bin bs=1M count=10096
10096+0 records in
10096+0 records out
10586423296 bytes (11 GB) copied, 17.6287 s, 601 MB/s
root@ZEUS:/mnt/data#


:) werkt perfect!, wel hoge CPU load :)
d:)b nice!

Koop hier mijn P1 reader :)


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Verwijderd schreef op dinsdag 05 juli 2011 @ 00:45:
*knip*
OPTIE 3:
#ProductPrijsSubtotaal
2Asrock SATA3 Card€ 14,08€ 28,16
1Cooler Master HAF X€ 149,50€ 149,50
1Intel Core i3 2105 Boxed€ 112,70€ 112,70
1Cooler Master 4-in-3 Device Module€ 15,51€ 15,51
1Kingston ValueRAM KVR1333D3N9K2/8G€ 48,79€ 48,79
1Asrock Z68 Extreme4€ 147,90€ 147,90
Bekijk collectie
Importeer producten
Totaal€ 502,56


Persoonlijk neig ik zelf toch het meest naar optie 3. Geen gedonder met Raid-controllers (alleen twee goedkope Asrock SATA3-kaarten op een Asrock moederbordje), beter DDR3 geheugen mogelijk, krachtigere processor ivm realtime converteren (streaming media naar iPhone/iPad) en het scheelt me een boel uitzoekwerk hoe ik Raid-controllers aan de praat moet krijgen. Moederbord icm sandy-bridge processor moet meer dan krachtig genoeg zijn om HD content vloeiend af te spelen lijkt me. Het enige nadeel is het stroomverbruik dat optie 3 met zich mee zal brengen, maar ik denk dat het systeem in idle toestand wel terug te schalen is naar een acceptabel stroomverbruik...

Graag toch nog even de expertise van de meer ervaren systeembouwers gewenst voor ik over ga tot de aanschaf van bovenstaande optie 3 (het begint nu na al het uitzoekwerk toch wel te kriebelen om het morgen al in elkaar te gaan schroeven eerlijk gezegd...)
Prima uitgedacht allemaal, maar waarom zo'n gamers moederbord? Waarom ga je niet voor een Supermicro of een Tyan bord? Die lijken me meer geschikt voor dit verhaal.

Even niets...


  • DP Kunst
  • Registratie: Juni 2003
  • Laatst online: 23-12 20:09
@CyrusTheVirusNL

Kun je die Asrock unit niet eens open schroeven om te kijken wat er in zit? Ik neem aan dat er een gewoon mITX bordje in zit. Misschien heeft deze nog wel een uitbreidingsslot voor het een of ander. Heb zelf bijvoorbeeld een PCIe x16 slot op m'n mITX bordje zitten.

In dat geval hoef je alleen maar een raid controller erin te drukken en je kunt 8 extra harddisks aan dat ding hangen. Wel ff alles in een andere case zetten, maar dat moet geen probleem zijn toch?

Of anders een ION bordje met PCIe kopen + raid kaart erbij. Ik kan nu bijv 12 schijven kwijt in m'n mediacenter..

Mijn nieuwe portfolio (Under Construction) | Benieuwd wat Solar Team Twente gaat doen?


Verwijderd

DP Kunst schreef op dinsdag 05 juli 2011 @ 10:02:
@CyrusTheVirusNL

Kun je die Asrock unit niet eens open schroeven om te kijken wat er in zit? Ik neem aan dat er een gewoon mITX bordje in zit. Misschien heeft deze nog wel een uitbreidingsslot voor het een of ander. Heb zelf bijvoorbeeld een PCIe x16 slot op m'n mITX bordje zitten.

In dat geval hoef je alleen maar een raid controller erin te drukken en je kunt 8 extra harddisks aan dat ding hangen. Wel ff alles in een andere case zetten, maar dat moet geen probleem zijn toch?

Of anders een ION bordje met PCIe kopen + raid kaart erbij. Ik kan nu bijv 12 schijven kwijt in m'n mediacenter..
Dat was in eerste instantie ook mijn idee, maar ik probeer nu mijn Asrock Ion als geheel te verkopen aan een kennis. Ik vond XBMC namelijk net iets te zwaar om soepel te draaien op de Asrock Ion in combinatie met iTunes, Sickbeard en Couchpotato. Het werkt allemaal wel, maar een beetje leuke skin is niet haalbaar dan. Verder wil ik echt 11 harddisks in mijn kast kwijt kunnen, maximale benutting van de HAF-X (rekening houdend met één 5.25" bay voor een DVD-spelertje). Het Asrock Ion mobo heeft voor zover ik weet geen vrije PCIe sloten meer.

Een Ion bordje is slecht verkrijgbaar en kost momenteel € 149,-. Voor dat geld heb ik toch liever een echt krachtig moederbord in de kast zitten. Ik begrijp dat dat een hogere energierekening tot gevolg zal hebben, maar het systeem moet gewoon soepel blijven lopen de komende jaren...

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Kijk als behuzing ook eens naar een sharkoon rebel 9 alu met 3in2 modules of een rebel 12 met 4 in 3 modules. De rebel 9 met 3x 4 in 3 kan ook echter kan je dan geen DVD drive meer kwijt.
Rebel 9 met 2x 4in3 en 1x3 in 2 biedt precies genoeg ruimte voor 11 hdd's en een dvd speler.

Verwijderd

dutch_warrior schreef op dinsdag 05 juli 2011 @ 12:25:
Kijk als behuzing ook eens naar een sharkoon rebel 9 alu met 3in2 modules of een rebel 12 met 4 in 3 modules. De rebel 9 met 3x 4 in 3 kan ook echter kan je dan geen DVD drive meer kwijt.
Rebel 9 met 2x 4in3 en 1x3 in 2 biedt precies genoeg ruimte voor 11 hdd's en een dvd speler.
Dat lijkt me in zo op het eerste gezicht een goedkopere goede oplossing, maar de Coolermaster-kast is gewoon erg compleet en komt ook zeer degelijk op mij over. De sharkoon-kasten vind ik toch een beetje "cheaper" er uit zien, plus dat ik er nog fans, HDD-racks en een cable-management oplossing bij aan moet schaffen dan...

De kast hoeft niet echt de meest budget-uitvoering te zijn, maar het moet gewoon soepel werken allemaal. De HDD-brackets van Coolermaster lijken mij wel aardig stevig te zijn en de totaalprijs van kast met 4-in-3 module vind ik wel acceptabel voor ca. 170 euro.

In eerste instantie was mijn plan eigenlijk een Norcotek RPC-4020, dus voor mij is dit al een flinke besparing ;)
Toch bedankt voor het advies!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
FireDrunk schreef op maandag 04 juli 2011 @ 23:44:
[...]


root@ZEUS:/mnt/data# dd if=/dev/zero of=test.bin bs=1M count=10096
10096+0 records in
10096+0 records out
10586423296 bytes (11 GB) copied, 22.8495 s, 463 MB/s
root@ZEUS:/mnt/data# dd of=/dev/null if=test.bin bs=1M count=10096
10096+0 records in
10096+0 records out
10586423296 bytes (11 GB) copied, 17.6287 s, 601 MB/s
root@ZEUS:/mnt/data#


:) werkt perfect!, wel hoge CPU load :)
Dat ziet er lekker uit. Op welke CPU draai je dit en hoeveel % cpu?
Ik hoop stiekem dat een E350 een mdadm R6 kan trekken ... .

  • Oid
  • Registratie: November 2002
  • Niet online

Oid

Oid schreef op woensdag 22 juni 2011 @ 07:19:
Wat ik me afvroeg, doen jullie aan active en/of passive virusscanning op de NAS, of laat je dat over aan client?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Jormungandr schreef op dinsdag 05 juli 2011 @ 16:31:
Dat ziet er lekker uit. Op welke CPU draai je dit en hoeveel % cpu?
Ik hoop stiekem dat een E350 een mdadm R6 kan trekken ... .
No way gosé, ik heb een X3430 :) en die doet 40-50% load onder RAID6, dus ik zou geen RAID6 op een E350 doen :)

@Oid, dat laat ik aan de clients over inderdaad.

Even niets...


  • Oid
  • Registratie: November 2002
  • Niet online

Oid

FireDrunk schreef op dinsdag 05 juli 2011 @ 16:35:
[...]


@Oid, dat laat ik aan de clients over inderdaad.
Intressant, is er ook een reden voor om niet bijv. clamav op de achtergrond te laten draaien?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
ClamAV ondersteund geen on-access scanning, dus op de achtergrond voert hij toch niets uit :)

Even niets...


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!


Verwijderd

FireDrunk schreef op dinsdag 05 juli 2011 @ 17:07:
ClamAV ondersteund geen on-access scanning, dus op de achtergrond voert hij toch niets uit :)
Echt wel...

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ah! i stand corrected, ik was in de war met de windhoos versie, die ondersteund dat niet... Misschien dan ook maar eens doen... Wel zo veilig... Aan de andere kant heb ik op alle clients gewoon AV software staan...

Even niets...


  • Oid
  • Registratie: November 2002
  • Niet online

Oid

Al mijn clients hebben het ook, echter als ik download via de nas, zou ik een virus kunnen binnen halen.

Ik was wel benieuwd naar ervaringen, misschien geeft het wel ontzetten performance verlies.

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 13-10 14:52
Heb je daar nog een mooie behuizing. Ij nodig ? ;)

60 TB can not be enough


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Oid schreef op dinsdag 05 juli 2011 @ 19:54:
Al mijn clients hebben het ook, echter als ik download via de nas, zou ik een virus kunnen binnen halen.

Ik was wel benieuwd naar ervaringen, misschien geeft het wel ontzetten performance verlies.
Het lijkt wel mee te vallen met performance verlies, ben nu mijn hele data archief eens aan het scannen, gaat met 30-200MB/s :)

Even niets...


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

freak1 schreef op dinsdag 05 juli 2011 @ 19:57:
[...]


Heb je daar nog een mooie behuizing. Ij nodig ? ;)
Ja, die heb ik al mijn chieftec :*)

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 20-12 17:28
@CyrusTheVirusNL

Ik ga er vanuit dat je Windows gaat draaien op het systeem?
want onder FreeBSD werken die Asrock SATA kaartjes niet.

En misschien is deze kaart nog een optie. Goedkoop voor 8x SATA, en werkt onder alle besturingssystemen.


Dan het volgende
Verwijderd schreef op dinsdag 05 juli 2011 @ 00:45:
In eerste instantie dacht ik aan een losse NAS icm mijn huidige Asrock, dus puur voor de opslag, maar eigenlijk wil ik alles toch vanuit één systeem gaan laten draaien ivm stroomverbruik.
Verwijderd schreef op dinsdag 05 juli 2011 @ 00:45:
Oja, wellicht nog handig om te weten dat het systeem 24/7 aan zal staan, geen RAID-configuratie ivm energy-saving (alleen de actieve schijven zullen opspinnen, overige schijven blijven in idle-mode).
Als ie toch 24/7 aanstaat kun je hem misschien beter toch inzetten als NAS en een losse mediaspeler bij de TV zetten.

[ Voor 53% gewijzigd door Kriss1981 op 06-07-2011 10:20 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Mwoa, je kunt het ook zo zien: Mediaspeler = NAS + videokaartje. Extra kosten elektriciteit is verwaarloosbaar. Zo doe ik het ook. Ik heb toch al een servertje draaien en het enige wat ik hoefde te doen om er een HTPC van te maken was er een (passive) Geforce GT430 met HDMI inbouwen, twv ~€55.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Verwijderd

HarmoniousVibe schreef op woensdag 06 juli 2011 @ 11:01:
Mwoa, je kunt het ook zo zien: Mediaspeler = NAS + videokaartje. Extra kosten elektriciteit is verwaarloosbaar. Zo doe ik het ook. Ik heb toch al een servertje draaien en het enige wat ik hoefde te doen om er een HTPC van te maken was er een (passive) Geforce GT430 met HDMI inbouwen, twv ~€55.
Zo dacht ik zelf ook eigenlijk... Momenteel draai ik met 3 losse kant en klare NAS-systemen en een Asrock Ion HTPC'tje. Stroom valt wel mee eigenlijk omdat het allemaal zeer energie-zuinig werkt... Maar het nadeel van de Asrock Ion is dat hij gewoon niet krachtig genoeg is voor mijn behoeften (iTunes, Sickbeard, Couchpotato, SABnzbd en streaming conversie naar mijn iPad). Zodoende wil ik dus eigenlijk mijn HTPC-kastje gaan vervangen door een alles-in-1 systeem.
Kriss27 schreef op woensdag 06 juli 2011 @ 10:10:
@CyrusTheVirusNL

Ik ga er vanuit dat je Windows gaat draaien op het systeem?
want onder FreeBSD werken die Asrock SATA kaartjes niet.

En misschien is deze kaart nog een optie. Goedkoop voor 8x SATA, en werkt onder alle besturingssystemen.

Als ie toch 24/7 aanstaat kun je hem misschien beter toch inzetten als NAS en een losse mediaspeler bij de TV zetten.
Ik heb vrij goed zitten puzzelen voor zover ik dat zelf kan/mag beoordelen, en een HAF-behuizing met 11 schijven lijkt mij voor de komende jaren wel toereikend. Ik stop de 125 euro van een Sata RAID contoller dus liever in een extra luxe en uitgebreid moederbord dat (bijna) al mijn SATA-poorten kan leveren. En een i3 2105 processor komt er in de charts erg goed vanaf in vergelijking met de Intel Atom D525 waar mijn systeempje nu op draait. Gezien de krachtig genoege onboard HD Graphics chip is een grafische kaart in mijn kast zelfs niet eens nodig! Wel heb ik uiteraard gekozen voor een moederbord met HDMI aansluiting (en nog wat andere poorten) om iig een beeld-output te hebben.

Op deze manier denk ik voor mijn wensen toch echt een ultiem systeem samengesteld te hebben. Windows zal eigenlijk alle schijven altijd in energie-spaarstand hebben, behalve wanneer ik een film/serie van een van die volle schijven wil afspelen, dan zullen ze even op moeten spinnen. Downloads lopen binnen op mijn werkschijf en worden door SB/CP vanzelf naar de juiste lokatie gekopieerd. Zodoende zal het systeem dus vrij veel in idle toestand staan; vandaar ook mijn keuze voor de i3 2105 in plaats van de i3 2100T. Idle load van deze 2 processoren is nagenoeg gelijk.

  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
HarmoniousVibe schreef op woensdag 06 juli 2011 @ 11:01:
Mwoa, je kunt het ook zo zien: Mediaspeler = NAS + videokaartje. Extra kosten elektriciteit is verwaarloosbaar. Zo doe ik het ook. Ik heb toch al een servertje draaien en het enige wat ik hoefde te doen om er een HTPC van te maken was er een (passive) Geforce GT430 met HDMI inbouwen, twv ~€55.
Zo heb ik t hier ook via HDMI naar de tv ook met de GT430 , fijne kaart en opties genoeg , doorschuiven naar tv van desktop of wat je maar wilt , vind t fijn werken zo aangezien me tv ook in direct zicht is vanaf me pc locatie.
11,5 TB an video materiaal momenteel afspeelklaar , ideaal hoef eigenlijk geen kabel meer te hebben lol

  • matthijsln
  • Registratie: Augustus 2002
  • Laatst online: 22-12 16:05
[...]

XFS

[...]

EXT4
Ik gebruik trouwens ook xfs ipv ext4, maar om een andere reden: bij ext4 meent de kernel (jbd2) elke paar seconden een boel blocks te moeten schrijven, ook als het systeem compleet idle is. Bij het opzetten van m'n nas dichtbij mijn bureau hoorde ik continu mijn disks seeken... erg irritant. Uiteraard spinnen de schijven na een "hdparm -y" dan ook direct weer op.

Op GoT vond ik trouwens maar één tweaker die het ook had, heeft verder niemand hier last van? Ik had 't bij Debian en Ubuntu maar heb geen custom kernels geprobeerd.

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
matthijsln schreef op woensdag 06 juli 2011 @ 17:03:
[...]


Ik gebruik trouwens ook xfs ipv ext4, maar om een andere reden: bij ext4 meent de kernel (jbd2) elke paar seconden een boel blocks te moeten schrijven, ook als het systeem compleet idle is. Bij het opzetten van m'n nas dichtbij mijn bureau hoorde ik continu mijn disks seeken... erg irritant. Uiteraard spinnen de schijven na een "hdparm -y" dan ook direct weer op.

Op GoT vond ik trouwens maar één tweaker die het ook had, heeft verder niemand hier last van? Ik had 't bij Debian en Ubuntu maar heb geen custom kernels geprobeerd.
Hou Met xfs wel rekening op data verlies bij een power failure. ff klein upsje er tussen voor een paar tientjes en automatisch laten afsluiten zodat je alle data hebt. Trouwens gewoon altijd doen voor je nas.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Nooit last van gehad... toch al paar keer outage gehad...

Even niets...


  • matthijsln
  • Registratie: Augustus 2002
  • Laatst online: 22-12 16:05
whocarez schreef op woensdag 06 juli 2011 @ 17:08:
[...]

Hou Met ext4 wel rekening op data verlies bij een power failure. ff klein upsje er tussen voor een paar tientjes en automatisch laten afsluiten zodat je alle data hebt. Trouwens gewoon altijd doen voor je nas.
Ik gebruik dus xfs :) Maar bedankt voor de tip. Uiteraard heb ik voor belangrijke bestanden wel een backup en torrents worden gewoon wel weer gehashed dus zo erg zou een power failure niet zijn.

Ik zit eerder te denken aan een stekkerdoos met surge-protector voor stroom en coax, omdat ik ook dure home-cinema apparatuur naast m'n nas/htpc heb staan. Bijvoorbeeld deze Belkin SurgeMaster. Of kan ik beter iets anders gebruiken?

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
FireDrunk schreef op woensdag 06 juli 2011 @ 17:12:
Nooit last van gehad... toch al paar keer outage gehad...
heb het zelf 1x meegemaakt met me hardware matige raid set. sindsdien ups er tussen een aggregaat in de schuur. >:)

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
whocarez schreef op woensdag 06 juli 2011 @ 21:06:
[...]

heb het zelf 1x meegemaakt met me hardware matige raid set. sindsdien ups er tussen een aggregaat in de schuur. >:)
Meen je dat serieus?

Ik sluit na een minuut of 10 geen stroom gewoon automatisch mijn server af. Downtime is voor mij niet zo erg. In ieder geval zeker niet zo erg dat ik er een aggregaat voor ga neerzetten :s. Als ik hw raid had zou ik niet eens een UPS hebben gekocht. Dan had ik er gewoon een BBU/BBWC ingezet.

Nog een tip overigens: als je een UPS of BBU hebt en je draait je array op XFS dan kun je deze mounten met 'nobarrier'. Een write barrier is dan namelijk niet nodig en verlaagt alleen maar de performance. Daarbij moet wel worden gezegd dat een UPS maar ook een BBU in bepaalde gevallen waarschijnlijk geen effectieve maatregel is tegen een rotte voeding en dergelijke zaken. Maar goed, een write barrier helpt dan ook niet echt. Gewoon disablen dus :p.

Als je overigens een BBWC hebt, moet je ook je write cache van je schijven uitschakelen anders heeft heel die BBWC weinig zin! Dan schrijft die battery backed write cache (succesvol) naar een stukje volatile geheugen wat bij een stroomstoring alsnog elk moment kan uit/wegvallen. Daar gaat je data en mogelijkerwijs de metadata en daarmee in het ergste geval de consistentie van je FS.

Met alleen een UPS daarentegen moet je je HDD cache juist aan laten, omdat anders je (random) (write) performance helemaal inzakt. Een UPS houdt je HDD's en daarmee de write cache namelijk ook gewoon in de lucht.

[ Voor 59% gewijzigd door HarmoniousVibe op 06-07-2011 22:49 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik haal zonder write barrier al 450MB/s....

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op woensdag 06 juli 2011 @ 22:41:
Ik haal zonder write barrier al 450MB/s....
Met write barrier bedoel je denk ik?

Ik zeg overigens niet dat de performance van XFS met write barrier slecht is. Integendeel. Maar zonder write barrier is hij nóg sneller :p

[ Voor 8% gewijzigd door HarmoniousVibe op 06-07-2011 22:46 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
HarmoniousVibe schreef op woensdag 06 juli 2011 @ 22:14:
[...]

Meen je dat serieus?

Ik sluit na een minuut of 10 geen stroom gewoon automatisch mijn server af. Downtime is voor mij niet zo erg. In ieder geval zeker niet zo erg dat ik er een aggregaat voor ga neerzetten :s. Als ik hw raid had zou ik niet eens een UPS hebben gekocht. Dan had ik er gewoon een BBU/BBWC ingezet.

Nog een tip overigens: als je een UPS of BBU hebt en je draait je array op XFS dan kun je deze mounten met 'nobarrier'. Een write barrier is dan namelijk niet nodig en verlaagt alleen maar de performance. Daarbij moet wel worden gezegd dat een UPS maar ook een BBU in bepaalde gevallen waarschijnlijk geen effectieve maatregel is tegen een rotte voeding en dergelijke zaken. Maar goed, een write barrier helpt dan ook niet echt. Gewoon disablen dus :p.

Als je overigens een BBWC hebt, moet je ook je write cache van je schijven uitschakelen anders heeft heel die BBWC weinig zin! Dan schrijft die battery backed write cache (succesvol) naar een stukje volatile geheugen wat bij een stroomstoring alsnog elk moment kan uit/wegvallen. Daar gaat je data en mogelijkerwijs de metadata en daarmee in het ergste geval de consistentie van je FS.

Met alleen een UPS daarentegen moet je je HDD cache juist aan laten, omdat anders je (random) (write) performance helemaal inzakt. Een UPS houdt je HDD's en daarmee de write cache namelijk ook gewoon in de lucht.
Inderdaad ik meen het. Niet omdat het nodig is maar omdat het kan. Wat is er nou mooier om bij een stroomstoring je koelkast en je server van stroom te kunnen voorzien.

Dat bbwc verhaal was ik inmiddels achter had een aantal van de disken die ik eerst op de hardware array had zitten gebruikt voor ext4. met disk cache uit. Nou dat performde voor geen meter. zelfs met 1 vm draaiende liep ik tegen sluggish sessies aan. Inmiddels weer aangezet en performance is weer terug. :)

Merk je met een software matige raid nu veel verschillen tussen de 7200rpm disken en de 5900 disken.

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

whocarez schreef op woensdag 06 juli 2011 @ 23:20:
[...]


Inderdaad ik meen het. Niet omdat het nodig is maar omdat het kan. Wat is er nou mooier om bij een stroomstoring je koelkast en je server van stroom te kunnen voorzien.

Dat bbwc verhaal was ik inmiddels achter had een aantal van de disken die ik eerst op de hardware array had zitten gebruikt voor ext4. met disk cache uit. Nou dat performde voor geen meter. zelfs met 1 vm draaiende liep ik tegen sluggish sessies aan. Inmiddels weer aangezet en performance is weer terug. :)

Merk je met een software matige raid nu veel verschillen tussen de 7200rpm disken en de 5900 disken.
PICS!

Verwijderd

Als je overigens een BBWC hebt, moet je ook je write cache van je schijven uitschakelen anders heeft heel die BBWC weinig zin! Dan schrijft die battery backed write cache (succesvol) naar een stukje volatile geheugen wat bij een stroomstoring alsnog elk moment kan uit/wegvallen. Daar gaat je data en mogelijkerwijs de metadata en daarmee in het ergste geval de consistentie van je FS.
Dat is natuurlijk niet zo; anders zou hetzelfde gebeuren op een normaal filesystem op een normale hardeschijf zonder fratsen. Filesystems zijn gemaakt om met de write buffer van hardeschijven om te gaan.

Dat werkt zo:
  • Filesystems doen write requests sturen naar de driver, die naar de HDD gaat
  • De HDD doet zelf aan write-back; dus zodra die de write request in handen krijgt (in DRAM) zal die gelijk de request afronden en zeggen dat de write is voltooid; dit is een leugen, de gegevens zijn op dat moment namelijk nog niet naar de schijf gecommit maar staan nog in volatile DRAM. Dit wordt write-back benoemd.
  • Zodra de filesystem zijn metadata update, mogen er geen writes tussendoor plaatsvinden, of beter gezegd: de volgorde van metadata en file writes moet gegarandeerd blijven!
  • Nadat er filesystem data is geschreven zal er daarom een FLUSH commando worden gestuurd; dit commando vertelt de HDD dat hij zijn volatile DRAM met 'dirty buffers' die nog niet naar disk gecommit zijn, moet wegschrijven. Pas als alle volatile data op de disk staat, mag het flush commando voltooid worden.
  • Zodra de hardeschijf dit heeft gedaan krijgt het filesystem eindelijk het signaal dat het flush commando is voltooid en kunnen file writes weer plaatsvinden.
Bovenstaand proces worden ook wel 'sync writes' genoemd, omdat deze synchroon gebeuren en niet asynchroon; waarbij het kan voorkomen dat de ene request die later wordt gestuurd toch eerder wordt uitgevoerd. Met name bij NCQ kan dit voorkomen; dat is immers het design van NCQ om de I/O requests door de schijf te laten herordenen. Maar omdat writes gebuffered worden in DRAM kan het ook voorkomen zonder NCQ dus daarom dat flush commando's gebruikt worden om de integriteit van het filesystem te garanderen bij gebruik van HDD write buffers.

Echter, voor hardware RAID controllers met een grote dedicated buffercache zoals een Areca controller met 256MB+ DRAM zullen die flush commando's ervoor zorgen dat de DRAM nauwelijks voor buffers gebruikt kunnen worden omdat er elke keer flush commando's worden gestuurd. Om die reden worden zelfs de flush commando's genegeerd en wordt dus keihard tegen het filesystem gelogen; op dat moment wordt het dus tricky!

In feite schakelt de controller zo de bescherming van het filesystem uit, en vertrouwt hij op de eigen technieken om de data te beschermen. Dat lukt in principe prima met een BBU en ECC DRAM; maar als dat een keer niet lukt dan heb je dus wel schade aan je filesystem; mogelijk zeer ernstig. Deze gevolgen worden ook wel een journal overrun genoemd; de interne metadata-only journalling is niet synchroon geschreven waardoor de journal de integriteit van het filesystem niet meer kan garanderen; je zult nu filesystem schade hebben. Dat kan in het meest ernstige geval betekenen dat je disk check hele directories verwijdert en dat kan om heel veel data gaan.

Conclusie: flush commando's dus cruciaal om de integriteit te beschermen, maar het uitschakelen van de HDD write buffer (foutief cache genoemd) is onnodig en zal zorgen voor hele trage write performance.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Bij hp denken ze daar anders over... die zegt dat je alleen writecache van een disk aan moet zetten als je een ups hebt... niet dat ik je niet geloof maar heb je van dit verhaal een bronnetje? Naar mijn idee zijn flush commando's namelijk voor je OS en niet voor een disk...

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Je zou gelijk kunnen hebben hoor, maar volgens XFS zelf (http://xfs.org/index.php/..._journaled_filesystems.3F en de 4 vragen daaronder) moet de write buffer van de disks uit en kan XFS worden gemount met 'nobarrier'.

Is het ook niet zo dat het geheugen van de raid-controller het geheugen op de schijven vervangt? En dat de performance er dus niet veel op achteruit gaat?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Ik heb gisteren de ebay resist-to-buy-stuff challenge glansrijk verloren en een IBM M1015 voor 80 euro op de kop getikt.

De LSI IT firmware staat al klaar ^^.

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 17:48

OMX2000

By any means necessary...

matthijsln schreef op woensdag 06 juli 2011 @ 17:03:
[...]


Ik gebruik trouwens ook xfs ipv ext4, maar om een andere reden: bij ext4 meent de kernel (jbd2) elke paar seconden een boel blocks te moeten schrijven, ook als het systeem compleet idle is. Bij het opzetten van m'n nas dichtbij mijn bureau hoorde ik continu mijn disks seeken... erg irritant. Uiteraard spinnen de schijven na een "hdparm -y" dan ook direct weer op.

Op GoT vond ik trouwens maar één tweaker die het ook had, heeft verder niemand hier last van? Ik had 't bij Debian en Ubuntu maar heb geen custom kernels geprobeerd.
Als ik het zo lees is het wel een serieus probleem. Maar is het zeker dat het met XFS niet optreedt? En het is kennelijk ook een kernel probleem wat bij meerdere distributies voorkomt. Beetje raar dat daar zo lang niks aan gedaan is.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
heb zelf eigenlijk nergens last van maar heb dan ook erg stille schijven zal der eens op letten

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik heb me de blubber gezocht, maar kan niet echt heel veel vinden over een FLUSH commando wat direct naar de disk gaat... Het schijnt wel in de ATA specs te zitten, maar met de komst van NCQ zou het best eens kunnen zijn dat drivers zich er niet meer goed aan houden.

Even niets...


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 24-12 03:24

Quindor

Switching the universe....

Hmm, eigenlijk is het niet zo ingewikkeld.

Filesystems, en flushes en you name it. Klopt allemaal, maar maakt uiteindelijk ook weer allemaal weinig uit.

Het gaat over de datastroom naar de HDD, deze mag niet onderbroken worden. Gebeurt dat wel treed er corruptie op, niet misschien, maar gegarandeerd.

Dus OS --> Controller --> Eventueel cache --> Disk.

Nou, stel OS --> Controller gaat goed. Deze controller heeft cache en BBWC en op dat moment valt de stroom uit.

Dan is er nog niets aan de hand, aangezien de controller nog weet wat er moet gebeuren om alles consistent te maken en zodra er weer stroom is en de controller geboot is, word dit netjes weg geschreven (max 48Hr overleef tijd gemiddeld).

Het probleem komt bij het tweede stuk, als de controller de disk aanspreekt en hier wat commando's naar stuurt. Op dat moment staan die commando's op de cache van de disk welke deze gaat uitvoeren. Als op DAT moment de stroom uitvalt. Dan gaan er dingen mis. De controller heeft het geschreven dus klaar, en de disk was er mee bezig, maar valt uit, dus de data gaat verloren en de disk heeft ergens op wat sectors wat bits bekrast welke totaal niet meer logisch zijn. Of wel, je filesystem is corrupt.

Hierdoor word het aangeraden als er geen UPS is, de cache van je disks uit te zetten, aangezien deze dan niet beschermd zijn. Op die manier kan de controller garanderen dat iets geschreven is of niet. Heb je wel een UPS welke netjes je server down brengt, dan worden alle writes afgemaakt en is er niets aan de hand.

Meer een elektrisch verhaal dan wat anders dus. Tegenwoordig zijn er bepaalde SSD's van Intel en Sanforce welke een condensator erop hebben zit om gegarandeerd de writes af te kunnen maken vanaf de controller naar de disk om zo geen UPS te vereisen!

Hopelijk maakt dit het een of het ander duidelijker. :)

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • heuveltje
  • Registratie: Februari 2000
  • Nu online

heuveltje

KoelkastFilosoof

Jormungandr schreef op donderdag 07 juli 2011 @ 12:03:
Ik heb gisteren de ebay resist-to-buy-stuff challenge glansrijk verloren en een IBM M1015 voor 80 euro op de kop getikt.

De LSI IT firmware staat al klaar ^^.
SIGH !

* heuveltje heeft op verschillende van die kaarten ruim 90E+ geboden, en toch alles verloren.

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Welke kaarten zijn nu allemaal met die lsi IT firmware te flashen. Die van intel is bij me bekend maar die ibm wist ik nog niet

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
@Quindor, ik snapte dat verhaal al, alleen kan ik niet echt vinden waar je OS een FLUSH commando naar de disk direct kan doen. In mijn geval zit daar een HBA tussen en geen RAID controller. XFS is standaard gemount (met barrier dus) en schrijft zijn metadata dus altijd met een synced write (fsync() volgens mij) en zal daarom theoretisch gezien kapot kunnen gaan omdat de disk alleen data write-cached die met het gewone fwrite() gedaan is, zodra er een fsync() komt zou de disk dus die write *meteen* moeten doen en pas teruggeven dat het gedaan is op het moment dat dat ook het geval is.

Maar ik kan nergens vinden of Linux daadwerkelijk een Sata flush commando stuurt op het moment dat het een fsync() krijgt...

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Whocarez:

op http://forums.servethehom...r-HBA-Equivalency-Mapping staan de meeste kaarten die onderhuids een LSI zijn inclusief hun LSI counterpart. Handige lijst om erbij te nemen wanneer je naar een HBA zoekt.

Heuveltje, het was ook puur toeval dat ik hem had. Ik check ook regelmatig en meestal is het niets soeps (de franse bids zijn verloren tijd). Nu stonden er toevallig 2 van een duitse ebayer met goede rep. Eentje was al weg dus de twijfel was ook snel verdwenen.

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 10:01

TrailBlazer

Karnemelk FTW

Zo mijn NAS begint vorm te krijgen. Eerste succesvolle boot gehad en de netinstall van linux startte ook op. Ik ga natuurlijk geen tijd verspillen door een CDRom speler er aan te hangen. Helaas krijg ik morgen pas mijn IDE DOM binnen dus dan kan ik pas gaan installen. Dan even gaan kijken naar de disken die ik er in wil hebben.

  • fer974
  • Registratie: April 2008
  • Laatst online: 02-10 17:49
Ik ben van plan een nas te gaan bouwen. Ik ben er alleen nog niet uit of het een stand alone nas zal worden, of toch een esxi machine. Ik zit er aan te denken onderstaande hardware te bestellen. Denk dat er als ik voor esxi ga nog een raid kaart nodig ga hebben, maar zou de rest van de hardware hier ook geschikt voor zijn?

#ProductPrijsSubtotaal
1Lian Li PC-Q08B€ 79,03€ 79,03
1Intel Core i3 2100T€ 105,-€ 105,-
1be quiet! Pure Power L7 350W€ 36,90€ 36,90
1GeIL Value PLUS GVP38GB1333C9DC€ 46,75€ 46,75
1Asus P8H67-I€ 85,42€ 85,42
Bekijk collectie
Importeer producten
Totaal€ 353,10

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dat ligt er een beetje aan of je VT-d wil. Als je dat niet wil, zal het vast werken, maar waarom dan een Asus bord?
Wil je persé ITX? Dan zijn er misschien andere alternatieven...
De pricewatch: MSI H61I-E35 (B3) is ook ITX, maar heeft maar een PCIe x1 slot,
en de pricewatch: Biostar TH61 ITX is waarschijnlijk ook iets zuiniger en heeft ook een PCIe x16 slot.

Als je VT-d wil moet je naar het Q67 chipset, en ofwel een i5-2400 of een Xeon CPU.

[ Voor 18% gewijzigd door FireDrunk op 07-07-2011 20:57 ]

Even niets...


  • johiem
  • Registratie: December 2009
  • Laatst online: 21-12 15:22
Hallo,

Inleiding
Al een tijdje zit ik te denken aan een NAS. Graag zou ik deze zelf maken icm FreeNAS. Dit biedt naar mijn inziens veel meer mogelijkheden, voor minder geld.

Nou had ik zelf wel een build in gedachten, maar hoor graag de mening van anderen hierover.

Behuizing
Thermaltake Element Q (63,00 euro)
http://www.informatique.n...t-q-vl52021n2e-black.html

Moederbord
ASRock AD410PV (49,00 euro)
http://www.informatique.nl/518448/asrock-ad410pv.html

RAM
Corsair ValueSelect 1GB (12,50 euro)
http://www.informatique.n...lect-1gb-ddr2-667mhz.html

Hardeschijven
WD Caviar Green 1 TB (Twijfel nog tussen 1 of 2) (45,00 euro)
http://www.informatique.n...aviar-green-1tb-64mb.html

Kosten
De kosten zullen dus rond de 160-200 euro zijn.

Overige Informatie
Ik wil dit systeem graag voor de volgende dingen gaan gebruiken:
- Printserver (1 usb printer);
- Bittorrent;
- iTunes;
- Gedeelde mappen in Mac en Windows.

Vragen
Nou had ik dus een paar vragen of de bovenstaande build.
- Is deze build een beetje aan te raden en zal deze werken met FreeNAS? (Lijkt mij zelf van wel)
- Zijn er nog mogelijkheden om te besparen? (Laag budget)
- Wat kan ik verwachten met snelheid? (Gigabit LAN en Wifi N)?
- Ik heb een 120mbit internet aansluiting, kan FreeNAS dit benutten voor torrents?
- Is het verstandig om zelf de bovenstaande build te maken of beter een stock nas?.

Alvast bedankt,

J Hiemstra

Verwijderd

Heb je al besloten wat voor filesystem je wilt draaien; UFS of ZFS? Dat is een cruciaal punt voor je hardware eisen. Indien je voor een ZFS build gaat is het verstandig veel meer geheugen te nemen; vooral omdat het nu zo enorm goedkoop is. 8GiB DDR3 krijg je nu voor 45 euro zelfs; voor die prijs is het moeilijk het te laten liggen. Voor een UFS build heb je aan 1GiB al ruim voldoende. Daarom dat je denk ik eerst moet kijken wat voor filesystem je wilt.

Verder heb je wel een erg dure behuizing voor een budget NAS; als die in de meterkast gaat is dat natuurlijk wel zonde. Wel een mooie kast natuurlijk maar uitbreiden is er dan niet meer bij. Je systeem zoals je die nu hebt samengesteld zal voor UFS wel aardige snelheden geven maar voor ZFS zou het niet erg geschikt zijn. Ongeacht die keuze denk ik dat je beter voor 18 euro meer een 2TB Samsung F4EG kunt halen, ipv een 1TB WD schijf.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
En over je vraag of FreeNAS 120Mbit kan benutten:
Ik denk niet zozeer dat FreeNAS hier het probleem is, maar je CPU en Geheugen... 120MBit aan Bittorrent is een aardig aantal connecties (vaak > 200) en dat kost aardig wat CPU en geheugen... Ik denk dat je minimaal aan een Athlon x2 met 4GB geheugen moet denken om uberhaupt in de buurt van de 100Mbit te komen.

(Bovenop andere requirements dus voor je OS, ZFS, of andere programma's)

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Mwoa, het lijkt me niet dat je een snelle CPU en 4G RAM nodig hebt om de 120Mbit dicht te trekken. Dat kan namelijk ook al met één torrent. Bovendien is die verbinding niet synchroon en of je nou ooit honderden torrents tegelijkertijd aan het leechen bent...

Zelf heb ik 100/100 en ik heb zo'n 250 torrents die ik aan het seeden ben. Ik heb een AMD Sempron 140 en 2GB DDR2/800 en dat torrenten dat gaat allemaal prima hoor. En het is ook niet zo dat er niks gebeurt, want ik verstook zo'n 4TiB per maand.

             total       used       free     shared    buffers     cached
Mem:          2006       1985         20          0          0       1517
-/+ buffers/cache:        468       1538
Swap:         8191         38       8153


En dit is ook nog mijn HTPC met XBMC (die leakte op een gegeven moment, vandaar dat de swap wordt gebruikt) en een MDADM raid-6 array. 468MB geheugen in gebruik. Valt mee toch?

Connecties kosten overigens ook bijna geen geheugen. Ik zou me eerder druk maken over het geheugen van de router. Die moet immers de NAT-tabel opslaan. Daar kreeg ik problemen mee, dus is mijn server/NAS/HTPC nu ook een router voor de rest van het netwerk.

[ Voor 12% gewijzigd door HarmoniousVibe op 08-07-2011 09:36 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik heb persoonlijk toch andere dingen meegemaakt, maar dat was onder uTorrent, misschien dat dat niet te vergelijken is met FreeBSD's Torrent client.

Even niets...


Verwijderd

HarmoniousVibe schreef op vrijdag 08 juli 2011 @ 09:26:

Zelf heb ik 100/100 en ik heb zo'n 250 torrents die ik aan het seeden ben.
ik verstook zo'n 4TiB per maand.
foei 8)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Hoezo? Zijn vast allemaal linux distro's :+

Even niets...


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Mede-tweakers, ik zit met een probleem op mijn esxi-nas bak.
één van mijn schijven lijkt af te sterven, maar ik krijg nog meer vage meldingen.
Voor ik domme dingen ga doen, zou ik graag even van jullie horen wat handig is om te doen..

Situatie
esxi machine met 4x 2tb, via RDM aan een ubuntu VM gekoppeld.
Ubuntu maakt er een raid-5 array van.. Draait nu een paar weken prima, geen problemen mee gehad.
Trouwens goed om te zeggen, de configuratie bestond eerst uit 3x 2tb, de schijf die ik als laatste heb toegevoegd (2 5 weken geleden schat ik) geeft nu de problemen

Problemen
Sinds gisteravond ongeveer zie ik dit soort foutmeldingen op mn console van de storage vm.
code:
1
[ 1363.514920] end_request: I/O error, dev sde, sector 109725440


Wat me het meest verbaasd, was dat de raid-status gewoon "active" was en geen problemen vertoonde.
Diverse kopieeracties liepen ook door, maar toch bleef het systeem plots een aantal keren hangen.
Na een reboot keek ik weer bij de raid-status: active, resyncing

Het hele zaakje is dus opnieuw aan het syncen geslagen, nu op zo'n 43% met nog zo'n 6 uur te gaan.

Ik heb gekeken met smartctl (commando "smartctl -a /dev/sde"), daar kwam ook e.e.a. ander uit naar voren...
Dat log heb ik even hier geplakt vanwege de omvang, anders wordt het topic meteen zo vervuild.

Het vreemde is, dat ik ook smartctl heb gedraaid voor de overige schijven, die geven net als deze schijf een aantal foutmeldingen (sde waar het om gaat geeft er 6, sdb / sdd bijvoorbeeld geven er 12).

Ten slotte zie ik net op de console nog 1x de I/O error voorbij komen voor sdc, sdd en sdb. Dat is tijdens het rebuilden..

Conclusie / oplossing
1. Ik vraag me af of het normaal is dat je bij smartctl af en toe een error kunt verwachten van een disk?
2. Ik wilde het syncen afwachten, dan de vm rebooten met een live-cd en een disk check doen, kan dat kwaad (ivm de raid-array) of is het juist verstandig? moet ik wel wachten tot het ding is gesynct?
Volgens mij is het namelijk niet verstandig tijdens het syncen iets te ondernemen, dus ik ben voorzichtig :)
3. Komt het door het syncen dat ik nu ook 1x voor sdc, sdd en sdb een I/O error krijg? Lijkt me toch sterk dat alle vier de disks (verschillende aankoopdata) plots niet goed blijken te zijn?

Kunnen jullie wat tips of ideeën geven?
Bedankt! _/-\o_

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
I/O errors lijken mij nooit goed... Tenzij er een kabel kapot is ofzo... Wat je wel kan doen is een disk los op je moederbord aansluiten en de Samsung checktools erop los laten van een boot cdtje. Als die zegt dat het niet goed is, is het echt niet goed.

Even niets...


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
FireDrunk schreef op vrijdag 08 juli 2011 @ 15:34:
I/O errors lijken mij nooit goed... Tenzij er een kabel kapot is ofzo... Wat je wel kan doen is een disk los op je moederbord aansluiten en de Samsung checktools erop los laten van een boot cdtje. Als die zegt dat het niet goed is, is het echt niet goed.
Bedankt voor je reactie, maar het lijkt me toch sterk dat de drives alle vier corrupt zijn of alle vier brakke sata-kabels gebruiken? Ik ga de samsung live-cd met diagnostische software zeker even draaien, wat is verstandig de raid-rebuild afwachten of kan ik die ook veilig onderbreken door een shutdown?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op vrijdag 08 juli 2011 @ 09:43:
Ik heb persoonlijk toch andere dingen meegemaakt, maar dat was onder uTorrent, misschien dat dat niet te vergelijken is met FreeBSD's Torrent client.
µTorrent. Dat is toch Windows/OSX/Wine? Dan ligt het verhaal vast anders ja. rtorrent op Linux doet het prima, maar goed die is dan ook ontworpen om licht te zijn.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
@Staatslot
Als de disk kapot is, is de rebuild toch sowieso voor niets? :)

Even niets...


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Nou, nu kan ik nog bij mn data en ik kan me zo voorstellen dat ik een groter probleem heb als de array straks kaduuk is dan heb ik niets meer ;)

Edit
Nou het kan niet rotter.. Ik hoop dat jullie nog iets weten, maar volgens mij ben ik al mijn data kwijt.

Ik heb de rebuild gestopt, nou ja gewoon netjes de machine poweroff gedaan.
Daarna de tool van samsung, alleen de diagnostic option gekozen en niet een format o.i.d.
Hij doet een globale scan en hij kan een diepe scan doen, de diepe scan duurt ongeveer 6 uur per disk dus ik heb in eerste instantie alleen de globale scan gedaan.

Na het voltooien (zonder foutmeldingen) voor alle disks, de virtuele machine opnieuw gestart en daar begon de nachtmerrie. Hij kon de array niet mounten, manual recovery optie gekozen en gekeken in /dev.
Daar staan wel netjes al mijn schijven (sdb, sdc, sdd, sde) maar niet de array (md0 of md1 dat weet ik niet meer). Ook de configuratiefile (/etc/mdadm/mdadm.conf) bestond nog gewoon, met mijn configuratie erin.
Als ik fdisk /dev/sdb doe, krijg ik te zien dat er geen partities zijn en dat ik de schijf opnieuw moet partitioneren.

Ik heb nog geprobeerd
code:
1
mdadm --assemble /dev/md0 /dev/sdb /dev/sdc /dev/sdd /dev/sde
te doen, maar hij klaagt dan dat hij geen superblocks op /dev/sdb kan vinden.
In de mdadm.conf file staat iets over superblocks, in de eerste regels:

code:
1
DEVICE partitions /dev/sde


Dat vind ik zelf een beetje vreemd, het lijkt alsof hij de superblocks op sde heeft weggeschreven (precies de schijf de de problemen begon te veroorzaken). Ik heb daarom ook nog geprobeerd
code:
1
mdadm --assemble /dev/md0 /dev/sde /dev/sdb /dev/sdc /dev/sdd
te doen, met hetzelfde resultaat (geen superblocks aangetroffen op /dev/sde).

Enig idee wat ik nu nog kan doen, of ben ik reddeloos verloren?
Als de data kwijt is, dan ben ik wel erg benieuwd wat de fout nou heeft veroorzaakt, mijn vertrouwen in Linux RAID heeft iig wel een flinke deuk opgelopen, terecht?

[ Voor 86% gewijzigd door Staatslot op 08-07-2011 18:42 ]


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:07
Staatslot schreef op vrijdag 08 juli 2011 @ 16:52:
Nou, nu kan ik nog bij mn data en ik kan me zo voorstellen dat ik een groter probleem heb als de array straks kaduuk is dan heb ik niets meer ;)
Kunnen we dan dus aannemen dat je geen backup meer hebt van je data? Of wat dit puur een test systeem waarbij je data niet van groot belang was? Anders is het natuurlijk zeer onhandig om met je harde schijven te gaan klooien zolang je nog wel je data zou kunnen backuppen 8)7. Maar ja, dat heb je nu waarschijnlijk ook wel door.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
CurlyMo schreef op vrijdag 08 juli 2011 @ 19:16:
[...]


Kunnen we dan dus aannemen dat je geen backup meer hebt van je data? Of wat dit puur een test systeem waarbij je data niet van groot belang was? Anders is het natuurlijk zeer onhandig om met je harde schijven te gaan klooien zolang je nog wel je data zou kunnen backuppen 8)7. Maar ja, dat heb je nu waarschijnlijk ook wel door.
Alle echt belangrijke data heb ik natuurlijk, maar al het andere is in het ergste geval vervangbaar.. maar als jij 5.5 tb weet te backuppen petje af;)

En hoezo klooien eigenlijk, die disk begon vreemd te doen ik wilde er juist op tijd bijzijn volgens mij :/

[ Voor 9% gewijzigd door Staatslot op 07-03-2013 13:28 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
DEVICE partitions /dev/sde betekend volgens mij dat hij daar op scant naar arrays, en heeft verder niets te maken met de superblock... Bovendien is superblock ook redundant volgens mij...
Heb je hem als eens broken geprobeerd te mounten? Dus met /dev/sde als missing?

Even niets...


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
FireDrunk schreef op vrijdag 08 juli 2011 @ 19:19:
DEVICE partitions /dev/sde betekend volgens mij dat hij daar op scant naar arrays, en heeft verder niets te maken met de superblock... Bovendien is superblock ook redundant volgens mij...
Heb je hem als eens broken geprobeerd te mounten? Dus met /dev/sde als missing?
Met examine wordt op geen enkele schijf superblocks gevonden, dan kun je toch niet meer broken mounten? Of gebruik jij een ander commando dan ik?

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 15:27
Ik geef je geen garantie, maar als ik dit zo lees:
http://kevin.deldycke.com...ng-zero-ized-superblocks/

zou je je raid gewoon opnieuw moeten kunnen creeren.

Ik zou zeggen probeer dit als je alle andere opties hebt geprobeerd, want als het niet werkt, is het wel zeker dat je je data kwijt bent.

Overigens vind ik het een vreemd verhaal, ik heb ooit:
dd if=/dev/zero of=/dev/sda bs=1 count=1024

gedaan op alle disks uit een raid-set en die kon ik daarna gewoon nog assemblen.

Het lijkt erop alsof dat diagnose tooltje toch iets raars heeft gedaan.

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

Jammer was niet thuis, gelijk afspraak gemaakt morgen tussen 2 en half 7 zijn hopelijk mijn schijfjes er! jeej

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 15:27
Mijn ESXi bak draait intussen prima (nieuwe foto's en compelte info volgen binnenkort) en ik ben nu druk bezig om de bestaande Hyper-V machines te converteren (vCenter Converter, leuke tool :D)

Het enige wat er nu nog moet gebeuren is dat ik nog 4 schijven uit mijn oude NAS toe moet voegen aan de mdadm raid6 set van de nieuwe NAS.

Dat gaat wel lukken, maar ik vraag me af wat verstandig is, disk voor disk toevoegen (veel rebuild-time op die manier) of gewoon alle vier de disks in één keer toevoegen?

  • ruitech
  • Registratie: September 2009
  • Laatst online: 26-04 18:15
fer974 schreef op donderdag 07 juli 2011 @ 20:33:
Ik ben van plan een nas te gaan bouwen. Ik ben er alleen nog niet uit of het een stand alone nas zal worden, of toch een esxi machine. Ik zit er aan te denken onderstaande hardware te bestellen. Denk dat er als ik voor esxi ga nog een raid kaart nodig ga hebben, maar zou de rest van de hardware hier ook geschikt voor zijn?

#ProductPrijsSubtotaal
1Lian Li PC-Q08B€ 79,03€ 79,03
1Intel Core i3 2100T€ 105,-€ 105,-
1be quiet! Pure Power L7 350W€ 36,90€ 36,90
1GeIL Value PLUS GVP38GB1333C9DC€ 46,75€ 46,75
1Asus P8H67-I€ 85,42€ 85,42
Bekijk collectie
Importeer producten
Totaal€ 353,10
Ik heb vrijwel de zelfde set hier staan... werkt bij mij niet met esxi :/ (foutmelding met de installatie... zelfde disk werkt wel op mijn i7 sys)

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 15:27
ESXi is en blijft 'picky' qua hardware. Daarom heb ik lang Hyper-V gedraaid, wat in het algemeen gewoon met alle 'consumenten' hardware draait.

Als je helemaal zeker wilt zijn van je ESXi config, kun je hier ESXi support voor je hardware bekijken.

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
ruitech schreef op vrijdag 08 juli 2011 @ 21:51:
[...]


Ik heb vrijwel de zelfde set hier staan... werkt bij mij niet met esxi :/ (foutmelding met de installatie... zelfde disk werkt wel op mijn i7 sys)
Koop een intel netwerk kaartje of als je er al 1 hebt liggen en waarschijnlijk werkt het dan wel zonder problemen. je kan ook kijken voor een custom setup met de driver van je nic

  • ruitech
  • Registratie: September 2009
  • Laatst online: 26-04 18:15
whocarez schreef op vrijdag 08 juli 2011 @ 22:18:
[...]

Koop een intel netwerk kaartje of als je er al 1 hebt liggen en waarschijnlijk werkt het dan wel zonder problemen. je kan ook kijken voor een custom setup met de driver van je nic
Thanks! ga ik proberen!

Verwijderd

Sleepie schreef op vrijdag 08 juli 2011 @ 19:55:
Overigens vind ik het een vreemd verhaal, ik heb ooit:
dd if=/dev/zero of=/dev/sda bs=1 count=1024

gedaan op alle disks uit een raid-set en die kon ik daarna gewoon nog assemblen.
Is niet zo vreemd, aangezien de RAID set kijkt naar de laatste sector op elke disk, de metasector. Deze 512 bytes op het einde van elke schijf bevat de RAID configuratie. Dit geldt voor hardware RAID, windows onboard RAID en Linux/BSD software RAID. Alleen ZFS werkt anders.

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 17:48

OMX2000

By any means necessary...

Ik ben niet echt van het posten over bestel status, maar misschien ook handig voor anderen om te weten! Ik heb bij Alternate een Kingston 96 GB V100+ besteld, maar daar zit ik nu dik een week op te wachten. Ze gaven een levertijd van 2-5 dagen op. En na gebeld te hebben over de status gaven ze aan dat ze afgelopen donderdag verwachtte de boel te kunnen versturen.
Ik las ergens dat de levertijd 10-20 dagen zou zijn... Daar lijkt het hier wel op uit te lopen! :(

Beetje jammer want ik wilde de boel voor het weekend draaiend hebben... Nu nog maar een paar nachten extra slapen om te bepalen of ik voor ZFS of mdadm/xfs ga.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Verwijderd

Wil je die SSD voor Windows of voor ZFS gebruiken? Indien dat laatste zou ik aanraden je order te annuleren en een Intel 320 te kopen. Met name omdat je de SSD dan veilig voor SLOG feature kunt gebruiken vanwege de supercaps. Zonder die supercaps is het een risico om je SSD als SLOG te gebruiken; voor versie 19 kun je zelfs je hele pool kwijt raken! De L2ARC optie is wel veilig zelfs voor corrumperende SSDs, maar ook daarvoor geldt dat Intel en andere SSDs veel sneller zijn omdat L2ARC op random reads leunt; de Kingston heeft geen NCQ dus kan maar één kanaal tegelijk gebruiken.

Kortom: voor ZFS is de Kingston het minst geschikt van alle SSDs. Die Kingston komt veel beter tot zijn recht op een Windows desktop. Mocht je plan geweest zijn om de SSD voor ZFS te gaan gebruiken kun je dus overwegen je order te annuleren en voor de Intel 320 te gaan. Je bent dan wel iets duurder uit, maar het hoeft niet zo heel veel te schelen als je voor de 80GB gaat. Overigens heeft de Intel 320 120GB de beste performance ratio / sweet spot; maar is ook vrij prijzig.

Anyway, beter nu de afweging maken dan erna.

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 17:48

OMX2000

By any means necessary...

Verwijderd schreef op zaterdag 09 juli 2011 @ 06:34:
Wil je die SSD voor Windows of voor ZFS gebruiken? Indien dat laatste zou ik aanraden je order te annuleren en een Intel 320 te kopen. Met name omdat je de SSD dan veilig voor SLOG feature kunt gebruiken vanwege de supercaps. Zonder die supercaps is het een risico om je SSD als SLOG te gebruiken; voor versie 19 kun je zelfs je hele pool kwijt raken! De L2ARC optie is wel veilig zelfs voor corrumperende SSDs, maar ook daarvoor geldt dat Intel en andere SSDs veel sneller zijn omdat L2ARC op random reads leunt; de Kingston heeft geen NCQ dus kan maar één kanaal tegelijk gebruiken.

Kortom: voor ZFS is de Kingston het minst geschikt van alle SSDs. Die Kingston komt veel beter tot zijn recht op een Windows desktop. Mocht je plan geweest zijn om de SSD voor ZFS te gaan gebruiken kun je dus overwegen je order te annuleren en voor de Intel 320 te gaan. Je bent dan wel iets duurder uit, maar het hoeft niet zo heel veel te schelen als je voor de 80GB gaat. Overigens heeft de Intel 320 120GB de beste performance ratio / sweet spot; maar is ook vrij prijzig.

Anyway, beter nu de afweging maken dan erna.
Die SSD was alleen voor de VM's. Maar in dat geval ga ik toch maar voor Raid 5/mdadm. Ben meer thuis in Linux. In de toekomst migreer ik misschien wel naar ZFS als ik een grotere storage pool heb. Ik begin nu met 4x 2TB.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Verwijderd

Voor VMs zou je ook baat kunnen hebben bij andere SSDs met hoge random read queue depth; zeker als je meerdere VMs naast elkaar draait. Tenzij het maar lichte VMs zijn dan maakt het natuurlijk niet zoveel uit. Aan de andere kant biedt de Kingston je natuurlijk wel lekker veel opslag voor weinig geld, dat is ook een overweging. Maar als je in de toekomst ZFS wilt draaien is die voor die taak dus wel minder geschikt; lijkt me wel iets om in overweging te nemen. Nu kun je nog kiezen. :)

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

Zo even hopen dat mijn schijven (5K3000) hitachi's niet gaan sputteren met TLER op mijn hp smart array p400..
Ik hoop dat dat automatisch gaat stiekem :+ (ik heb er nu een F3 spinpoint aanhangen niks aangepast werkt ook perfect dus ik ben niet zo bang :P)

[ Voor 24% gewijzigd door DJ-Visto op 09-07-2011 12:17 ]


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
nog een update van mijn kant voor wie het leuk vindt te weten..
Inmiddels is de array definitief naar de filistijnen, maar ik wil niet direct opnieuw opbouwen omdat ik gewoon echt twijfel aan de disks zelf.

Heb nogmaals de firmware update van samsung gedaan, nu kregen de drives plots wel een andere firmware versie. Toch vreemd, ze zijn van jan en feb 2011 en zouden dus niet meer het bekende firmware probleem moeten hebben. Toch nog 1x I/O errors gehad vannacht (dus na de firmware update), volgens SMART hebben ze nu 13, 13, 13 en 18 errors vertoond. Toch wel erg rot, want het lijkt me ook stug dat ik vier defecte disks heb uit 2 verschillende series.

Zijn er toevallig mensen die ook die samsung F4E schijven hebben en die eens willen kijken naar de smartstatus of er errors worden gemeld?

Er zit niets anders op dan de EStool van samsung iedere disk na te laten kijken (6 uur per disk)..
Uitkomst zal ik hier nog posten, Firedrunk iig erg bedankt voor het meedenken!

[ Voor 12% gewijzigd door Staatslot op 09-07-2011 12:34 ]


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Ziezo mijn M1015 zit op de post. Nu nog uitvogelen of ik voor een E350 platform ga of voor een intel pentium.

De pentiums zijn zuinig (niet zo zuinig als Brazos) snel genoeg voor NAS werk en bieden meer uitbreiding. De prijs is er wel naar. Keuzes keuzes :(.

Verwijderd

@Staatslot; post je SMART info dan eens volledig dan kunnen wij er naar kijken. Sommige SMART 'errors' zijn namelijk normaal; zoals Hardware ECC recovered en andere attributen.

@Jordmungandr: Brazos platform heeft 6x SATA/600 dat is wel tof voor een NAS natuurlijk. Ik weet echter niet welke Brazos bordjes nu met een controller overweg kunnen; niet allemaal in elk geval.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Jormungandr schreef op zaterdag 09 juli 2011 @ 15:54:
Ziezo mijn M1015 zit op de post. Nu nog uitvogelen of ik voor een E350 platform ga of voor een intel pentium.

De pentiums zijn zuinig (niet zo zuinig als Brazos) snel genoeg voor NAS werk en bieden meer uitbreiding. De prijs is er wel naar. Keuzes keuzes :(.
Ik dacht dat Brazos juist niet zo heel erg zuinig was als beloofd? Idle scheelde het amper, maar performance per watt van een G620 en een i3-2100 was toch hoger?

Even niets...


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Verwijderd schreef op zaterdag 09 juli 2011 @ 19:06:
@Staatslot; post je SMART info dan eens volledig dan kunnen wij er naar kijken. Sommige SMART 'errors' zijn namelijk normaal; zoals Hardware ECC recovered en an....
Heb een dump hier geplaatst, ben benieuwd of jij er wijs uit wordt?
Kan ook een nieuwere dump maken met 13 ipv 6 errors maar dat wordt dan morgenavond de samsung ESTool is nog wel wat uurtjes zoet met het sector voor sector testen van de disks.. Vindt het erg vreemd dat ik 3 disks heb met exact hetzelfde aantal fouten nu en 1 nieuwere disk met minder fouten..

[ Voor 11% gewijzigd door Staatslot op 09-07-2011 20:47 ]


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 5

als dit snel omhoog gaat dan is het misschien een idee om de disks proberen om te ruilen voor nieuwe....

Kan ook weer lager worden maar dan zal deze hoger worden
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0

De fouten die ik zie zijn volgens mij kabel fouten (er zijn nog al veel ruk sata kabels op de markt)

Hier ben je ook niet blij mee
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 45

[ Voor 32% gewijzigd door Mafketel op 09-07-2011 22:22 ]


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
DJ-Visto schreef op zaterdag 09 juli 2011 @ 12:17:
Zo even hopen dat mijn schijven (5K3000) hitachi's niet gaan sputteren met TLER op mijn hp smart array p400..
Ik hoop dat dat automatisch gaat stiekem :+ (ik heb er nu een F3 spinpoint aanhangen niks aangepast werkt ook perfect dus ik ben niet zo bang :P)
Dj visto zelf ben ik ook aan het kijken naar deze schijven heb nu 8 7k1000 schijven aan een p400 controller hangen met tler enabled werkt eigenlijk altijd goed.
Wil naar een p410 toe of een software raid oplossing met die 5k3000 schijven dus ben heel benieuwd of je tler kan enablen op die disken

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 17:48

OMX2000

By any means necessary...

Mafketel schreef op zaterdag 09 juli 2011 @ 22:19:
197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 5

als dit snel omhoog gaat dan is het misschien een idee om de disks proberen om te ruilen voor nieuwe....

Kan ook weer lager worden maar dan zal deze hoger worden
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0

De fouten die ik zie zijn volgens mij kabel fouten (er zijn nog al veel ruk sata kabels op de markt)

Hier ben je ook niet blij mee
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 45
Wat zijn dan goede kabels. Want er is heeeel veel keus. Ik heb er een paar van Sharkoon besteld, en gebruik degene die bij mijn MSI moederbord zitten.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Het gaat niet zozeer om 'goede' als wel om kapot...

Even niets...


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Misschien een gekke vraag maar kan er niet echt een vinger achter krijgen. kan je de bbwc van de raid controller gebruiken bij een software maitge raid zoals een mdadm array met zfs of ext4

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Denk het niet, tenzij je misschien voor elke disk een hardwarematige JBOD-array aanmaakt en die vervolgens in software-raid hangt.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
HarmoniousVibe schreef op zaterdag 09 juli 2011 @ 23:33:
Denk het niet, tenzij je misschien voor elke disk een hardwarematige JBOD-array aanmaakt en die vervolgens in software-raid hangt.
hmmm gebruik nu de controller voor hardware raid 5 en jbod voor software raid 5 wat ik merkte is dat ik eerst de cache op de disken terug aan moest zeggen ivm slechte performance. Met xfs heb je het risico op dataverlies laat meer zeggen dus dacht als ik toch overstap waarom niet gebruik maken van die bbwc module

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

Nou, avond gewerkt vanmiddag om 14uur kwam de post!

Toen gelijk 3x2TB onboard gehangen al mijn data van de 3x1TB RAID5 en 2x250GB RAID0 daarnaartoe gekopieert, toen dat klaar was alles overgebouwd naar een nieuwe behuizing!

Nu staat er een expanding aan op 3x2TB naar 8x2TB, weet nog niet of het RAID5 of 6 word, eerst maar wachten op de expanding. Voor de rest moet ik nog even de mdadm raid5 array maken die onboard komt (met de 3x1TB) voor mijn vms.

Anyways pics..:
Nieuwe harddisks..
Afbeeldingslocatie: http://tweakers.net/ext/f/SS6U19Bmyiaxlrgu5eaEAGQB/medium.jpg
Ja het zijn er 8!
Afbeeldingslocatie: http://tweakers.net/ext/f/r2axyGOxmYZkdzfbHVJh75b7/medium.jpg
Oude BBU bevestiging..
Afbeeldingslocatie: http://tweakers.net/ext/f/pNarN9YDNOEd6fdJDsY8UA8T/thumb.jpg
Kabels?
Afbeeldingslocatie: http://tweakers.net/ext/f/3LYQuRmWPhDrnPSvrY9J7sOJ/medium.jpg

Mooi!
Afbeeldingslocatie: http://tweakers.net/ext/f/0wqzq6OaMy0n8S76gxVgleCG/medium.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/Nt6UnBJVGszuPGnunSA9dc3w/medium.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/S8b9rRJeiEe4LGqdRTiBPATD/medium.jpg

Dat houd een lading troep over..
Afbeeldingslocatie: http://tweakers.net/ext/f/BnUO6gVVUhBLTnQZ5ZYZuQKE/thumb.jpg

Inmiddels opgeruimt enzo... En ik ga nu de mdadm array aanmaken en dan slapen ;)

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
vincent@Shiffle:~$ sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90
  Creation Time : Sun Jul 10 00:35:16 2011
     Raid Level : raid5
     Array Size : 1953524992 (1863.03 GiB 2000.41 GB)
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sun Jul 10 00:37:12 2011
          State : clean, degraded, recovering
 Active Devices : 2
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 64K

 Rebuild Status : 0% complete

           UUID : e8ca7701:719f90ee:5ef43fce:a572e828 (local to host Shiffle)
         Events : 0.6

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       32        1      active sync   /dev/sdc
       3       8       48        2      spare rebuilding   /dev/sdd

Slaap lekker!

[ Voor 21% gewijzigd door DJ-Visto op 10-07-2011 00:38 ]


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Mafketel schreef op zaterdag 09 juli 2011 @ 22:19:
197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 5

als dit snel omhoog gaat dan is het misschien een idee om de disks proberen om te ruilen voor nieuwe....

Kan ook weer lager worden maar dan zal deze hoger worden
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0

De fouten die ik zie zijn volgens mij kabel fouten (er zijn nog al veel ruk sata kabels op de markt)

Hier ben je ook niet blij mee
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 45
Ok dit soort meldingen zijn voor mij nieuw, dus ik ben erg blij met je hulp!
Ik draai nu die ESTool van samsung, maar wat nou als daar geen problemen uitkomen?
Die werkt toch met dezelde kabels? Ik heb nu namelijk 2 disks volledig gescand en er kwam geen fout naar voren volgens de tool die samsung zelf zegt te gebruiken voor het checken op geldige rma

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Staatslot schreef op zondag 10 juli 2011 @ 07:32:
[...]


Ok dit soort meldingen zijn voor mij nieuw, dus ik ben erg blij met je hulp!
Ik draai nu die ESTool van samsung, maar wat nou als daar geen problemen uitkomen?
Die werkt toch met dezelde kabels? Ik heb nu namelijk 2 disks volledig gescand en er kwam geen fout naar voren volgens de tool die samsung zelf zegt te gebruiken voor het checken op geldige rma
Nu heb je ook een extra laag ertussen zitten wat niet bevorderlijk is voor alles ....je virtuele machine kun je ook als kabels beschouwen.
Als je naar de winkel gaat waar je de schijf hebt gekocht.... (je zei dat het nieuwe schijven waren) en voor elke schijf de smartctl output laten zien wat op falen duid zullen er winkels zijn die je schijven zullen omruilen.
Maar doe dit even met een os(ubuntu live cd ofzo) dat direct op de hardware draait, voor de zekerheid. Niet dat je smartctl output veranderd maar dan weet je wel zeker dat het niet aan het virtuele gebeuren ligt. Mocht je niet zeker zijn van je zaak lees het google artikel over smart nog maar eens een keer.
OMX2000 schreef op zaterdag 09 juli 2011 @ 23:00:
Wat zijn dan goede kabels. Want er is heeeel veel keus. Ik heb er een paar van Sharkoon besteld, en gebruik degene die bij mijn MSI moederbord zitten.
Geen idee ... en het zijn eerlijk gezegd ook niet de kabels maar de stekkers en hoe de stekkers aan de kabels zijn gezet..... Ik heb allen voorbeelden zoals het niet hoort voorbij zien komen zoals deze...
plaatjuhAfbeeldingslocatie: http://img683.imageshack.us/img683/7387/p7104391.th.jpg

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
FireDrunk schreef op zaterdag 09 juli 2011 @ 20:40:
[...]


Ik dacht dat Brazos juist niet zo heel erg zuinig was als beloofd? Idle scheelde het amper, maar performance per watt van een G620 en een i3-2100 was toch hoger?
Ik kwam net een review van de Pentiums tegen op Xbit en die zijn inderdaad verrassend zuinig. De zuinigere T variant wordt daar niet getest tho. In combi met een H61 bordje (hoe minder fancy opties hoe beter) zou dat nog wel eens de beste optie kunnen zijn. MB+ Pentium kost ook maar een 20tal euro meer dan een Brazos.

http://www.xbitlabs.com/a...ntium-g850-g840-g620.html
Pagina: 1 ... 70 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.