• -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Dadona schreef op dinsdag 16 november 2010 @ 13:15:
Ik zou dan de tussenstap pakken: FreeNAS of iets avontuurlijker Debian. Het opzetten van een RAID array is doodsimpel, ook bij Debian. Er is nota bene een wiki entry over mdadm waarin staat hoe je het opzet en kunt checken. Gaat prima.
En daarvoor hoeft je mobo geen RAID-functionaliteit te hebben toch?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Klopt. Een mobo met RAID functionaliteiten biedt de derde vorm van raid, naast hardware raid en software raid, fake/driver raid.

De CSL/OT kroeg !


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

Waar je denk ik wel mee op moet passen is om je mobo SATA aansluitingen helemaal vol te rammen met disks voor een NAS. Ik las ergens (geen idee meer waar) dat het met 2-3 disks nog wel ging, maar toen ze er 6 disks aan hingen in RAID0, ging de performance omlaag. Blijkbaar zit er toch een beperking op de mobo sata aansluitingen. Of dat bij alle mobo's is, weet ik ook niet, maar het lijkt me iets om in ieder geval te testen voordat je je NAS echt in gebruik gaat nemen.

Ik heb nog gezocht naar kaarten die alleen extra sata aansluitingen leveren, maar ik kon dat niet zo snel vinden. De Higjhpoint kaart leek een mooi alternatief en de RAID5 functionaliteit is ook (getest) sneller dan software raid op hetzelfde systeem. Helaas gebruik ik 'm nu alleen maar als een veredelde sata kaart met 8 poorten.
Heb ik niet goed gezocht? Zijn er (betrouwbare en goed performende) SATA kaarten in de handel voor een acceptabele prijs?

Ik ben in ieder geval blij dat ik een testperiode heb ingelast voordat ik er serieus mee aan de gang ging. Dat kan ik iedereen aanbevelen.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.

Dadona schreef op dinsdag 16 november 2010 @ 13:15:
Ik zou dan de tussenstap pakken: FreeNAS of iets avontuurlijker Debian. Het opzetten van een RAID array is doodsimpel, ook bij Debian. Er is nota bene een wiki entry over mdadm waarin staat hoe je het opzet en kunt checken. Gaat prima.
Nou het ging mij er niet zozeer om, hoe makkelijk het is. (van mij part is het rete moeilijk) maar meer om de performance van en naar windows icm Samba.

MDADM is stuk-of-koekje uiteraard ;)

Edit:

Wat ik me ook afvraag is of ik mijn 80GB SSD in kan zetten als cache binnen ZFS, en tegelijkertijd ook als Boot schijf kan houden. (ik wil niet van mijn array booten)

[ Voor 14% gewijzigd door FireDrunk op 16-11-2010 14:51 ]

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Ach, 70-80MB/sec moet wel lukken. Maar desnoods kun je toch naar iSCSI gaan? Daarvan ligt de performance hoger.
Wil je overigens nu cache of logging? Met andere woorden, wil je de leessnelheid naar je NAS vergroten, of de schrijfsnelheid. In het laatste geval dan zou ik toch echt een tweede SSD erbij plaatsen omdat je anders de kans loopt om de hele pool kwijt te raken. (Worst case scenario, maar sowieso is het verlies van data alleen omdat je het sneller wil hebben in een thuissituatie toch wel iets waardoor ik twee keer zou nadenken of ik wel een ongemirrorde SSD wil inzetten voor logging.)

De CSL/OT kroeg !

70-80MB/s is lager dan wat ik nu heb (110MB/s+ :) )
Waar zou dat dan aan liggen?

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Wat is die 110MB/sec? Samba? Ik noemde 70-80MB/sec alleen maar als wat je toch minimaal gaat redden. Zodra je een gigabit netwerk volledig wil benutten dan moet alles kloppen. Het juiste type bestanden, goede raid instellingen voor het type bestand, bekabeling goed, ... En Samba is dan ook zeker een factor en helaas is het vaak de oorzaak van het niet volledig kunnen benutten van de bandbreedte.
In mijn geval is bijvoorbeeld Samba de bottleneck bij het backuppen van mijn ruwe videobestanden (files van 13GB), maar dagelijks ligt de bottleneck bij de schijven omdat het om kleinere bestanden gaat. Daar raak ik namelijk de zwakke plek van de moderne schijven, in mijn geval ook nog eens 5400rpms. Leuke sequentiele doorvoersnelheden van grote bestanden, maar lastiger bij kleine. Persoonlijk vind ik dat niet zo'n probleem omdat het een verschil van minuten is.
Maar als je daadwerkelijk het wil optimaliseren dan moet je aan beide kanten eigenlijk een SSD neerzetten die als buffer werkt en zo het stuiterende effect, door grote en kleine bestanden, afvangen. Dan kom je bij de grenzen van Samba als je daadwerkelijk gigabit volledig wil benutten.

[ Voor 4% gewijzigd door Dadona op 16-11-2010 15:47 ]

De CSL/OT kroeg !

Dat snap ik. Waar ik vooral mee bezig ben is het serveren van grote files op mijn netwerk (streamen van HD content aan HTPC en ISO's van games en installs aan de andere pc's).
Ik heb al vaker linux gedraaid op mijn server, maar vind het altijd jammer dat Samba zoveel CPU vreet.
Voor mijn gevoel kwam omdat ik nog een NTFS partitie had onderlinux en deze daarna met Samba deelde met mijn netwerk.
Ik hoop dat Samba iets beter met ZFS overweg kan, maar dat weet ik niet uit ervaring.

Wat ik dus graag hoor is hoe Samba presteert icm ZFS; dus wat het CPU gebruik is bij hoge sequentiele transfers.

Even niets...


Verwijderd

Misschien een domme vraag hoor maar waarom niet gewoon XFS of EXT4 ipv ZFS? Zijn er duidelijke voor/nadelen? Hoe makkelijk is het om uit te breiden?

Ga zelf ook een software RAID 5 bouwen dus zit ook met de keuze welke OS en format type...

Ik neig zelf naar Ubuntu en XFS.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

Verwijderd schreef op dinsdag 16 november 2010 @ 18:43:
Misschien een domme vraag hoor maar waarom niet gewoon XFS of EXT4 ipv ZFS? Zijn er duidelijke voor/nadelen? Hoe makkelijk is het om uit te breiden?

Ga zelf ook een software RAID 5 bouwen dus zit ook met de keuze welke OS en format type...

Ik neig zelf naar Ubuntu en XFS.
Op Ubuntu zou ik zeker XFS kiezen boven EXT4. Het snelheidsverschil (ext4 vreeeet cpu!) is dramatisch.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 20-12 23:24

Quindor

Switching the universe....

mphilipp schreef op maandag 15 november 2010 @ 22:36:
[...]

Ik heb geen idee wat je allemaal zegt, maar op andere controllers werkt dit gewoon. Dus hoe het precies zit weet ik niet en wil ik niet weten, maar het kán gewoon. De fout die ik krijg lijkt imho meer op een soort syntax fout omdat ie me precies verteld wat ie wél kan. Het is geen antwoord van de controller of disk, maar van de software:
code:
1
2
3
4
=======> INVALID ARGUMENT TO -l: scterc
=======> VALID ARGUMENTS ARE: error, selftest, selective, directory[,g|s], background, scttemp[sts|hist], sasphy[,reset], sataphy[,reset], gplog,N[,RANGE], smartlog,N[,RANGE], xerror[,N][,error], xselftest[,N][,selftest] <=======

Use smartctl -h to get a usage summary

Ik vermoed dat ik een nieuwere of andere versie van die software nodig heb. Verder werken gewoon alles commando's die ik naar die disk stuur. De -d hpt,1/1 /dev/sdd betekent dat ik (Highpoint) controller 1, disk 1 wil benaderen, die op het OS bekend is als /dev/sdd. Lees anders aub de site van die smartctl lui maar, want je gaat nu een conclusie ophangen aan mijn verhaal en ik ben absoluut geen raid techneut en dat wil ik niet worden ook.

Ik deel je conclusie dan ook niet over dat ik eigenlijk een HBA nodig heb. Ik zou volgens mij de enige zijn die zoiets gebruikt, want er zijn talloze NASsen gebouwd met de spullen die ik heb, dus al die theoretische verhalen hecht ik niet zoveel waarde aan. Van mij mag jij het allemaal kopen, inclusief een paar hele dure disks, maar ik begin daar niet aan. Deze setup moet gewoon werken.
Ik verwacht dat je versie van smartctl wellicht te oud is. Alleen de huidige SVN versies ondersteunen scterc.

Verder moet je goed opletten welk OS je gebruikt. Zelf heb ik een adaptec 5805 en hierbij kan ik ook scterc gebruiken. Maar, dit gaat alleen in bepaalde linux os'sen in combinatie met de juiste driver opties (scsi passthrough devices).

Zie ook mijn topic op storagereview.com waar het een en het ander uitgelegd staat.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • Q
  • Registratie: November 1999
  • Laatst online: 16:59
mphilipp schreef op dinsdag 16 november 2010 @ 00:42:
[...]

Thanx!

Snelheid is alleszins goed te noemen. Hij staat nu een paar mappen van mijn Windows PC te onvangen (+/- 50Gb) en dat doet ie met bijna 90MB/s. SMB pakt dan 50% cpu op de host, dus hij heeft genoeg puf over voor andere dingen.

Snelheid is dus ok. Als het dan ook nog stabiel en betrouwbaar is, ben ik helemaal blij!
Dat zijn allemaal prima waarden. Als de setup een week goed draait kun je er vanuit gaan dat alles goed gaat werken. Blij om te horen dat de theorie in ieder geval goed uitpakt.

  • Q
  • Registratie: November 1999
  • Laatst online: 16:59
mphilipp schreef op dinsdag 16 november 2010 @ 19:25:
[...]

Op Ubuntu zou ik zeker XFS kiezen boven EXT4. Het snelheidsverschil (ext4 vreeeet cpu!) is dramatisch.
Bestandsoperaties op EXT4 zijn super traag. Wij deden unatended uitrol van ubuntu op laptops (PXE) die opeens 2x zo lang duurden. Bleek dat met de nieuwste ubuntu het filesystem op EXT4 staat en dat was de boosdoener. Terug naar EXT3 dus.

EXT4 moet je hardnekkiger mijden dan de builenpest.

Het enige fatsoenlijke filesystem voor grote arrays onder Linux is XFS.

(Helaas).

  • Q
  • Registratie: November 1999
  • Laatst online: 16:59
Verwijderd schreef op dinsdag 16 november 2010 @ 00:41:
[...]

Bij mijn Areca controller onder ZFS wel, ook in JBOD mode of passthrough disks; elke bad sector die je disks tegenkomen worden ze eruit gedonderd. Dit is geen theorie, maar eigen ervaring. Ik heb jarenlang gestoeid met dit probleem, en tot de conclusie gekomen dat alle Hardware RAID en alle Windows onboard driver RAID niet tegen hoge timeouts van schijven kunnen, en daardoor de schijven uit de array gooien (detachen).

Alleen software RAID onder non-Windows OS met een normale SATA/SAS controller kan je hierbij helpen. En natuurlijk het aanschaffen van TLER/CCTL disks, maar dat komt ook met een prijs, behave in financiële zin kan dit je in problemen brengen als je een degraded array aan het rebuilden bent en een bad sector krijgt door TLER niet de kans om lang genoeg recovered te worden, en je zit met een failed array. Doordat de huidige schijven met enorme capaciteit een relatief hoge 'Bit-Error-Rate' heeft, krijgen steeds meer mensen last van dit probleem.
Dat laatste ondersteund eigenlijk voornamelijk de noodzaak van RAID6 voor grotere schijven/arrays.

Hardware RAID controllers zijn voor thuis gebruik niet alleen overkill maar ook zelfs gevaarlijk dus. TLER is iets waar ik altijd tegen betoogd heb omdat je, precies zoals jij hier schetst, dan je data kwijt raakt. Liever data en wat minder performance dan helemaal niks.

Dat je in een enterprise omgeving alles redundant hebt en snel backups kunt terug zetten, okee.
Als je een stabiele en veilige storage-oplossing wilt hebben, is ZFS zeker een oplossing. En dan in het bijzonder het feit dat er nooit meer disks uit je array gedonderd worden, en je hebt juist geen dure TLER disks nodig maar je kunt goedkope Samsung F4 enzo gebruiken.
Dat is een mooie eigenschap van zowel ZFS als Linux software RAID.
Het feit dat je iets gekocht hebt waarvan je later erachter komt dat het eigenlijk helemaal niet zo nuttig is voor voor wat je ermee wilt, is vervelend. Dat soort pijnlijke lessen heb ik genoeg gehad, en wilde na zelfs met Areca herzelfde gedonder te hebben nu eens wat stabiels. En ZFS heeft hier echt wel een streepje voor. Maar ieder moet zijn eigen afweging maken natuurlijk.
ZFS beschermt tegen extra risico's die de Linux software RAID oplossing niet dekt. Ik schat die risico's in als zeer klein. De RAM honger van ZFS en de stabiliteitsissues bij te weinig RAM vind ik niet top. Voor thuisgebruik is dat niet echt optimaal. Daarbij komt het feit dat je ZFS niet kunt laten groeien met een extra disk. Onder Linux kun je gewoon een bestaande arrays laten groeien met 1 disk. Voor enterprise vaak niet zo relevant, maar thuis is het wat kosten effectiever.

Nu ZFS eigenlijk alleen nog maar bruikbaar is onder FreeBSD (fuck fuse) moeten mensen zich heel goed afvragen wat ze echt nodig hebben.

Verwijderd

mphilipp schreef op dinsdag 16 november 2010 @ 14:20:
Waar je denk ik wel mee op moet passen is om je mobo SATA aansluitingen helemaal vol te rammen met disks voor een NAS. Ik las ergens (geen idee meer waar) dat het met 2-3 disks nog wel ging, maar toen ze er 6 disks aan hingen in RAID0, ging de performance omlaag. Blijkbaar zit er toch een beperking op de mobo sata aansluitingen.
Als je PCI rotzooi gaat gebruiken misschien, maar normale chipset SATA controllers hebben genoeg bandbreedte. AMD chipsets doorgaans 2GB/s naar de southbridge (SB7xx), met 6x SATA/300 zit je op 1800MB/s dus full-bandwidth. Ik vermoed dat bij SB8xx met SATA/600 er 4GB/s naar de southbridge gaat. In elk geval niet echt iets om je druk te maken; je chipset SATA poorten zijn de beste SATA die je hebt, zit het dichtst bij je CPU. Bij mij scheelt dat net 0.1ms in de latency, ten opzichte van 1068E HBA, onder BSD.
Heb ik niet goed gezocht? Zijn er (betrouwbare en goed performende) SATA kaarten in de handel voor een acceptabele prijs?
Kijk eens naar SAS; als je veel disks wilt hebben is Mini-SAS bekabeling erg handig. Eén kabel voor vier normale SATA disks; ik gebruik Samsung F3 maar Samsung F4 5400rpm is nu zo n beetje de beste dataschijf. LSI 1068E zoals in SuperMicro USAS-L8i of Intel SASUC8i zijn aanraders; lees je wel even in over de beperkingen (supermicro heeft een raar bracket, intel moet nog geflashed worden met IT-firmware).
Ik ben in ieder geval blij dat ik een testperiode heb ingelast voordat ik er serieus mee aan de gang ging. Dat kan ik iedereen aanbevelen.
Inderdaad! En minimaal 48 uurtjes memtest; je wilt geen brak geheugen hebben op je NAS!
FireDrunk schreef op dinsdag 16 november 2010 @ 13:10:
Voor mijn situatie zou ik dan een FreeBSD ZFS installatie moeten maken. Maar aangezien ZFS nogal geheugen en cpu hongerig is, vraag ik me af of als ik daar Samba bij aan hang, of het nog wel performt...
Ik zie het verband tussen ZFS en Samba niet zo? Samba gebruikt maar iets van 10 of 20MB, ZFS kan tientallen gigabytes gebruiken; maar wat hebben de twee met elkaar te maken? Je wilt dat ZFS genoeg snel is om geen bottleneck te zijn, en je wilt dat Samba geen rare network bottlenecks vertoont. Je kunt beide apart testen: netperf/iperf voor netwerk bandbreedte en wat lokale benchmarks op ZFS of ZFS wel goed genoeg presteert.

ZFS met minder dan 4GiB moet je niet aan denken, en eigenlijk moet je gewoon een nieuw systeem kopen voor ZFS, wat best goedkoop kan zijn. 8GiB DDR3 ECC RAM voor 120 euro is niet slecht, een simpele amd quadcore en een simpel mobootje en je komt al een heel eind. LSI HBA erop en je kunt 8+6=14 disks aansluiten. Als ik even snel reken zit je dan op 350 euro voor cpu+mobo+ram+controller. Dan hou je nog een PCIe x1 slot over, die je kunt gebruiken voor een extra gigabit kaart, om een virtuele 2Gbps NIC te maken.

ZFS kun je het beste draaien op een van de vele 'derivatives' zoals NexentaStor en FreeNAS kan ook alhoewel FreeNAS echt verouderde software draait; niet echt ideaal voor ZFS, maar om te beginnen wel aardig.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

Quindor schreef op dinsdag 16 november 2010 @ 20:55:
[...]
Ik verwacht dat je versie van smartctl wellicht te oud is. Alleen de huidige SVN versies ondersteunen scterc.
Ik denk het ook, maar dit was de hoogste die ik kon vinden voor AMD64/Debian (Ubuntu voor mij dan). In mijn log zie ik ook staan dat smartctl een deprecated toestand voor 'iets' gebruikt (weet ff niet meer wat het precies was), dus ik heb dubbel pech. Ik kiep 'm er maar weer af; wie weet wat voor schade hij aanricht...

btw: ik heb zelf nog gepost ik jouw topic op storagereview. Daardoor kreeg ik weer 'hoop' ;)

[ Voor 10% gewijzigd door mphilipp op 16-11-2010 22:55 ]

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 20-12 23:24

Quindor

Switching the universe....

mphilipp schreef op dinsdag 16 november 2010 @ 22:50:
[...]

Ik denk het ook, maar dit was de hoogste die ik kon vinden voor AMD64/Debian (Ubuntu voor mij dan). In mijn log zie ik ook staan dat smartctl een deprecated toestand voor 'iets' gebruikt (weet ff niet meer wat het precies was), dus ik heb dubbel pech. Ik kiep 'm er maar weer af; wie weet wat voor schade hij aanricht...

btw: ik heb zelf nog gepost ik jouw topic op storagereview. Daardoor kreeg ik weer 'hoop' ;)
Ah, de SVN versie eventjes compilen en dan zou het moeten werken verwacht ik. Ook heeft iemand ooit werkt verricht om een aangepaste Highpoint driver te maken, eventjes zoeken. Hmm, wellicht verkeerd begrepen.

[ Voor 6% gewijzigd door Quindor op 16-11-2010 23:35 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

Quindor schreef op dinsdag 16 november 2010 @ 23:31:
[...]
h, de SVN versie eventjes compilen en dan zou het moeten werken verwacht ik. Ook heeft iemand ooit werkt verricht om een aangepaste Highpoint driver te maken, eventjes zoeken.
Als het niet te ingewikkeld wordt, kan ik dat misschien wel. Ik ben ook maar een domme Oracle boer, dus compileren is niet mijn hobby.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 20-12 23:24

Quindor

Switching the universe....

mphilipp schreef op dinsdag 16 november 2010 @ 23:35:
[...]

Als het niet te ingewikkeld wordt, kan ik dat misschien wel. Ik ben ook maar een domme Oracle boer, dus compileren is niet mijn hobby.
Ik ben zelf ook echt een linux noob. Maar aangezien ik ESXi draai op mijn server heb ik het toch voor elkaar gekregen een ubuntu bootstick te maken om dit commando uit te kunnen voeren als mijn server een keer moet booten of ik problemen heb. Guide kun je hier vinden : http://sourceforge.net/apps/trac/smartmontools/wiki/Download , ongeveer onderaan de pagina.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED

Verwijderd schreef op dinsdag 16 november 2010 @ 22:12:
Ik zie het verband tussen ZFS en Samba niet zo? Samba gebruikt maar iets van 10 of 20MB, ZFS kan tientallen gigabytes gebruiken; maar wat hebben de twee met elkaar te maken? Je wilt dat ZFS genoeg snel is om geen bottleneck te zijn, en je wilt dat Samba geen rare network bottlenecks vertoont. Je kunt beide apart testen: netperf/iperf voor netwerk bandbreedte en wat lokale benchmarks op ZFS of ZFS wel goed genoeg presteert.

ZFS met minder dan 4GiB moet je niet aan denken, en eigenlijk moet je gewoon een nieuw systeem kopen voor ZFS, wat best goedkoop kan zijn. 8GiB DDR3 ECC RAM voor 120 euro is niet slecht, een simpele amd quadcore en een simpel mobootje en je komt al een heel eind. LSI HBA erop en je kunt 8+6=14 disks aansluiten. Als ik even snel reken zit je dan op 350 euro voor cpu+mobo+ram+controller. Dan hou je nog een PCIe x1 slot over, die je kunt gebruiken voor een extra gigabit kaart, om een virtuele 2Gbps NIC te maken.

ZFS kun je het beste draaien op een van de vele 'derivatives' zoals NexentaStor en FreeNAS kan ook alhoewel FreeNAS echt verouderde software draait; niet echt ideaal voor ZFS, maar om te beginnen wel aardig.
Ik heb een Core i3-530 met 8GB DDR3 ECC (en nog 2 memory slots vrij). Dus dat is (denk ik) het probleem niet. Ik bedoel niet zozeer de memory load van Samba als wel de overhead op de CPU (genereren van de letterlijke Block Messages) Op een 4850e met CentOS en de NTFS-driver kostte dit al gauw 30-40% CPU. Nou is mijn i3 natuurlijk veel sneller, maar ik wil eigenlijk niet dat als ik EN overstap op softwareraid EN overstap op Samba onder linux EN overstap op een hongerig filesysteem, dat al deze factoren tesamen zorgen voor een 100% CPU load :)

Even niets...


  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Verwijderd schreef op dinsdag 16 november 2010 @ 22:12:
[...]

-verhaal-

Dan hou je nog een PCIe x1 slot over, die je kunt gebruiken voor een extra gigabit kaart, om een virtuele 2Gbps NIC te maken.
Vind het een prima verhaal, maar wil wel even opmerken dat je pas iets aan die 2Gbps hebt als je meerdere clients / sessie's tegelijk gebruikt. Hij gaat niet 1 sessie verdelen over de bandbreedte. Voor meedere clients heb je een switch nodig die dit ondersteunt.

De meerprijs is niet bijzonder groot, maar wel iets om over na te denken voor je zoiets zou aanschaffen en bouwen IMO

Mijn Serverrack - iRacing Profiel

Samba opent toch meerdere sessies?

Even niets...


  • Jasper Janssen
  • Registratie: April 2000
  • Laatst online: 18-04 16:59
mphilipp schreef op maandag 15 november 2010 @ 14:43:
=======> INVALID ARGUMENT TO -l: scterc
=======> VALID ARGUMENTS ARE: error, selftest, selective, directory[,g|s], background, scttemp[sts|hist], sasphy[,reset], sataphy[,reset], gplog,N[,RANGE], smartlog,N[,RANGE], xerror[,N][,error], xselftest[,N][,selftest] <=======
dat zegt ie bij mij dus ook, en als je die foutmelding goed leest dan zie je dat je smartmontools gewoon geen support heeft voor de erc functie. In de storagereview thread las je ook dat dit geintegreerd is op de nieuwste SVN builds en dat je hem zelf zal moeten compileren (en dat is waar ik afhaakte, aangezien ik het niet nodig heb :P )

Overigens: ik denk niet dat de waarde wel behouden blijft bij controller wisselen en dus een volledige reset van de drive, zelfs als je de power live houdt.

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Zoals beloofd de eerste foto's van mijn nieuwe NAS(heb even linkjes gedaan naar de pics omdat ik hier geen resize tools tot mijn beschikking heb):

De zooi samen:
http://www.dj-narra.nl/oscar/IMG_1388.jpg
http://www.dj-narra.nl/oscar/IMG_1398.jpg

mobo / psu / cpu geinstalleerd:
http://www.dj-narra.nl/oscar/IMG_1400.jpg

eerste boot (zonder schijven):
http://www.dj-narra.nl/oscar/IMG_1404.jpg

installatie HD's:
http://www.dj-narra.nl/oscar/IMG_1411.jpg
de CM 4 in 3 module (OS/download disk boven 1TB en 2x2TB)

http://www.dj-narra.nl/oscar/IMG_1408.jpg
de HD trays van de CM690II

http://www.dj-narra.nl/oscar/IMG_1418.jpg
overige schijfjes 6 x 2TB)

http://www.dj-narra.nl/oscar/IMG_1420.jpg
6x 2TB in de kast

Overig:
http://www.dj-narra.nl/oscar/IMG_1424.jpg
installatie OS

Installatie allemaal prima gelukt en wat dingetjes ingesteld zodat ik remote ssh de rest van de install kan doen alleen zit ik nu met de volgende uitdaging:

Mijn BIOS herkent de OS disk (die aan een PCI - SATA controller hangt) onvoldoende om ervan te kunnen booten. Aansluiten op een van de moederbord poorten werkt gewoon prima maar dat is niet de gewenste oplossing. Reden: de PCI controller is SATA-150 en dan zou ik 7 x 2TB op SATA-300 hebben draaien en 1x2TB op SATA-150. Mij lijkt me dat nou niet echt bevorderlijk voor de performance van mijn Array.

Ik ga dus eerst even aanklooien met iets van een USB-bootloader zodat ik de OS disk kan laten hangen aan de PCI kaart en anders zal ik ergens een SATA-300 kaartje moeten kopen voor die ene disk van het array.

Wordt vervolgd dus :)

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

Jasper Janssen schreef op woensdag 17 november 2010 @ 10:05:
[...]
dat zegt ie bij mij dus ook, en als je die foutmelding goed leest dan zie je dat je smartmontools gewoon geen support heeft voor de erc functie. In de storagereview thread las je ook dat dit geintegreerd is op de nieuwste SVN builds en dat je hem zelf zal moeten compileren (en dat is waar ik afhaakte, aangezien ik het niet nodig heb :P )

Overigens: ik denk niet dat de waarde wel behouden blijft bij controller wisselen en dus een volledige reset van de drive, zelfs als je de power live houdt.
Dat meende ik er ook al uit te halen. Ik heb die thread niet helemaal woord voor woord gelezen, maar aangezien de laatste versie een hoger nr heeft als die ik heb, zou het idd zomaar kunnen dat ik zelf eentje moet gaan compileren. Nou ja...ik heb de hw raid nu al 'afgebroken' dus dat compileren doe ik wel in een volgend leven... ;)

Op zich is het vasthouden van die waarde na een stroomonderbreking niet het grootste probleem. Dat is met scripts op te lossen. Alleen een live HD omprikken durf ik niet aan. Straks gaat de controller naar zijn grootje.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Verwijderd

FireDrunk schreef op woensdag 17 november 2010 @ 08:13:
Ik heb een Core i3-530 met 8GB DDR3 ECC (en nog 2 memory slots vrij). Dus dat is (denk ik) het probleem niet. Ik bedoel niet zozeer de memory load van Samba als wel de overhead op de CPU (genereren van de letterlijke Block Messages) Op een 4850e met CentOS en de NTFS-driver kostte dit al gauw 30-40% CPU.
Wat kost 40% CPU, Samba? Echt niet; als je dat via de top output ziet dan rekent hij gewoon dingen van het systeem onder dat Samba proces; samba zelf gebruikt misschien een paar procent van een enkele core. ZFS kan alle cores dichttrekken als er veel vraag naar CPU performance is, maar normaliter zal dat echt meevallen. Ik draai ZFS op een 500MHz single-core CPU met ongeveer 1/4e van de performance van een Atom; dat haalt 30MB/s over Samba. Dus ik snap écht het probleem niet hier?

Jouw systeem is nog steeds memory bottlenecked; je CPU komt overeen met 16-24GiB RAM voor wat betreft ZFS behoeften; dus je CPU is al veel krachtiger dan de rest van het systeem, waarmee ik vooral op de kwantiteit van het geheugen doel.
Nou is mijn i3 natuurlijk veel sneller, maar ik wil eigenlijk niet dat als ik EN overstap op softwareraid EN overstap op Samba onder linux EN overstap op een hongerig filesysteem, dat al deze factoren tesamen zorgen voor een 100% CPU load :)
Enige waar je je druk om hoeft te maken is overmatig CPU verbruik door interrupt problemen. Soms moet je dan MSI interrupts uit of jusit inschakelen. Dat zie je snel genoeg aan de 'top' output als interrupts 40%+ van je cpu wegtrekken.
Extera schreef op woensdag 17 november 2010 @ 08:33:
Vind het een prima verhaal, maar wil wel even opmerken dat je pas iets aan die 2Gbps hebt als je meerdere clients / sessie's tegelijk gebruikt. Hij gaat niet 1 sessie verdelen over de bandbreedte. Voor meedere clients heb je een switch nodig die dit ondersteunt.
Nee hoor je kunt 2Gbps behalen van PC1 naar PC2 met een normale switch van 30 euro en twee realtek gigabit kaartjes en wat kabels ertussen; software doet de rest! Is ook niet zo vreemd, we sturen immers al meerdere pakketjes en hebben een TCP window size; nu hebben we gewoon twee interfaces met hetzelfde ARP-adres en we versturen en ontvangen pakketjes gewoon round-robin. Dit vereist dus geen compatible managed switches die LACP ondersteunen; ik hou niet van proprietaire rommel, maar wel van koele gratis opensource techniek die 1000% beter werkt dan proprietary.

Overigens onder Windows zou dit ook moeten kunnen met de proprietary Intel Server adapter drivers; maar deze functie is niet beschikbaar voor mensen met desktop adapters; lekker slim weer!

Voor een meerprijs van 20 euro (2 realtek kaartjes; 1 in client, 1 in server) is dit best een leuke investering. Maar tenzij je honderden euros aan windows uit gaat geven werkt dit truucje alleen onder Linux/BSD.
Verwijderd schreef op woensdag 17 november 2010 @ 14:24:
Wat kost 40% CPU, Samba? Echt niet; als je dat via de top output ziet dan rekent hij gewoon dingen van het systeem onder dat Samba proces; samba zelf gebruikt misschien een paar procent van een enkele core. ZFS kan alle cores dichttrekken als er veel vraag naar CPU performance is, maar normaliter zal dat echt meevallen. Ik draai ZFS op een 500MHz single-core CPU met ongeveer 1/4e van de performance van een Atom; dat haalt 30MB/s over Samba. Dus ik snap écht het probleem niet hier?

Jouw systeem is nog steeds memory bottlenecked; je CPU komt overeen met 16-24GiB RAM voor wat betreft ZFS behoeften; dus je CPU is al veel krachtiger dan de rest van het systeem, waarmee ik vooral op de kwantiteit van het geheugen doel.
Wat ik nog mis is je storage config? Heb je veel schijven? Een dedicated cache drive? Een logging drive?

Even niets...


Verwijderd

Ik gebruik nu Samsung F3 7200rpm schijven, maar spijt dat ik niet eventjes gewacht heb op de F4 5400rpm. Minder hitte en toch sneller. Ik gebruik een drietal Intel X25-V als cache device en normaal opslag, maar geen ZIL/log disk. Daarvoor moet je nog wachten tot veilige SSDs uitkomen met supercapacitor, zoals de nieuwe Intel G3 en (sommige?) Sandforce SF2000 modellen. Ook kan een ZIL device gevaarlijk zijn wanneer je ZFS versie lager dan 19 is. Dus daar heb ik nog niet voor gekozen.

Het effect van SSDs als cache device is het meest merkbaar wanneer je applicaties gaat draaien over het netwerk, of anderzins veel random I/O gaat doen. Ik kan het van harte aanbevelen, maar zou zelf wachten met cache/zil totdat betere SSDs uitkomen, over een paar maanden. Dan wordt het pas echt leuk!

En ja ik heb drie fileservers staan, één oude met rommelschijven erin die ik eigenlijk nauwelijks meer gebruik, en twee nieuwere die ZFS draaien. Elk hebben ze tussen de 8 en 14 schijven. Maar al met twee x Samsung F4 kom je aan 200MB/s-280MB/s sequential I/O; dus heb je al baat bij dual gigabit.

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 22-12 08:23

Demo

Probleemschietende Tovenaar

DJ-NaRRa schreef op woensdag 17 november 2010 @ 11:05:
Zoals beloofd de eerste foto's van mijn nieuwe NAS(heb even linkjes gedaan naar de pics omdat ik hier geen resize tools tot mijn beschikking heb):

[plaatjes]

Mijn BIOS herkent de OS disk (die aan een PCI - SATA controller hangt) onvoldoende om ervan te kunnen booten. Aansluiten op een van de moederbord poorten werkt gewoon prima maar dat is niet de gewenste oplossing. Reden: de PCI controller is SATA-150 en dan zou ik 7 x 2TB op SATA-300 hebben draaien en 1x2TB op SATA-150. Mij lijkt me dat nou niet echt bevorderlijk voor de performance van mijn Array.

Ik ga dus eerst even aanklooien met iets van een USB-bootloader zodat ik de OS disk kan laten hangen aan de PCI kaart en anders zal ik ergens een SATA-300 kaartje moeten kopen voor die ene disk van het array.

Wordt vervolgd dus :)
Wat voor mobo is dat? Leuke bak heb je in elkaar gezet, ik heb er alleen flinke vraagtekens bij dat je die disken zo in dat tapijt legt.. die matjes worden doorgaans behoorlijk statisch en elektronica houdt daar dan weer niet van.. * Demo doet meestal zijn antistatische polsbandje netjes om bij het PC schroeven.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done

Ik heb zelf 8 * 1.5TB en haal met Hardware RAID iets van 350-450MB/s (begin -> eind schijf).
Zou dat met ZFS sneller zijn?

Even niets...


Verwijderd

Vergelijkbaar, denk ik. Niet helemaal duidelijk waar je het voor kunt gebruiken, aangezien je gigabit de bottleneck zal vormen. Wel is het zo dat als je schijven max. 400MB/s doen samen, je in worst-case best wel eens niet zoveel hoger dan 150MB/s komt; dus je wilt wel minstens het dubbele krijgen dan je netwerk interface potentieel kan versturen, gewoon om zeker te zijn dat je die snelheid ook echt kan halen.

Random I/O bewerkingen zijn heel anders, en daar doet ZFS het beter dan veel traditionele RAID opstellingen, o.a. omdat RAID-Z met variabele stripesize dingen kan doen die onder normaal RAID5 juist heel traag zijn.

  • job
  • Registratie: Februari 2002
  • Laatst online: 16:43
DJ-NaRRa schreef op woensdag 17 november 2010 @ 11:05:
Mijn BIOS herkent de OS disk (die aan een PCI - SATA controller hangt) onvoldoende om ervan te kunnen booten.
Geen enkel bios zal een HD aan een losse sata pci kaart kunnen herkennen. De bios ziet de hd niet, wel de kaart. Waarschijnlijk moet je het eerste bootdevice op scsi zetten en dan zou moeten werken :).

[ Voor 13% gewijzigd door job op 17-11-2010 21:09 ]

Verwijderd schreef op woensdag 17 november 2010 @ 20:49:
Vergelijkbaar, denk ik. Niet helemaal duidelijk waar je het voor kunt gebruiken, aangezien je gigabit de bottleneck zal vormen. Wel is het zo dat als je schijven max. 400MB/s doen samen, je in worst-case best wel eens niet zoveel hoger dan 150MB/s komt; dus je wilt wel minstens het dubbele krijgen dan je netwerk interface potentieel kan versturen, gewoon om zeker te zijn dat je die snelheid ook echt kan halen.

Random I/O bewerkingen zijn heel anders, en daar doet ZFS het beter dan veel traditionele RAID opstellingen, o.a. omdat RAID-Z met variabele stripesize dingen kan doen die onder normaal RAID5 juist heel traag zijn.
Hmm, dan zou ZFS dus vooral een Database of VM storage filesysteem zijn, en niet voor HD films en series :)
Das toch allemaal sequentieel :)

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
job schreef op woensdag 17 november 2010 @ 21:08:
[...]
Geen enkel bios zal een HD aan een losse sata pci kaart kunnen herkennen. De bios ziet de hd niet, wel de kaart. Waarschijnlijk moet je het eerste bootdevice op scsi zetten en dan zou moeten werken :).
Hoi Job, Bedankt voor het meedenken, maar je oplossing gaat niet werken in mijn situatie. Er is namelijk geen SCSI boot optie in de BIOS. het device wordt vast wel herkend maar ik kan hem dus niet selecteren. Ik ben nu aan het prutsen met verschillende soorten usb-sticks maar vooralsnog geen situatie die werkt. ik geef nog niet op, maar ik vermoed dat ik zal moeten zoeken naar een sata-controllertje wat wel SATA-II poorten heeft en dan gewoon de OS disk aan het mobo hangen :P
Demoniac schreef op woensdag 17 november 2010 @ 16:05:
[...]
Wat voor mobo is dat? Leuke bak heb je in elkaar gezet, ik heb er alleen flinke vraagtekens bij dat je die disken zo in dat tapijt legt.. die matjes worden doorgaans behoorlijk statisch en elektronica houdt daar dan weer niet van.. * DJ-NaRRa doet meestal zijn antistatische polsbandje netjes om bij het PC schroeven.
het is een Gigabyte GA-890GPA-UD3H met een AMD890GX / SB850 chipset. en over die disks...tjah als dat zou zijn gebeurd dan is het nu toch al te laat he O-) kom er vanzelf achter.... dan wordt het een gevalletje DOA / RMA. Ik schroef overigens noooit met een polsbandje om. :D
Ik ga nog een keer die blauwe fans vervangen met groene fans (Oscar van sesamstraat is nu eenmaal groen en niet blauw :P)
Om het maar even in perspectief te draaien:

Afbeeldingslocatie: http://www.cravu.nl/smbd.png

81% bij 30MB/s. Ja dit is virtueel, en ja ik snap dat dat overhead met zich meebrengt, maar geen 50%...
Bij een 2e test vreet hij gewoon 100% van de virtuele CPU...

Hmm, bij een FTP test ook... Toch maar eens verder kijken...

[ Voor 51% gewijzigd door FireDrunk op 18-11-2010 10:42 ]

Even niets...


  • _Apache_
  • Registratie: Juni 2007
  • Laatst online: 16:56

_Apache_

For life.

Twan V schreef op maandag 25 oktober 2010 @ 23:43:
[...]


Sabnzbd heeft een webinterface. Via http://nas:8080/ kun je een NZB toevoegen, zodat je nas hem downloadt.

Edit: Ik heb mijn nzb watch folder gedeeld onder linux en op mijn desktop gemapt (netwerkverbinding gemaakt). Als ik een .nzb-bestand opsla op n:\, dan pikt mijn nas hem automagisch op.
Ik doe het iets anders, bij mij worden NZB's standaard geplaatst in de downloads map. Bij het opstarten van men machine komt er een scriptje die kijkt of er daar NZBs staan, dan kijkt of mijn HTPC aan staat, en als beide waar zijn, het nzb'tje overzet. Ik heb dit ook geprobeerd met netwerkschijven, maar als de HTPC aanstaat, de desktop alsnog aangeeft dat de netwerkschijf niet beschikbaar is. Het scriptje werkt via UNC path.
Als beide aan staan en ik download een NZB, kan ik direct naar SABnzbd toe, refresh en hij staat erin. Super robuust. :)

Zero SR/S 17.3kWh / 2.7 kWP PV / Xtend WP 5kW + HRSolar zonneboiler


Verwijderd

FireDrunk schreef op donderdag 18 november 2010 @ 08:49:
81% bij 30MB/s. Ja dit is virtueel, en ja ik snap dat dat overhead met zich meebrengt, maar geen 50%...
Je bent aan het virtualizen! Dat had je ook wel mogen vermelden. Dat verklaart alles natuurlijk! Je overhead is sowieso meer dan 50%.

Maar zoals je ziet gebruikt Samba nog geen 1,6%; dat is het totaal van alle userspace-processen. Dat je Weighted CPU % voor smbd in de lijst veel hoger is, komt omdat alle systeemaanroepen die Samba veroorzaakt onder het smbd process worden gerekend. Maar wat Samba zelf met de virtuele CPU doet is dus 1,6%.

Een NAS virtualizeren valt natuurlijk niet aan te raden. Je kunt daarmee je hele storage corrumperen en performance is dikke stront door een trechter. Met name bridged networking was bij mij heel traag.

Probeer het eens met echte hardware dus; een VM ofzo is leuk om te testen of het werkt, maar meer ook niet.

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Verwijderd schreef op donderdag 18 november 2010 @ 13:43:
[...]

Je bent aan het virtualizen! Dat had je ook wel mogen vermelden. Dat verklaart alles natuurlijk! Je overhead is sowieso meer dan 50%.

Maar zoals je ziet gebruikt Samba nog geen 1,6%; dat is het totaal van alle userspace-processen. Dat je Weighted CPU % voor smbd in de lijst veel hoger is, komt omdat alle systeemaanroepen die Samba veroorzaakt onder het smbd process worden gerekend. Maar wat Samba zelf met de virtuele CPU doet is dus 1,6%.

Een NAS virtualizeren valt natuurlijk niet aan te raden. Je kunt daarmee je hele storage corrumperen en performance is dikke stront door een trechter. Met name bridged networking was bij mij heel traag.

Probeer het eens met echte hardware dus; een VM ofzo is leuk om te testen of het werkt, maar meer ook niet.
Dat je overhead meer dan 50% zou zijn, daar kan ik me niet echt in vinden. Ik heb trouwens voor verschillende projecten virtuele nasjes draaien, waarvan sommigen al 5 jaar lang dagelijke backups en regelmatige restores ondergaan, zonder enige corruptie. Ik kan je FUD dan ook niet echt waarderen. Een nas is inderdaad geen goede kandidaat voor virtualizatie gezien de IO intensiviteit, daarin moet ik je gelijk geven. Maar ook met het performanceverlies als argument meenemend, kan virtualiseren nog steeds een prima optie zijn.


Edit:
Hier zie je een voorbeeldje van een virtuele nas waar naar geschreven wordt vanaf drie hosts. 45MB/s is in dit geval niet zo slecht, aangezien het 1/12e van een oude dual xeon 5160 back is die zwaar wordt gebruikt.
Afbeeldingslocatie: http://files.hongens.nl/2010/11/18/smbwrite.png

[ Voor 18% gewijzigd door axis op 18-11-2010 14:16 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Verwijderd

Sorry dat je mijn 'FUD' niet kan waarderen, maar ik denk toch dat ik er meer ervaring mee heb velen in dit topic.

Ruwe CPU code heeft zeker geen overhead van 50%; eerder een paar procent. Maar dingen als bridged networking en disk I/O zijn heel anders; daar is de overhead meer dan 50% en betekent dus dat je echt gaat voelen. Virtualbox bridged networking komt niet boven de 8MB/s, de I/O veroozaakt door ZFS veroorzaakt zeer hoge latencies en timeouts en nog veel belangrijker: vele VM solutions waaronder Virtualbox negeren de 'write flush' commands. Die commando's moeten opgevolgd worden om de dataingriteit te garanderen. Het garandeert dat wanneer deze commando's behandeld zijn, de tot dan geschreven data op de disks staat; permanent. Virtualbox en wellicht ook VMware liegen hierover en negeren keihard buffer flush commando's. Het resultaat is een corrupte array na een paar nachtjes I/O draaien.

Een moderne NAS virtualiseren is dan ook geen goed idee. De I/O is een probleem, de networking is een probleem; en dat zijn nu juist de twee code features van een NAS.

Virtualiseren is leuk en voor heel veel taken goed geschikt en zelfs met relatief weinig verlies, maar voor een NAS is dit gewoon absoluut ongeschikt. Mocht iemand toch deze route nemen, ik wil wel benchmarks zien, en een weekje stresstesten om de array te corrumperen kan ook geen kwaad, voordat je blindelings vertrouwt op je NAS en daarna gewoon data verliest.

Edit na jouw edit: ik neem aan dat die VM geen ZFS draait met 20 schijven? Een enkele virtuele disk en dan data pompen over het netwerken, ja dat zou prima kunnen. Maar probeer het eens met ZFS, en dan met name de corruptie is gewoon niet leuk. Draai je Virtualbox of iets anders?

[ Voor 8% gewijzigd door Verwijderd op 18-11-2010 14:21 ]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Het zal niet zozeer de overhead zijn, maar wel dat je host een core kwijt kan zijn. En het is op zich nog wel hanteerbaar, alleen moet je er geen wonderen van verwachten. Inderdaad, 50MB/sec moet al zeker lukken, maar het compleet vullen van gigabit is toch een grotere uitdaging.
Het punt is alleen, waarom wil je gevirtualiseerde storage? Persoonlijk hanteer ik liever het principe dat bij paravirtualisation de host de storage zal aanbieden aan de guests. Het zijn mij teveel lagen. Bij bare metal virtualisation hoeft dat dan weer niet, voor mij in ieder geval.

De CSL/OT kroeg !


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Verwijderd schreef op donderdag 18 november 2010 @ 14:18:
Edit na jouw edit: ik neem aan dat die VM geen ZFS draait met 20 schijven? Een enkele virtuele disk en dan data pompen over het netwerken, ja dat zou prima kunnen. Maar probeer het eens met ZFS, en dan met name de corruptie is gewoon niet leuk. Draai je Virtualbox of iets anders?
Deze VM draait FreeBSD8.1 met ZFS, 3 virtuele disks. De guest draait op een ESX4.0 doos met 5x146GB 15K SAS in RAID5 aan een PERC5i. De host heeft de afgelopen paar jaar een aantal stroomstoringen meegemaakt, tot nu toe nog zonder dataverlies.

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Dadona schreef op donderdag 18 november 2010 @ 14:19:
Het zal niet zozeer de overhead zijn, maar wel dat je host een core kwijt kan zijn. En het is op zich nog wel hanteerbaar, alleen moet je er geen wonderen van verwachten. Inderdaad, 50MB/sec moet al zeker lukken, maar het compleet vullen van gigabit is toch een grotere uitdaging.
Het punt is alleen, waarom wil je gevirtualiseerde storage? Persoonlijk hanteer ik liever het principe dat bij paravirtualisation de host de storage zal aanbieden aan de guests. Het zijn mij teveel lagen. Bij bare metal virtualisation hoeft dat dan weer niet, voor mij in ieder geval.
Sja, soms wil je bepaalde functionaliteit van een guest (zoals in mijn geval zfs snapshots, on-disk compressie, etc), maar heb je niet zoveel data om een aparte server voor te rechtvaardigen. Dan is een vm een goede tussenoplossing naar mijn mening. Zodra je meer data krijgt of de data meer gebruikt wordt, kun je altijd nog opschalen naar een aparte machine.

Thuis heb ik een enkele ESX machine draaien met 2TB disk space en 12GB RAM, dan kan ik toch lekker prutsen en blijft het stroomverbruik maar beperkt tot die ene machine. Ik heb daarop ook een virtueel nasje om toch makkelijk bestanden te delen. Nu ik na een paar jaar toch steeds meer load erop ga gooien en hogere performance verwacht ga ik binnenkort ook een aparte nas optuigen, maar 'for the time being' heeft het prima gewerkt.

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Verwijderd

axis schreef op donderdag 18 november 2010 @ 16:26:
[...]

Deze VM draait FreeBSD8.1 met ZFS, 3 virtuele disks. De guest draait op een ESX4.0 doos met 5x146GB 15K SAS in RAID5 aan een PERC5i. De host heeft de afgelopen paar jaar een aantal stroomstoringen meegemaakt, tot nu toe nog zonder dataverlies.
Oke. Je zou kunnen informeren of ESX voor virtuele disks de 'write flush' commando's respecteert. Dit is een belangrijk gegeven voor data integriteit. Het zou een kwestie van tijd moeten zijn voor je array corrupt is zonder deze ondersteuning, aangenomen dat je zo nu en dan wel eens een crash of interrupted power cycle hebt.

Ook kan je RAID5 controller de veiligheid en bescherming die ZFS biedt, aantasten. RAID5/6 kent een write hole en je hebt dus een BBU nodig om dit te beschermen.

Dat gezegd, heb ik totaal geen ervaring met ESX of jouw Dell controller (is een rebranded LSI denk ik?). Dus als het voor jou goed werkt gun ik het je van harte. Maar het zou zeker zonde zijn als je overmorgen je VM opstart en een rotte ZFS pool aantreft. Zolang je een BBU hebt en ESX die write flushes goed doet, zou dit niet zo'n heel groot risico mogen zijn. Maar duidelijk voor mij is wel dat ZFS het liefst het dichtst bij de fysieke schijven zit en zelf de RAID doet, dan krijg je ook de meeste bescherming zoals ditto blocks (replicated metadata) en bescherming tegen BER, wat voor schijven met hoge capaciteit wel belangrijk gaat worden nu.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
axis schreef op donderdag 18 november 2010 @ 16:33:
[...]

Sja, soms wil je bepaalde functionaliteit van een guest (zoals in mijn geval zfs snapshots, on-disk compressie, etc), maar heb je niet zoveel data om een aparte server voor te rechtvaardigen. Dan is een vm een goede tussenoplossing naar mijn mening. Zodra je meer data krijgt of de data meer gebruikt wordt, kun je altijd nog opschalen naar een aparte machine.
Het ging mij niet zozeer erom dat je een andere machine moet inzetten, maar dat je de host en guest gaat omdraaien. En meer in het bijzonder als het je om hoge prestaties of andere features gaat, zoals integriteit.
Natuurlijk kan je guest controleren dat het goed gaat, maar je host kan er ook een zooitje van maken. Alleen kan je guest dat mogelijk alleen herkennen, niet repareren.
Maar bovenal wou ik alleen maar een gedachte meegeven, denk goed na of je gewenste functionaliteiten wel gehaald worden in een guest situatie. Compressie wel, maar hoge doorvoersnelheid misschien minder.

De CSL/OT kroeg !


Verwijderd

_Apache_ schreef op donderdag 18 november 2010 @ 09:07:
[...]


Ik doe het iets anders, bij mij worden NZB's standaard geplaatst in de downloads map. Bij het opstarten van men machine komt er een scriptje die kijkt of er daar NZBs staan, dan kijkt of mijn HTPC aan staat, en als beide waar zijn, het nzb'tje overzet. Ik heb dit ook geprobeerd met netwerkschijven, maar als de HTPC aanstaat, de desktop alsnog aangeeft dat de netwerkschijf niet beschikbaar is. Het scriptje werkt via UNC path.
Als beide aan staan en ik download een NZB, kan ik direct naar SABnzbd toe, refresh en hij staat erin. Super robuust. :)
Huh? Je draait SABnzbd toch gewoon op je NAS waardoor je HTPC helemaal niet aan hoeft te staan? Misschien begrijp ik het verkeerd hoor 8)7

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
Beste mede-Tweakers.

Er komt een nu een lang verhaal, dus wees voorbereid :X

De gedachte om een NAS of server te bouwen werd ten eerste gevoed, toen ik een PS3 voor mijn verjaardag kocht. Zo'n PS3 kun je natuurlijk namelijk ook gebruiken als media-extender. Maar zoals jullie weten, kan de PS3 geen mkv files aflezen. Daarvoor moet je via een omweg een programma genaamd PMS gebruiken. Nadeel van deze methode: Een redelijke krachtige computer om de files om te zetten, het liefst eentje die continu aanstaat---> Een zuinig servertje zou dit kunnen oplossen.

Reden 2: Heb pas mijn oude bak vaarwel moeten zeggen, MOBO kapot...en ja hoor ik ben }:O geweest om nooit een back-up plan te verzinnen.--> een NAS of server zou een goed idee geweest zijn 8)7

Door deze redenen, dacht ik slim te zijn door een Synology NAS (409+) te kopen, met 3x1,5TB aan opslag. daar ging mijn portomonee, bijna 700 euro was ik kwijt. Ik heb ongeveer 6 maanden geleden dit ding in bezit gehad voor twee weken. Het was wel ff wennen, maar in principe heb je een all-in solution....behalve voor de PS3!, want de Synology kun je niet zomaar voorzien van PMS en de cpu is daarvoor sowieso daar niet krachtig genoeg voor. Dat wist ik, en ik had mijzelf al neergelegd door een Xtreamer erbij te gebruiken, voor de mkv files.
--> Een mooie oplossing? Ja en Nee. Op zich was dit voldoende als backup en als media-opslag plek. Maar wat ik miste, was iets simpels: Wat nou als ik een dvdtje wil branden vanuit de NAS? Dan gaat dat via het netwerk,maar dat ging rete traag via wireless-N (ja door problemen met loze leidingen, moet ik mijn desktop via wireless-N van data voorzien :-( ) en was dus geen oplossing.----> Het begon te kriebelen, zoveel geld uitgegeven en toch niet helemaal ok en daardoor heb ik de Synology NAS teruggestuurd.


Ik wilde er nu gewoon zelf eentje bouwen: Een redelijke zuinig mini-computer in de meterkast waarop PMS staat en die ik kan voorzien van samba netwerk services.
Heb gisteren het volgende besteld, 2x 1,5 TB heb ik al liggen en misschien dat ik nog een SSD moet bestellen:

#ProductPrijsSubtotaal
1Samsung EcoGreen F3 HD153WI , 1.5TB€ 59,-€ 59,-
1Sony Optiarc AD-7260S Zwart€ 16,99€ 16,99
1Lian Li PC-Q08B€ 90,-€ 90,-
1Intel Core i3 540€ 89,-€ 89,-
1be quiet! L7 350W€ 37,25€ 37,25
1Kingston ValueRAM KVR1333D3N9/2G€ 23,80€ 23,80
1Jetway NC97R-LF MINI-ITX€ 137,60€ 137,60
Bekijk collectie
Importeer producten
Totaal€ 453,64


Voor de mensen die niet in slaap gevallen zijn, heb ik de volgende vragen:
1) het systeem zal dus voornamelijk als back-up en media-streamer van mkv files zijn werk gaan doen. RAID 5 zou ik willen gebruiken als extra redundancy.
Al in de beginpost staat al aangegeven, als je in RAID wilt gaan werken je liever geen Windows moet instaleren op je server. Geld dit ook voor ee onboard raid controller die ik nu in de Jetway Mobo heb staan? Dit zou toch moeten werken in oa windows 7?
2) Indien nee? Hoe anders kan ik PMS gebruiken in combinatie met bijvoorbeeld FREENAS of ubuntu? Ik ben newbie op dit gebied, dus ik het liefst wil ik het zo simpel mogelijk.
3) Ik had de afgelopen maanden toch een redelijk systeempje: Via laptop een externe hardeschijf gedeeld in een netwerk en deze gebruikt om mediafiles naar de PS3 en Xtreamer te zenden. Het delen via NFS en samba werkte prima, ik zou dit niet erg vinden om te gebruiken op het nieuwe systeempje. Of zijn er echt betere alternatieven.
4) Uiteindelijk toch veel geld uitgegeven, misschien toch een idee om toch een kant en klare NAS te kopen en PMS af en toe gebruiken met een desktop? 8)7 Ik kan nog wijzigen denk ik..

Bedankt voor het lezen en commentaar _/-\o_

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Sannieboy schreef op vrijdag 19 november 2010 @ 09:29:
Beste mede-Tweakers.

Er kwam een lang verhaal en een nette config, snipzzz

Voor de mensen die niet in slaap gevallen zijn, heb ik de volgende vragen:
1) het systeem zal dus voornamelijk als back-up en media-streamer van mkv files zijn werk gaan doen. RAID 5 zou ik willen gebruiken als extra redundancy.
Al in de beginpost staat al aangegeven, als je in RAID wilt gaan werken je liever geen Windows moet instaleren op je server. Geld dit ook voor ee onboard raid controller die ik nu in de Jetway Mobo heb staan? Dit zou toch moeten werken in oa windows 7?
Waarschijnlijk wel, hangt van driver support af. De RAID 5 op de H57 chipset zal wel fake-RAID zijn zoals alle on-board RAID chipjes.
2) Indien nee? Hoe anders kan ik PMS gebruiken in combinatie met bijvoorbeeld FREENAS of ubuntu? Ik ben newbie op dit gebied, dus ik het liefst wil ik het zo simpel mogelijk.
Een snel zoekertje geeft de volgende link:
http://www.homemultimedia...dia-Server-on-FreeNAS.php
3) Ik had de afgelopen maanden toch een redelijk systeempje: Via laptop een externe hardeschijf gedeeld in een netwerk en deze gebruikt om mediafiles naar de PS3 en Xtreamer te zenden. Het delen via NFS en samba werkte prima, ik zou dit niet erg vinden om te gebruiken op het nieuwe systeempje. Of zijn er echt betere alternatieven.
Als het voldoende goed voor je werkt, zie ik er geen nut in om het onnodig moeilijk te maken. Op je beoogde NAS kun je flink wat data plempen welke tegen een redelijke netwerksnelheid beschikbaar zal zijn. Mbt je laptop zal de omvang van de externe hdd beperkend gaan worden (maar ook die worden groter, nu al weer 3TB) en wellicht het feit dat je geen RAID5 hebt draaien, voor de duidelijkheid RAID5 is GEEN back-up en dus geen fool-proof oplossing. Ik heb zelf geen ervaring met de media capaciteiten van de PS3 of de Xtreamer en kan dus weinig zeggen over codec ondersteuning van beide apparaten dan wel de media servers die de PS3 bedienen.
4) Uiteindelijk toch veel geld uitgegeven, misschien toch een idee om toch een kant en klare NAS te kopen en PMS af en toe gebruiken met een desktop? 8)7 Ik kan nog wijzigen denk ik..

Bedankt voor het lezen en commentaar _/-\o_
Als je slechts incidenteel op de PS3 kijkt is dat wellicht de handigste optie. Een kant en klare NAS is eigenlijk makkelijk te gebruiken en te beheren (vaak vanwege de beperkte software mogelijkheden) en je Xtreamer kan probleemloos via smb bij de bestanden.
De voordelen van een eigenbouw NAS zijn de mate van invloed die je uit kunt oefenen op zowel hardware als software gebied. Dit vereist wel enige kennis van zaken en volharding bij het lezen van how-to's, fora postings en aanverwanten om de boel werkend te houden/krijgen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Sannieboy schreef op vrijdag 19 november 2010 @ 09:29:
Beste mede-Tweakers.

Er komt een nu een lang verhaal, dus wees voorbereid :X

<blaaaaat> + leuke server config :)

Voor de mensen die niet in slaap gevallen zijn, heb ik de volgende vragen:
1) het systeem zal dus voornamelijk als back-up en media-streamer van mkv files zijn werk gaan doen. RAID 5 zou ik willen gebruiken als extra redundancy.
Al in de beginpost staat al aangegeven, als je in RAID wilt gaan werken je liever geen Windows moet instaleren op je server. Geld dit ook voor ee onboard raid controller die ik nu in de Jetway Mobo heb staan? Dit zou toch moeten werken in oa windows 7?
2) Indien nee? Hoe anders kan ik PMS gebruiken in combinatie met bijvoorbeeld FREENAS of ubuntu? Ik ben newbie op dit gebied, dus ik het liefst wil ik het zo simpel mogelijk.
3) Ik had de afgelopen maanden toch een redelijk systeempje: Via laptop een externe hardeschijf gedeeld in een netwerk en deze gebruikt om mediafiles naar de PS3 en Xtreamer te zenden. Het delen via NFS en samba werkte prima, ik zou dit niet erg vinden om te gebruiken op het nieuwe systeempje. Of zijn er echt betere alternatieven.
4) Uiteindelijk toch veel geld uitgegeven, misschien toch een idee om toch een kant en klare NAS te kopen en PMS af en toe gebruiken met een desktop? 8)7 Ik kan nog wijzigen denk ik..

Bedankt voor het lezen en commentaar _/-\o_
Op vraag 1) kan ik je geen antwoord geven.

2) PMS kun je in principe op Ubuntu installeren. Je zult het waarschijnlijk wel zelf moeten compilen. Freenas is een ander verhaal. Ik heb hier een post gevonden hoe je PMS op FreeNAS kunt installeren. Ik zou dit echter wel even eerst testen in een virtuele omgeving want ik kan mijzelf herrinneren dat ik zelf ook problemen heb gehad met SabNZBd en die manier van installeren op FreeNAS.

3) Ik denk dat je een keuze moet maken. of streamen naar je TV middels je Xstreamer die files leest vanaf je NAS of je PS3 gebruiken als streamer en middels PMS je mkv files lezen vanaf je nas. Je zit dan nog wel met het brand-probleem. Ik weet niet of er console applicaties zijn om dvd-tjes te branden in linux (Freenas kun je die optie sowieso wel vergeten)

4) Voor het geld wat je nu uitgeeft heb je waarschijnlijk geen kant en klare nas met dezelfde functionaliteit / vrijheid.

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
Ok, bedankt voor de uitgebreide reactie. Ik zal ff reageren op je punten:
Pantagruel schreef op vrijdag 19 november 2010 @ 10:50:

Waarschijnlijk wel, hangt van driver support af. De RAID 5 op de H57 chipset zal wel fake-RAID zijn zoals alle on-board RAID chipjes.
Heb net zitten zoeken, idd zie ik dat velen niet echt onverdeeld positief zijn over onboard Raid 5.
Niet duidelijk is dat ook geld voor de H57, omdat deze zijn werk doet via de southbridge controller ipv bios.
Thanks, een informatieve link. Kan ik goed gebruiken indien ik FreeNAS oid installeer.
Pantagruel schreef op vrijdag 19 november 2010 @ 10:50:

Als het voldoende goed voor je werkt, zie ik er geen nut in om het onnodig moeilijk te maken. Op je beoogde NAS kun je flink wat data plempen welke tegen een redelijke netwerksnelheid beschikbaar zal zijn. Mbt je laptop zal de omvang van de externe hdd beperkend gaan worden (maar ook die worden groter, nu al weer 3TB) en wellicht het feit dat je geen RAID5 hebt draaien, voor de duidelijkheid RAID5 is GEEN back-up en dus geen fool-proof oplossing. Ik heb zelf geen ervaring met de media capaciteiten van de PS3 of de Xtreamer en kan dus weinig zeggen over codec ondersteuning van beide apparaten dan wel de media servers die de PS3 bedienen.
Als back-up wilde ik eigenlijk mijn desktop gebruiken, die ik ga voorzien van 2TB.
Ik kan ook in de NAS zelf raid 10 ipv raid 5 gebruiken? Extra geld en zet dan wel dan gelijk bijna alle sata aansluitingen dicht. Ik wil er namelijk ook 1 voor de brander.
Pantagruel schreef op vrijdag 19 november 2010 @ 10:50:

Als je slechts incidenteel op de PS3 kijkt is dat wellicht de handigste optie. Een kant en klare NAS is eigenlijk makkelijk te gebruiken en te beheren (vaak vanwege de beperkte software mogelijkheden) en je Xtreamer kan probleemloos via smb bij de bestanden.
De voordelen van een eigenbouw NAS zijn de mate van invloed die je uit kunt oefenen op zowel hardware als software gebied. Dit vereist wel enige kennis van zaken en volharding bij het lezen van how-to's, fora postings en aanverwanten om de boel werkend te houden/krijgen.
Wat ik alleen mis bij een kant en klare oplossing zijn de gemakken van een gewone pc: zoals het branden van iso bestanden, bekijken van films via de hdmi of gaming mogelijkheden. Ja ja, ik game af en toe en ik ben misschien van plan om de kast net onder de tv in de keuken te zetten. Een simpele videokaart en hup ik kan dan Fifa-spelen ofzo als vrienden langskomen. Of een filmpje via de onboard videokaart die ik op de schijf heb staan.
Dit zijn ook de redenen geweest om de Synology terug te zenden, maar als ik zo lees vraag ik misschien teveel van zo'n systeempje: download-bak en multimedia apparaat voor films en af en toe een game-pje. :|.
Misschien een htpc, met gamingmogelijkheden PLUS een NAS een betere optie?--->Sjees dat wordt weer sparen. :X

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
DJ-NaRRa schreef op vrijdag 19 november 2010 @ 11:04:
[...]


Op vraag 1) kan ik je geen antwoord geven.

2) PMS kun je in principe op Ubuntu installeren. Je zult het waarschijnlijk wel zelf moeten compilen. Freenas is een ander verhaal. Ik heb hier een post gevonden hoe je PMS op FreeNAS kunt installeren. Ik zou dit echter wel even eerst testen in een virtuele omgeving want ik kan mijzelf herrinneren dat ik zelf ook problemen heb gehad met SabNZBd en die manier van installeren op FreeNAS.

3) Ik denk dat je een keuze moet maken. of streamen naar je TV middels je Xstreamer die files leest vanaf je NAS of je PS3 gebruiken als streamer en middels PMS je mkv files lezen vanaf je nas. Je zit dan nog wel met het brand-probleem. Ik weet niet of er console applicaties zijn om dvd-tjes te branden in linux (Freenas kun je die optie sowieso wel vergeten)

4) Voor het geld wat je nu uitgeeft heb je waarschijnlijk geen kant en klare nas met dezelfde functionaliteit / vrijheid.
Thanks,

2) Ja heb ik net ook gelezen, allemaal mogelijk. Moet mijzelf wel ff losrukken van windows, maar dat hoeft erg te zijn? :F

3 )Ja dat is een moeilijke, de Xtreamer is sinds alle updates wel de extender die ik nu het meeste gebruik. Lekker snel en mogelijkheid om je beeld gewenste wijze in te zoomen. De interface van de PS3 is wel veel mooier. Goed laten we vanuit gaan dat ik Xtreamer ga gebruiken icm een NAS met Linus oid, dan zit ik nogsteeds met het probleem dat ik geen spellen of mediabestanden rechtsreeks vanuit de NAS/Server kan spelen toch? Of zijn er via bijv Ubuntu wel manieren om dat voor elkaar te krijgen (sorry voor deze Newbie) vragen. Dit is namelijk met windows natuurlijk wel een stuk makkelijker.

4) Een synology ds411j, kost nu rond de 300 euo. Misschien niet de snelste,maar wel goed genoeg om te streamen denk ik. Ook de 409+, is tegen de 400 euro. Echter dan kom ik weer met het probleem: multimediamogelijkheden en gaming, dan heb ik weer een aparte kast nodig...een beetje jammer ;w

[ Voor 5% gewijzigd door Sannieboy op 19-11-2010 12:05 ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

Sannieboy schreef op vrijdag 19 november 2010 @ 11:44:
Wat ik alleen mis bij een kant en klare oplossing zijn de gemakken van een gewone pc: zoals het branden van iso bestanden, bekijken van films via de hdmi of gaming mogelijkheden. Ja ja, ik game af en toe en ik ben misschien van plan om de kast net onder de tv in de keuken te zetten.
Tsjaa...je wilt dus geen NAS maar een multi-media pc met veel opslag.
Wat NAS functionaliteit betreft zijn de kant-en-klare NASjes tot een disk of 4 niet te verslaan qua prijs, formaat en energieverbruik. Je kunt het er zelf nauwelijks voor bouwen. En de Wet van Cruijff zegt dat er ook nadelen aan zitten: uitbreidbaarheid is beperkt (qua HD's weet je precies wat de limieten zijn), maar ook qua functionaliteit. Je kunt er extra software op draaien, maar het is maar een heel zwak processortje en maar 256/512Mb geheugen. Er is iemand die PMS op een ReadyNAS aan de praat heeft gekregen,maar het transcoden van een film (dus het on the fly omzetten naar een ander formaat voor de PS3) is erg processor intensief. Volgens mij was het erg traag.

Ik ben zelf gegaan voor een zelfbouw NAS met om te beginnen 6 disks in RAID5. Als OS draai ik Ubuntu en daar kan ik redelijk goed mee overweg (en Google is your friend). Zo'n systeem biedt je maximale functionaliteit en uitbreidbaarheid: SABnzb en squeezebox draai ik erop en beheer doe ik met WebMin. Een kind kan de was doen. Maar ik gebruik 'm echt als dedicated serversysteem ergens in een kast. Als jij spelletjes wilt spelen op zo'n ding is Linux geen optie en moet je gewoon een multimedia pc bouwen en daar een dot schijven in rammen... Maar energiezuinig én kunnen gamen op zo'n ding zijn wel weer 2 dingen...videokaarten die daar geschikt voor zijn, staan niet bekend om hun energiezuinigheid.

So...make up your mind zou ik zeggen.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
mphilipp schreef op vrijdag 19 november 2010 @ 12:12:
[...]

Tsjaa...je wilt dus geen NAS maar een multi-media pc met veel opslag.
Wat NAS functionaliteit betreft zijn de kant-en-klare NASjes tot een disk of 4 niet te verslaan qua prijs, formaat en energieverbruik. Je kunt het er zelf nauwelijks voor bouwen. En de Wet van Cruijff zegt dat er ook nadelen aan zitten: uitbreidbaarheid is beperkt (qua HD's weet je precies wat de limieten zijn), maar ook qua functionaliteit. Je kunt er extra software op draaien, maar het is maar een heel zwak processortje en maar 256/512Mb geheugen. Er is iemand die PMS op een ReadyNAS aan de praat heeft gekregen,maar het transcoden van een film (dus het on the fly omzetten naar een ander formaat voor de PS3) is erg processor intensief. Volgens mij was het erg traag.

Ik ben zelf gegaan voor een zelfbouw NAS met om te beginnen 6 disks in RAID5. Als OS draai ik Ubuntu en daar kan ik redelijk goed mee overweg (en Google is your friend). Zo'n systeem biedt je maximale functionaliteit en uitbreidbaarheid: SABnzb en squeezebox draai ik erop en beheer doe ik met WebMin. Een kind kan de was doen. Maar ik gebruik 'm echt als dedicated serversysteem ergens in een kast. Als jij spelletjes wilt spelen op zo'n ding is Linux geen optie en moet je gewoon een multimedia pc bouwen en daar een dot schijven in rammen... Maar energiezuinig én kunnen gamen op zo'n ding zijn wel weer 2 dingen...videokaarten die daar geschikt voor zijn, staan niet bekend om hun energiezuinigheid.

So...make up your mind zou ik zeggen.
Ja het is een moeilijke keuze, vandaar dat ik ook een onboard videochip heb genomen die redelijk op medium settings simpele arcadespellen kan spelen. Moet er wel bijzeggen dat ik energiezuinigheid een belangrijk punt vind,belangrijker dan gamen.

Ok, misschien vraag teveel voor op dit moment en moet ik gaan wat ik het op dit moment het belangrijkste vind. De server moet:
1) Mijn gedownloade bestanden via usenet/bittorrent kunnen herbergen
2) Energiezuinig, ik wil in idle niet hoger dan 40-50W zitten.
3) Backup van (prive)bestanden van de computers op het netwerk.
4) Minder belangrijk, maar wel leuk...de mogelijkheid om de hdmi voor op de tv te gebruiken.
5) Iso bestanden kunnen branden die op de schijven staan.
6) PMS erop zetten is geen vereiste, maar wel een welkome aanvulling. Hiermee kun je werkelijk alles afspelen.

Een oplossing in mijn geval lijkt mij;
*Windows 7 installeren op een 2.5 hd of SSD
*4x 1,5TB schijven in RAID 10 plaatsen ipv RAID 5. Indien de controller kapot gaat, heb ik mijn data nog? :?
*Back-uppen van download bestanden met desktop (2TB)

Ik blijf hierdoor flexibel met allerlei programma's, aan en uitzetten zou ook via wake-up lan kunnen. Ik kan dan theoretisch alles doen, behalve echt gamen :*) .

Wat vinden jullie van mijn oplossing?Welke nadelen ga ik ondervinden? is het bijv met windows ook mogelijk via de webbrowser de NAS te bereiken of moet dat altijd via remote-desktop?


EDIT: Net gelezen, SABnzb is iig wel via webbrowser van windows te bereiken door elke compu in netwerk

[ Voor 3% gewijzigd door Sannieboy op 19-11-2010 13:12 ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

Sannieboy schreef op vrijdag 19 november 2010 @ 12:32:
[...]
Een oplossing in mijn geval lijkt mij;
*Windows 7 installeren op een 2.5 hd of SSD
*4x 1,5TB schijven in RAID 10 plaatsen ipv RAID 5. Indien de controller kapot gaat, heb ik mijn data nog? :?
*Back-uppen van download bestanden met desktop (2TB)

Ik blijf hierdoor flexibel met allerlei programma's, aan en uitzetten zou ook via wake-up lan kunnen. Ik kan dan theoretisch alles doen, behalve echt gamen :*) .

Wat vinden jullie van mijn oplossing?Welke nadelen ga ik ondervinden? is het bijv met windows ook mogelijk via de webbrowser de NAS te bereiken of moet dat altijd remote-desktop?
4x 1,5TB in RAID 10 geeft dus 3TB netto opslag. Als je het in RAID5 doet, heb je 1,5TB meer. En de (leessnelheid) is best ok. Schrijven is wat minder, maar als je een losse schijf erin doet waar je je downloads op binnen laat komen en op uitpakt enzo, kun je ze later naar de array verplaatsen.

Als je voor enige vorm van hardware raid kiest, zit je vaak gebonden aan die controller (heb ik begrepen). Gaat die controller stuk, moet je zo'n zelfde pakken om je data te kunnen benaderen. Dus vandaar dat software raid vaak word aanbevolen omdat je dan vrij bent in je controller keuze. Ik heb geen idee hoe goed software raid performed onder windows. Ik heb het onder Linux draaien en dat bevalt prima. Als je het beheer doet via WebMin, kan zelfs een verstokte Windows 'klikker' het werk doen (hoewel basis begrip van Linux wel handig is natuurlijk).

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
hmmm ik zit zelf ook met een leuke uitdaging. ik heb dus een el cheapo sata-150 controllertje gekocht om daarvan te booten. Echter ik krijg het via mijn moederbord dus met geen mogelijkheid voor elkaar om ervan te booten. Dus ik ben gaan kijken naar een simpel USB-stick ding met drivers om de schijf te laten herkennen. Verschillende bootddisks geprobeerd waaronder SGD, maar ook daar geen resultaat.

Ik zal dus moeten uitwijken naar een andere oplossing. Ik zie twee mogelijkheden:

1) een IDE HDD kopen zo goedkoop mogelijk. Daar Debian op installen en die 1TB die ik dus dan overheb via dat controllertje aansluiten als download / par / repair disk. 1TB is wellicht overkill maar dan gebruik ik die disk ook wel voor back-up.

2) een SATA-300 controllertje kopen. Dit was aanvankelijk ook de insteek van het opstellen van de server. Ik kwam daar eigenlijk toen al uit op de Supermicro AOC-SASLP-MV8. Het probleem zat hem daar weer in dat het ding niet ondersteund wordt in debian (of random disks dropped als er s.m.a.r.t. commando's worden losgelaten op de disks).

Voor de rest kan ik weinig betaalbare PCI-e (non sweex / trust / icudu) kaartjes vinden die me 1 of 2 Sata-300 poorten geven. Adaptec AAR-1220SA of Belkin SATA II 2-port PCI Express Card

Qua prijs maakt het niet veel verschil. voor een ide schijf betaal je ongeveer hetzelfde bedrag.

De vraag is dus wat zou het beste voor mijn performance van de raid zijn. 1) ik draai op IDE en 8 x sata van het mobo (raid 6 via mdadm) 2) ik draai het OS van een van de poorten op het mobo en plak 7 schijven op het mobo en 1 schijf via de controller.

Iemand die hier verheldering over kan geven perhaps?
Uhm.. Even voor de duidelijkheid... Mijn Host geeft ook gewoon 25% CPU usage aan bij het gebruik van 100% CPU in de VM zelf...(4 cores zichtbaar, 2 fysieke, 2 HT cores) Er word dus wel degelijk 100% gebruikt op 1 vCPU...

Even niets...


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
DJ-NaRRa schreef op vrijdag 19 november 2010 @ 13:16:
hmmm ik zit zelf ook met een leuke uitdaging. ik heb dus een el cheapo sata-150 controllertje gekocht om daarvan te booten. Echter ik krijg het via mijn moederbord dus met geen mogelijkheid voor elkaar om ervan te booten. Dus ik ben gaan kijken naar een simpel USB-stick ding met drivers om de schijf te laten herkennen. Verschillende bootddisks geprobeerd waaronder SGD, maar ook daar geen resultaat.

Ik zal dus moeten uitwijken naar een andere oplossing. Ik zie twee mogelijkheden:

1) een IDE HDD kopen zo goedkoop mogelijk. Daar Debian op installen en die 1TB die ik dus dan overheb via dat controllertje aansluiten als download / par / repair disk. 1TB is wellicht overkill maar dan gebruik ik die disk ook wel voor back-up.

2) een SATA-300 controllertje kopen. Dit was aanvankelijk ook de insteek van het opstellen van de server. Ik kwam daar eigenlijk toen al uit op de Supermicro AOC-SASLP-MV8. Het probleem zat hem daar weer in dat het ding niet ondersteund wordt in debian (of random disks dropped als er s.m.a.r.t. commando's worden losgelaten op de disks).

Voor de rest kan ik weinig betaalbare PCI-e (non sweex / trust / icudu) kaartjes vinden die me 1 of 2 Sata-300 poorten geven. Adaptec AAR-1220SA of Belkin SATA II 2-port PCI Express Card

Qua prijs maakt het niet veel verschil. voor een ide schijf betaal je ongeveer hetzelfde bedrag.

De vraag is dus wat zou het beste voor mijn performance van de raid zijn. 1) ik draai op IDE en 8 x sata van het mobo (raid 6 via mdadm) 2) ik draai het OS van een van de poorten op het mobo en plak 7 schijven op het mobo en 1 schijf via de controller.

Iemand die hier verheldering over kan geven perhaps?
Waarom gebruik je niet gewoon een externe hardschijf? Via usb of esata (als je die nog vrij hebt)?
Sannieboy schreef op vrijdag 19 november 2010 @ 15:18:
[...]


Waarom gebruik je niet gewoon een externe hardschijf? Via usb of esata (als je die nog vrij hebt)?
Nog simpeler: Compile een kernel (met driver support) op een micro 1GB usb stickje, en zet daar /root op, maar laat / op die 1TB disk op je SATA150 controllertje staan.

Na boot is gewoon je hele systeem operationeel..
Daarna kan je in bijv /media/data je array mounten...

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Sannieboy schreef op vrijdag 19 november 2010 @ 15:18:
[...]
Waarom gebruik je niet gewoon een externe hardschijf? Via usb of esata (als je die nog vrij hebt)?
Omdat een USB interface geen snelle throughput kan genereren (60 / 120 mb/sec) terwijl een SATA II poort op 300 mb/sec kan opereren (voor zover de schijf dat aankan natuurlijk).

Esata zit niet op mijn moederbord. Ik heb wel usb 3 op mijn moederbord zitten maar daar kan hij niet vanaf booten. anders was dat wellicht een optie geweest.
FireDrunk schreef op vrijdag 19 november 2010 @ 16:20:
[...]


Nog simpeler: Compile een kernel (met driver support) op een micro 1GB usb stickje, en zet daar /root op, maar laat / op die 1TB disk op je SATA150 controllertje staan.

Na boot is gewoon je hele systeem operationeel..
Daarna kan je in bijv /media/data je array mounten...
Daar ben ik dus mee bezig geweest in de vorm van een SGD usb diskje. maar dat is helaas niet gelukt omdat mijn linux kennis beperkt is (denk ik). Heb je wellicht een source waar ik zie hoe ik een kernel kan compilen met driver support? dan kan ik proberen zelf wat te knutselen.... ik houd wel van een uitdaging en wat aanprutsen en bovendien is het goed voor de ontwikkeling van mijn kennis betreffende linux.

of kan ik dit ook zo ook in de installer inrichten? dan kan ik dat nog proberen.

[ Voor 45% gewijzigd door DJ-NaRRa op 19-11-2010 16:26 ]

Het compilen van een custom kernel is alleen nodig als de kaart echt helemaal niet gesupport is. Als alleen het boot gedeelte niet werkt, kan je met een gewone kernel vooruit. Jou BIOS laad namelijk de kernel van je USB stick, en de kernel laad zijn / partitie van de controller. Als de controller echt niet standaard gesupport is, word het nog wel lastig om zoiets te compilen... :)

Je zou Gentoo kunnen gebruiken. Omdat je daar sowieso je eigen kernel compiled zijn er heel erg veel handleidingen te vinden hoe je je eigen drivers integreert in de kernel.

Alleen Linux installeren op USB stick met als / partitie een vaste disk, is piece-of-cake, dat kan ik je zo uitleggen.

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op vrijdag 19 november 2010 @ 16:33:
Het compilen van een custom kernel is alleen nodig als de kaart echt helemaal niet gesupport is. Als alleen het boot gedeelte niet werkt, kan je met een gewone kernel vooruit. Jou BIOS laad namelijk de kernel van je USB stick, en de kernel laad zijn / partitie van de controller. Als de controller echt niet standaard gesupport is, word het nog wel lastig om zoiets te compilen... :)

Je zou Gentoo kunnen gebruiken. Omdat je daar sowieso je eigen kernel compiled zijn er heel erg veel handleidingen te vinden hoe je je eigen drivers integreert in de kernel.

Alleen Linux installeren op USB stick met als / partitie een vaste disk, is piece-of-cake, dat kan ik je zo uitleggen.
Ik heb wel gewoon Debian kunnen installeren naar de HDD aangesloten op de controller (via een netinstall usb) dus de stable debian kernel zou het moeten supporten.

Ik ga eerst wel even de installer overnieuw doen en kijken of ik /root op een andere schijf(USB) krijg weggezet en de rest op die andere hdd. mocht ik er niet zelf uitkomen is het goed dat ik dan even contact met je opneem. Ik wil het topic niet onnodig vervuilen.
Ik maak trouwens een grove fout... Het is niet /root, maar /boot :)
/root is de homedrive van je root username :P

USB dev -> /boot
1TB op Sata controller -> /

Mocht dat niet werken.
Hier nog wat leesvoer:

https://help.ubuntu.com/community/Kernel/Compile
http://www.cyberciti.biz/...-linux-kernel-module.html

Het lijkt ingewikkeld, maar valt achteraf best mee.

PS: Ja tuurlijk mag je contact met mij opnemen. Maar ik vind persoonlijk niet dat we het topic vervuilen.
USB Boot inclusief custom kernel om SATA controllers te ondersteunen past best in dit topic ;)

[ Voor 20% gewijzigd door FireDrunk op 19-11-2010 16:54 ]

Even niets...


  • Q
  • Registratie: November 1999
  • Laatst online: 16:59
Verwijderd schreef op woensdag 17 november 2010 @ 14:24:
[...]

Nee hoor je kunt 2Gbps behalen van PC1 naar PC2 met een normale switch van 30 euro en twee realtek gigabit kaartjes en wat kabels ertussen; software doet de rest! Is ook niet zo vreemd, we sturen immers al meerdere pakketjes en hebben een TCP window size; nu hebben we gewoon twee interfaces met hetzelfde ARP-adres en we versturen en ontvangen pakketjes gewoon round-robin. Dit vereist dus geen compatible managed switches die LACP ondersteunen; ik hou niet van proprietaire rommel, maar wel van koele gratis opensource techniek die 1000% beter werkt dan proprietary.

Overigens onder Windows zou dit ook moeten kunnen met de proprietary Intel Server adapter drivers; maar deze functie is niet beschikbaar voor mensen met desktop adapters; lekker slim weer!

Voor een meerprijs van 20 euro (2 realtek kaartjes; 1 in client, 1 in server) is dit best een leuke investering. Maar tenzij je honderden euros aan windows uit gaat geven werkt dit truucje alleen onder Linux/BSD.
Mijn ervaring over de jaren heen is dat het niet werkt. Ik krijg Linux interface bonding met round-robin niet boven de gigabit.

Pas met een combinatie van LACP en round robin lukte het om 150 MB/s. te halen. Iets wat nog wel beter mag.

Ik zou wel eens willen zien dat iemand Linux Bonding met Round Robin ook echt 2 GB/s haalt.

Ik hoop dat lightpath oid of 10GB ethernet op korte termijn betaalbaar wordt.

code:
1
2
3
4
5
6
7
8
root@Core-i7-Linux:~# iperf -c 10.0.0.10
------------------------------------------------------------
Client connecting to 10.0.0.10, TCP port 5001
TCP window size: 16.0 KByte (default)
------------------------------------------------------------
[  3] local 10.0.0.41 port 43850 connected with 10.0.0.10 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  1.87 GBytes  1.60 Gbits/sec


Dit is btw wel 200 megabytes /s ruwe tcp/ip over de lijn. Toch wel koel.

[ Voor 15% gewijzigd door Q op 19-11-2010 21:48 ]


  • redfoxert
  • Registratie: December 2000
  • Niet online
Ik heb eindelijk ook maar eens mijn zooi opgeruimd en wat fotoos gemaakt voor jullie plezier.

Wat je hier ziet is het volgende:
  • CoolerMaster 590 kast met 2 extra 4in3 modules tbv harddisks.
  • 3x SAS 15k RPM 146G in RAID5 voor OS etc
  • 2x WD Green 1TB (RAID0 voor temp/random storage, alles wat hierop staat en belangrijk is word een backup van gemaakt zodra er iets verandert met CrashPlan, online en naar USB disk).
  • 3x WD Green 2TB los, dus per disk, geconfigureerd ivm het gebrek aan TLER settings. Sowieso heb ik geen snelheid nodig op die disken want er staan toch alleen maar HD movies en series op. Puur storage dus.
  • Dell PERC5/i SAS/SATA RAID controller met 256MB cache+BBU. Hieraan hangen de 1TB schijven en de SAS schijven. Controller word extra gekoeld door een casefan in het sidepanel. Maakt tevens ook het meeste lawaai van de hele server :)
  • Asus P5Q-EM met daarop een Intel E6300 (nieuwe 2.8Ghz versie) en 4x2GB Kingston geheugen.
  • Intel PCI-X Dual GBIT NIC. Helaas geen PCI-e sloten dus dan maar die er in. De onboard Realtek wilde ik vermijden.
  • Windows Server 2008 Enterprise R2 (handig, dat Technet :) )
Deze server word gebruikt om met SABnzbd te downloaden en parren/unrarren. Daarnaast draait er nog een ftp server op, een WSUS server, MDT2010 en nog wat random meuk wat je vaak in een Windows netwerk tegenkomt.

Dan hebben we nog dit lieve beestje:
  • Dell PowerEdge 2950 2U Server Chassis
  • 2x Dual Core Xeon 5130 2.0Ghz
  • 8x 1GB DDR2 FB-DIMM
  • 2x 300GB 10k RPM SAS RAID0
  • 4x 73GB 15k RPM SAS RAID5
  • 1x Intel PCI-e 1000/PT Dual GBIT NIC, naast de 2 onboard GBIT controllers
  • Dell PERC5/i SAS/SATA RAID controller met 256MB cache+BBU
  • VMWare ESXi 4.1.nogwat
Dit alles hangt aan een Linksys SLM2008, 8 poorts managed gbit switch. Deze hangt weer aan de SLM2008 in de meterkast die via de kruipruimte aan mn D-Link DIR-855 in de woonkamer zit. Dan loopt er nog een gbit touwtje naar de aanbouw alwaar ik samen met mijn vriendin onze buro's heb staan, waar ook weer een SLM2008 aan hangt :) In de meterkast komen de overige gbit kabels uit het huis binnen (ouder slaapkamer, slaapkamer dochter, voorbereiding baby kamer en 2 aansluitingen op zolder).

De Dell PE2950 gebruik ik als testbak om mee te rotzooien en rommelen, vandaar RAID0. Als er iets mis gaat, jammer dan :) Via MDT2010 op mn storage bak installeer ik in een uurtje als het moet 10 nieuwe servers. Deze staat ook niet vaak aan, gelukkig. Ding maakt best wat lawaai nog maar aangezien het hele zaakje toch in de kelder staat is dat niet zo heel erg. Lawaai hoor ik niet en het is er over het algemeen altijd wel lekker koel.

Klein overzichtje nog ter afsluiting. De oude systemen en systeemkasten naast de monitor moet ik nog uitzoeken/repareren/opruimen/naar het stort brengen. En de rest van de kelder verdient ook wel weer een opruimbeurt dacht ik :)

Edit: 4 poorts VGA KVM switch vergeten.

[ Voor 4% gewijzigd door redfoxert op 20-11-2010 01:29 ]

https://discord.com/invite/tweakers


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

redfoxert schreef op zaterdag 20 november 2010 @ 01:25:
Ik heb eindelijk ook maar eens mijn zooi opgeruimd en wat fotoos gemaakt voor jullie plezier.

Wat je hier ziet is het volgende:
  • CoolerMaster 590 kast met 2 extra 4in3 modules tbv harddisks.
  • 3x SAS 15k RPM 146G in RAID5 voor OS etc
  • 2x WD Green 1TB (RAID0 voor temp/random storage, alles wat hierop staat en belangrijk is word een backup van gemaakt zodra er iets verandert met CrashPlan, online en naar USB disk).
  • 3x WD Green 2TB los, dus per disk, geconfigureerd ivm het gebrek aan TLER settings. Sowieso heb ik geen snelheid nodig op die disken want er staan toch alleen maar HD movies en series op. Puur storage dus.
  • Dell PERC5/i SAS/SATA RAID controller met 256MB cache+BBU. Hieraan hangen de 1TB schijven en de SAS schijven. Controller word extra gekoeld door een casefan in het sidepanel. Maakt tevens ook het meeste lawaai van de hele server :)
  • Asus P5Q-EM met daarop een Intel E6300 (nieuwe 2.8Ghz versie) en 4x1GB Corsair geheugen.
  • Intel PCI-X Dual GBIT NIC. Helaas geen PCI-e sloten dus dan maar die er in. De onboard Realtek wilde ik vermijden.
  • Windows Server 2008 Enterprise R2 (handig, dat Technet :) )
Deze server word gebruikt om met SABnzbd te downloaden en parren/unrarren. Daarnaast draait er nog een ftp server op, een WSUS server, MDT2010 en nog wat random meuk wat je vaak in een Windows netwerk tegenkomt.

Dan hebben we nog dit lieve beestje:
  • Dell PowerEdge 2950 2U Server Chassis
  • 2x Dual Core Xeon 5130 2.0Ghz
  • 8x 1GB DDR2 FB-DIMM
  • 2x 300GB 10k RPM SAS RAID0
  • 4x 73GB 15k RPM SAS RAID5
  • 1x Intel PCI-e 1000/PT Dual GBIT NIC, naast de 2 onboard GBIT controllers
  • Dell PERC5/i SAS/SATA RAID controller met 256MB cache+BBU
  • VMWare ESXi 4.1.nogwat
Dit alles hangt aan een Linksys SLM2008, 8 poorts managed gbit switch. Deze hangt weer aan de SLM2008 in de meterkast die via de kruipruimte aan mn D-Link DIR-855 in de woonkamer zit. Dan loopt er nog een gbit touwtje naar de aanbouw alwaar ik samen met mijn vriendin onze buro's heb staan, waar ook weer een SLM2008 aan hangt :) In de meterkast komen de overige gbit kabels uit het huis binnen (ouder slaapkamer, slaapkamer dochter, voorbereiding baby kamer en 2 aansluitingen op zolder).

De Dell PE2950 gebruik ik als testbak om mee te rotzooien en rommelen, vandaar RAID0. Als er iets mis gaat, jammer dan :) Via MDT2010 op mn storage bak installeer ik in een uurtje als het moet 10 nieuwe servers. Deze staat ook niet vaak aan, gelukkig. Ding maakt best wat lawaai nog maar aangezien het hele zaakje toch in de kelder staat is dat niet zo heel erg. Lawaai hoor ik niet en het is er over het algemeen altijd wel lekker koel.

Klein overzichtje nog ter afsluiting. De oude systemen en systeemkasten naast de monitor moet ik nog uitzoeken/repareren/opruimen/naar het stort brengen. En de rest van de kelder verdient ook wel weer een opruimbeurt dacht ik :)

Edit: 4 poorts VGA KVM switch vergeten.
Ziet er goed uit :P :D

Wat is de bedoeling opslag en spellen?

  • redfoxert
  • Registratie: December 2000
  • Niet online
DJ-Visto schreef op zaterdag 20 november 2010 @ 01:29:
[...]

Ziet er goed uit :P :D

Wat is de bedoeling opslag en spellen?
Opslag van films en series voornamelijk. Spellen speel ik naast WoW, Diablo en SC2 niet veel. Meestal alleen om wat uit te proberen ofzo maar dat kan me nooit zo lang boeien :)

https://discord.com/invite/tweakers


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

redfoxert schreef op zaterdag 20 november 2010 @ 01:31:
[...]


Opslag van films en series voornamelijk. Spellen speel ik naast WoW, Diablo en SC2 niet veel. Meestal alleen om wat uit te proberen ofzo maar dat kan me nooit zo lang boeien :)
Waarom dan een dual dualcore systeem? O-)

  • redfoxert
  • Registratie: December 2000
  • Niet online
DJ-Visto schreef op zaterdag 20 november 2010 @ 01:34:
[...]

Waarom dan een dual dualcore systeem? O-)
Die dual Xeon server is voor mn ESXi hobby/werk :) Daar staat niks bijzonders op. Ik ben via mn werk aan dat ding gekomen. Hij was "uit dienst" zeg maar en anders ging het hele zaakje naar de stort :( Dus ik heb mezelf maar opgeofferd om als pleegvader te spelen van het ding.

[ Voor 28% gewijzigd door redfoxert op 20-11-2010 01:36 ]

https://discord.com/invite/tweakers


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

redfoxert schreef op zaterdag 20 november 2010 @ 01:35:
[...]


Die dual Xeon server is voor mn ESXi hobby/werk :) Daar staat niks bijzonders op. Ik ben via mn werk aan dat ding gekomen. Hij was "uit dienst" zeg maar en anders ging het hele zaakje naar de stort :( Dus ik heb mezelf maar opgeofferd om als pleegvader te spelen van het ding.
Speelgoed is het dus vooral, ik was gewoon benieuwd, bij mij is het 100% speelgoed, en daadwerkelijk wel leuk film/foto/share enzo :)

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 20-12 23:24

Quindor

Switching the universe....

Q schreef op vrijdag 19 november 2010 @ 21:30:
[...]


Mijn ervaring over de jaren heen is dat het niet werkt. Ik krijg Linux interface bonding met round-robin niet boven de gigabit.

Pas met een combinatie van LACP en round robin lukte het om 150 MB/s. te halen. Iets wat nog wel beter mag.

Ik zou wel eens willen zien dat iemand Linux Bonding met Round Robin ook echt 2 GB/s haalt.

Ik hoop dat lightpath oid of 10GB ethernet op korte termijn betaalbaar wordt.

code:
1
2
3
4
5
6
7
8
root@Core-i7-Linux:~# iperf -c 10.0.0.10
------------------------------------------------------------
Client connecting to 10.0.0.10, TCP port 5001
TCP window size: 16.0 KByte (default)
------------------------------------------------------------
[  3] local 10.0.0.41 port 43850 connected with 10.0.0.10 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  1.87 GBytes  1.60 Gbits/sec


Dit is btw wel 200 megabytes /s ruwe tcp/ip over de lijn. Toch wel koel.
Hmm, dat klinkt als gevaarlijke zooi! Dat je hier thuis mee experimenteert, prima, maar ga dit aub NOOIT op een lanparty of welk ander netwerk dan ook doen.

Round-robin TCP/IP is een eigen brouwsel en is NIET RFC compliant. En veroorzaakt naar mijn mening alleen maar meer problemen dan het oplost. Voor iSCSI is het wel toegestaan.

Voor bonding/trunking/etherchanne/LACP/802.3ad/802.1AX geld allemaal : Van 1 naar 1 is altijd 1. Ook al hebben beide hosts elk 4 netwerk touwtjes. Dit komt omdat je altijd een ontvangende en verzendende MAC hebt. In principe mag verkeer niet spontaan van MAC veranderen (een goede switch schiet je hier keihard voor af). Welke kaart er gebruikt word, word bepaald via een hash algoritme, tegenwoordig meestal op basis van IP hashes.

Daarom is default trunking/bonding ook altijd alleen upload load balancing. De versturende kant kan dan zelf kiezen met welke MAC hij connectie maakt met het vragende systeem. Met de vragende kant is dat wat moeilijker en download load-balancing heeft dan ook medewerking van een switch nodig in de vorm van een static trunk of 802.3ad/802.1AX.

Nogmaals, erg hobbybob oplossing, niet supported en ook ZEKER niet aan te raden. Helaas zul je daarvoor naar 10Gbit moeten.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED

Quindor schreef op zaterdag 20 november 2010 @ 01:44:
[...]

Hmm, dat klinkt als gevaarlijke zooi! Dat je hier thuis mee experimenteert, prima, maar ga dit aub NOOIT op een lanparty of welk ander netwerk dan ook doen.

Round-robin TCP/IP is een eigen brouwsel en is NIET RFC compliant. En veroorzaakt naar mijn mening alleen maar meer problemen dan het oplost. Voor iSCSI is het wel toegestaan.

Voor bonding/trunking/etherchanne/LACP/802.3ad/802.1AX geld allemaal : Van 1 naar 1 is altijd 1. Ook al hebben beide hosts elk 4 netwerk touwtjes. Dit komt omdat je altijd een ontvangende en verzendende MAC hebt. In principe mag verkeer niet spontaan van MAC veranderen (een goede switch schiet je hier keihard voor af). Welke kaart er gebruikt word, word bepaald via een hash algoritme, tegenwoordig meestal op basis van IP hashes.

Daarom is default trunking/bonding ook altijd alleen upload load balancing. De versturende kant kan dan zelf kiezen met welke MAC hij connectie maakt met het vragende systeem. Met de vragende kant is dat wat moeilijker en download load-balancing heeft dan ook medewerking van een switch nodig in de vorm van een static trunk of 802.3ad/802.1AX.

Nogmaals, erg hobbybob oplossing, niet supported en ook ZEKER niet aan te raden. Helaas zul je daarvoor naar 10Gbit moeten.
Je hebt helemaal gelijk :) Daarom kan IPerf ook testen met meerdere threads toch? :P

Even niets...


  • Q
  • Registratie: November 1999
  • Laatst online: 16:59
Storage porno
Voor de data-opslag worden grotendeels servers van DataDirect met 80 slots voor harde schijven gebruikt, elk met 2TB opslag. Met raid-6 worden de schijven gegroepeerd en als scsci-targets aan Dell PowerEdge-servers aangeboden. De verbinding tussen de harde schijven en de PowerEdge-servers geschiedt via InfiniBand. Als bestandssystemen worden xfs voor de opslag en ext3 voor het besturingssysteem gebruikt.

Dat betekent dat elke server over 160 terabyte ruimte beschikt. Alle bestandssystemen zijn als xfs en ext3 geformatteerd, terwijl de schijven in raid-6 staan opgesteld. Een kleiner deel van de servers komt van Sun en heeft sata-schijven van 500GB aan boord, eveneens in raid-6 opgesteld. De totale opslagruimte op harddisk van Nikhef en SARA komt hiermee uit op vier petabyte. SARA beschikt ook nog over tape-opslag.
Uit het tweakers artikel over Grid computing.

  • Q
  • Registratie: November 1999
  • Laatst online: 16:59
Quindor schreef op zaterdag 20 november 2010 @ 01:44:
[...]

Hmm, dat klinkt als gevaarlijke zooi! Dat je hier thuis mee experimenteert, prima, maar ga dit aub NOOIT op een lanparty of welk ander netwerk dan ook doen.

Round-robin TCP/IP is een eigen brouwsel en is NIET RFC compliant. En veroorzaakt naar mijn mening alleen maar meer problemen dan het oplost. Voor iSCSI is het wel toegestaan.

Voor bonding/trunking/etherchanne/LACP/802.3ad/802.1AX geld allemaal : Van 1 naar 1 is altijd 1. Ook al hebben beide hosts elk 4 netwerk touwtjes. Dit komt omdat je altijd een ontvangende en verzendende MAC hebt. In principe mag verkeer niet spontaan van MAC veranderen (een goede switch schiet je hier keihard voor af). Welke kaart er gebruikt word, word bepaald via een hash algoritme, tegenwoordig meestal op basis van IP hashes.

Daarom is default trunking/bonding ook altijd alleen upload load balancing. De versturende kant kan dan zelf kiezen met welke MAC hij connectie maakt met het vragende systeem. Met de vragende kant is dat wat moeilijker en download load-balancing heeft dan ook medewerking van een switch nodig in de vorm van een static trunk of 802.3ad/802.1AX.

Nogmaals, erg hobbybob oplossing, niet supported en ook ZEKER niet aan te raden. Helaas zul je daarvoor naar 10Gbit moeten.
Ik kreeg het ook alleen aan de praat met een managed switch, waarbij je twee gigabit poorten in een trunk stopt tot een virtueel 2 gigabit kanaal. Als ik dat uit zette voor de client, dan werkte het niet meer.

Je wilt voor een file transfer tussen twee machines gewoon 1 commando geven en dan genieten van de volle snelheid. Maar het lukt al sowieso niet met de hardware die ik nu heb, mijn oude storage server.

De enige reden die ik eigenlijk heb om zoveel performance te willen is voor de mogelijkheid om grote hoeveelheden data snel over te zetten van server x naar server y mocht dat nodig zijn. Met meerdere terrabytes aan data duurt een kopieer actie nu meerdere uren. Gigabit is gewoon de limiterende factor.

Maar zoiets is eigenlijk alleen relevant bij storingen of bij een migratie naar nieuwe hardware, dus wat boeit het ook eigenlijk.

  • Q
  • Registratie: November 1999
  • Laatst online: 16:59
redfoxert schreef op zaterdag 20 november 2010 @ 01:35:
[...]


Die dual Xeon server is voor mn ESXi hobby/werk :) Daar staat niks bijzonders op. Ik ben via mn werk aan dat ding gekomen. Hij was "uit dienst" zeg maar en anders ging het hele zaakje naar de stort :( Dus ik heb mezelf maar opgeofferd om als pleegvader te spelen van het ding.
De specs zijn nog uitstekend voor VMware dus super. Als je een plekje hebt waar hij niet tot last is. Prima. tof!

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
Heren,

Heb een paar dagen geleden al een post geplaatst over het systeempje dat ik binnenkrijg.

#ProductPrijsSubtotaal
1Samsung EcoGreen F3 HD153WI , 1.5TB€ 59,-€ 59,-
1Sony Optiarc AD-7260S Zwart€ 16,99€ 16,99
1Lian Li PC-Q08B€ 90,-€ 90,-
1Intel Core i3 540€ 89,-€ 89,-
1be quiet! L7 350W€ 37,25€ 37,25
1Kingston ValueRAM KVR1333D3N9/2G€ 23,56€ 23,56
1Jetway NC97R-LF MINI-ITX€ 137,60€ 137,60
Bekijk collectie
Importeer producten
Totaal€ 453,40


Ik twijfel nu heel erg over de Yetway moederbord, heeft wel 5 sata aanlsuitingen plus onboard Raid. Maar het onboard gebruiken van de Raid schijnt niet te beste oplossing te zijn.

Vanuitgaande dat ik 4 schijven in Raid 10 ga zetten, heb ik alvast 4 bezette sata poorten. Verder wil ik ook 1 laptopschijf voor de OS en 1 voor de brander. Dus zou ik 6 sata poorten nodig hebben.

De Zotac H55ITX-C-E, heeft geen RAID maar wel 6 Sata poorten onboard en usb 3.0.

Gewoon gaan voor de Zotac (H55) neem ik aan? Of heeft die onboard Raid 10(H57) van de Yetway toch nog toegevoegde waarde? O-) Ik kan bijvoorbeeld via usb of esata ook een stick of schijf voor de OS gebruiken.
Hoe vaak heb je de brander nodig? Alleen voor OS installatie? Of echt vaker?

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Sannieboy schreef op zaterdag 20 november 2010 @ 16:20:
Heren,

Heb een paar dagen geleden al een post geplaatst over het systeempje dat ik binnenkrijg.

#ProductPrijsSubtotaal
1Samsung EcoGreen F3 HD153WI , 1.5TB€ 59,-€ 59,-
1Sony Optiarc AD-7260S Zwart€ 16,99€ 16,99
1Lian Li PC-Q08B€ 90,-€ 90,-
1Intel Core i3 540€ 89,-€ 89,-
1be quiet! L7 350W€ 37,25€ 37,25
1Kingston ValueRAM KVR1333D3N9/2G€ 23,56€ 23,56
1Jetway NC97R-LF MINI-ITX€ 137,60€ 137,60
Bekijk collectie
Importeer producten
Totaal€ 453,40


Ik twijfel nu heel erg over de Yetway moederbord, heeft wel 5 sata aanlsuitingen plus onboard Raid. Maar het onboard gebruiken van de Raid schijnt niet te beste oplossing te zijn.

Vanuitgaande dat ik 4 schijven in Raid 10 ga zetten, heb ik alvast 4 bezette sata poorten. Verder wil ik ook 1 laptopschijf voor de OS en 1 voor de brander. Dus zou ik 6 sata poorten nodig hebben.

De Zotac H55ITX-C-E, heeft geen RAID maar wel 6 Sata poorten onboard en usb 3.0.

Gewoon gaan voor de Zotac (H55) neem ik aan? Of heeft die onboard Raid 10(H57) van de Yetway toch nog toegevoegde waarde? O-) Ik kan bijvoorbeeld via usb of esata ook een stick of schijf voor de OS gebruiken.
ben je er al uit welk OS je er op wilt draaien? als je een linux / freebsd (freenas) wilt installeren dan heb je die onboard raid functies niet nodig. Als je windows wilt gaan draaien denk ik dat je echt beter af bent met een echte raid kaart met eigen bios en echte hardware raid i.p.v. fakeraid wat er op die bordjes zit.

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
FireDrunk schreef op zaterdag 20 november 2010 @ 16:27:
Hoe vaak heb je de brander nodig? Alleen voor OS installatie? Of echt vaker?
Nou waarschijnlijk wil ook af en toe een filmpje via de NAS bekijken. Ook branden van iso files (dvd films).
Ik zat net ook wat over dual boot configuratie te lezen: Windows en Ubuntu.
Je kunt zelfs Raid 10 gebruiken met dualboot (Vista), wel interessant >:)

Lijkt mij wel handig om dan bijvoorbeeld om alle windows zooi af te lezen via de brander.
Ook een beetje esthetisch, gebruik ik de Lian optimaal ;)

[ Voor 5% gewijzigd door Sannieboy op 20-11-2010 17:12 ]


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
DJ-NaRRa schreef op zaterdag 20 november 2010 @ 16:53:
[...]


ben je er al uit welk OS je er op wilt draaien? als je een linux / freebsd (freenas) wilt installeren dan heb je die onboard raid functies niet nodig. Als je windows wilt gaan draaien denk ik dat je echt beter af bent met een echte raid kaart met eigen bios en echte hardware raid i.p.v. fakeraid wat er op die bordjes zit.
Precies, hoe je het went of keert, de onboard raid ga ik niet gebruiken....het wordt software en misschien later hardware RAID.
Zelf twijfel ik nogsteeds tussen windows en Linux/Freebsd :o ... ik zat net te lezen over dualboot, is dat geen optie voor mij?

Dus conclusie iig, snel dat yetway bordje inruilen voor de zotac, ben ik ook tenminste voorbereid op usb 3.0 8). De Zotac heeft geen vga aansluiting zie ik helaas, dus nu moet ik maar via de tv werken..

[ Voor 8% gewijzigd door Sannieboy op 20-11-2010 17:21 ]


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
Ff fyi:

http://www.ehow.com/how_4...u-windows-vista-raid.html

http://www.howtoforge.com...-on-raid10-ubuntu-windows

linkjes over dualboot


Edit: Na even verder te lezen, zie ik dat je juist fake raid nodig hebt om de dualboot in raid 10 uit te voeren 8)7

[ Voor 52% gewijzigd door Sannieboy op 20-11-2010 17:27 ]


  • redfoxert
  • Registratie: December 2000
  • Niet online
Sannieboy schreef op zaterdag 20 november 2010 @ 17:10:
[...]


Nou waarschijnlijk wil ook af en toe een filmpje via de NAS bekijken. Ook branden van iso files (dvd films).
Ik zat net ook wat over dual boot configuratie te lezen: Windows en Ubuntu.
Je kunt zelfs Raid 10 gebruiken met dualboot (Vista), wel interessant >:)

Lijkt mij wel handig om dan bijvoorbeeld om alle windows zooi af te lezen via de brander.
Ook een beetje esthetisch, gebruik ik de Lian optimaal ;)
Film? Die zet je toch wel als image op je NAS mag ik hopen. En installeren zou ik gewoon lekker vanaf een USB stick ofzo doen. Die DVD brander staat 99% van de tijd niks te doen.

https://discord.com/invite/tweakers


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:35

mphilipp

Romanes eunt domus

redfoxert schreef op zaterdag 20 november 2010 @ 17:41:
[...]
Die DVD brander staat 99% van de tijd niks te doen.
Maar het is wel weer zo goedkoop dat het nauwelijks boeit. Erover praten is al te duur, zeg maar.
DVD is gewoon een soort floppy drive geworden. In mijn NAS zit er ook een, in case ik bv zou willen rippen via de NAS of een keer wat branden.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

Q schreef op vrijdag 19 november 2010 @ 21:30:
[...]


Mijn ervaring over de jaren heen is dat het niet werkt. Ik krijg Linux interface bonding met round-robin niet boven de gigabit.

Pas met een combinatie van LACP en round robin lukte het om 150 MB/s. te halen. Iets wat nog wel beter mag.

Ik zou wel eens willen zien dat iemand Linux Bonding met Round Robin ook echt 2 GB/s haalt.

Ik hoop dat lightpath oid of 10GB ethernet op korte termijn betaalbaar wordt.

code:
1
2
3
4
5
6
7
8
root@Core-i7-Linux:~# iperf -c 10.0.0.10
------------------------------------------------------------
Client connecting to 10.0.0.10, TCP port 5001
TCP window size: 16.0 KByte (default)
------------------------------------------------------------
[  3] local 10.0.0.41 port 43850 connected with 10.0.0.10 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  1.87 GBytes  1.60 Gbits/sec


Dit is btw wel 200 megabytes /s ruwe tcp/ip over de lijn. Toch wel koel.
Is dit gedaan met een onboard kaart en een intel? +failover? Ik moet mijn ESXi bak ook nog netjes op 2Gbps maken, maar dan mag mijn fileserver ook gelijk wel mee.. Kan je is wat configs (inc. switch?, ik heb ook HP). Is droppen?
Ik hoop binnenkort mijn handen te leggen op een paar Dual Port Intel NIC's en dan zal ik daar ook eens mee aan de slag gaan :) ( Windows 7 <-> Windows 2008 R2 )

Even niets...


  • redfoxert
  • Registratie: December 2000
  • Niet online
FireDrunk schreef op maandag 22 november 2010 @ 08:06:
Ik hoop binnenkort mijn handen te leggen op een paar Dual Port Intel NIC's en dan zal ik daar ook eens mee aan de slag gaan :) ( Windows 7 <-> Windows 2008 R2 )
Ik heb er nog een paar in de aanbieding mocht je interesse hebben :) Zie mijn advertentie in de V&A.

https://discord.com/invite/tweakers

redfoxert schreef op maandag 22 november 2010 @ 08:21:
[...]


Ik heb er nog een paar in de aanbieding mocht je interesse hebben :) Zie mijn advertentie in de V&A.
Aardig aangeboden, maar ik hoop ze iets goedkoper te krijgen :P (Als in gratis :P )

Even niets...


  • redfoxert
  • Registratie: December 2000
  • Niet online
FireDrunk schreef op maandag 22 november 2010 @ 08:35:
[...]


Aardig aangeboden, maar ik hoop ze iets goedkoper te krijgen :P (Als in gratis :P )
Tjah daar kan geen enkele verkoper tegen op helaas :) Succes!

https://discord.com/invite/tweakers


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
@Firedrunk:

Ik heb je voor het weekend een mail gestuurd waarin ik de problemen beschrijf die ik had met de installatie. Deze mag je in principe negeren. Ik ben dit weekend al een stuk verder gekomen met de installatie. Na veel gekloot bleek 1 USB stick niet helemaal lekker te zijn. Nieuwe gekocht en daarop werkt het beter.

Debian is nu geinstalleerd maar wil nog niet booten. Dit krijg ik vermoedelijk zelf wel opgelost. Toch bedankt voor de oplossingsrichting die je aan hebt gedragen :)

on-topic:

Het geeft stiekem toch best een kick als je de properties van je raidvolume opvraagt en daar 12TB beschikbaar ziet :D O-)
I know the feeling :P

Even niets...


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
Heren, kreeg net te horen dat ik de moederbord mag ruilen: Heb nu de Yetway met 5 sata poorten, Raid onboard, 1xesata en o.a Vga aansluiting.

Ik kan gaan voor de Zotac: 6 sata poorten,1x esata, 2xusb3.0, zonder Raid.

Er komen in het kastje: 4 schijven in Raid (software), 1 schijf voor OS, 1 dvd brander. Dus ik zou in principe 6 sata poorten nodig hebben. Maar ik kan natuurlijk ook de esata of usb op 1 of ander gebruiken voor de OS of brander.--> het wordt Server/NAS/Multimediapparaat om af en toe een dvdthe te branden /spelen.

Raid onboard ga ik waarschijnlijk niet gebruiken, maar de vga aansluiting is toch wel handig denk ik. Anders moet ik via de tv werken, niet onoverkomelijk, maar wel minder handig.


Welke zal ik kiezen? Ik vind het nogsteeds lastig.. |:(

[ Voor 5% gewijzigd door Sannieboy op 22-11-2010 11:37 ]

Heb je geen DVI aansluiting op je monitor dan? (HDMI -> DVI is zo gedaan...)

Even niets...


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
:o Heb helaas zo'n oude bak van een monitor (19 inch). Wil pas over twee maandjes (wanneer mijn kantoortje af is) een flatscreentje halen.

Trouwens, ik kan die brander natuurlijk ook aan de esata koppelen en afkoppelen wanneer het nodig is. De Lian 108 heeft toch twee brackets vrij staan, 1 van de brackets gebruik ik dan om de sata kabel van de brander naar de esata te begeleiden. Beter idee? Heb ik nog anboared raid (als ik toch voor dual boot wil gaan) en vga voor het moment,

---> maar dan geen usb 3.0 helaas

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Sannieboy schreef op maandag 22 november 2010 @ 12:48:
:o Heb helaas zo'n oude bak van een monitor (19 inch). Wil pas over twee maandjes (wanneer mijn kantoortje af is) een flatscreentje halen.

Trouwens, ik kan die brander natuurlijk ook aan de esata koppelen en afkoppelen wanneer het nodig is. De Lian 108 heeft toch twee brackets vrij staan, 1 van de brackets gebruik ik dan om de sata kabel van de brander naar de esata te begeleiden. Beter idee? Heb ik nog anboared raid (als ik toch voor dual boot wil gaan) en vga voor het moment,

---> maar dan geen usb 3.0 helaas
aan de andere kant waarom zou je nu nog voor een VGA aansluiting gaan als je over een paar maanden een flatscreentje hebt. Anders krijg je straks weer gezeik met je flatscreen en vga output (als ik goed begrijp dat je je servertje daaraan wilt hangen).

Je gaat je dvd's dan branden vanuit het OS wat je op de server installeert? Sowieso zou ik zelf nooit dual boot doen op zo'n bak maar dat komt omdat ik geen voorstander ben van dual boot.

Verwijderd

Sannieboy schreef op zaterdag 20 november 2010 @ 17:15:
[...]


Precies, hoe je het went of keert, de onboard raid ga ik niet gebruiken....het wordt software en misschien later hardware RAID.
Als je met ZFS of software-RAID gaat werken heb je niet zoveel aan een RAID controller. Je wilt een normale HBA hebben die je schijven niet van de controller gooit. LSI 1068E is een interessante chip voor een 8-port SATA/SAS HBA. Rond de 120 euro.

Hardware RAID is eigenlijk alleen nog leuk voor Windows-only machines; ga je dan Linux of BSD gebruiken heb je eigenlijk niet veel meer aan die controller; dat maakt het een dure en toekomstonzekere investering.

In plaats daarvan kun je lekker veel schijven en genoeg RAM kopen, als je FreeBSD wilt uitproberen neem ik aan dat je met name ZFS wilt uitproberen?

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Verwijderd schreef op maandag 22 november 2010 @ 13:11:
[...]

Als je met ZFS of software-RAID gaat werken heb je niet zoveel aan een RAID controller. Je wilt een normale HBA hebben die je schijven niet van de controller gooit. LSI 1068E is een interessante chip voor een 8-port SATA/SAS HBA. Rond de 120 euro.

Hardware RAID is eigenlijk alleen nog leuk voor Windows-only machines; ga je dan Linux of BSD gebruiken heb je eigenlijk niet veel meer aan die controller; dat maakt het een dure en toekomstonzekere investering.

In plaats daarvan kun je lekker veel schijven en genoeg RAM kopen, als je FreeBSD wilt uitproberen neem ik aan dat je met name ZFS wilt uitproberen?
ik neem aan dat je daarmee doelt op een kaart als pricewatch: Supermicro AOC-SASLP-MV8 o.i.d.?

Ik zou deze kaart iig ontwijken als je debian / ubuntu wilt gaan draaien. Er zijn veel gevallen waarin de 1068 chip niet goed de disks herkent in debian / ubuntu. Als ze al herkend worden ga je zoals Mpphillip problemen kunnen krijgen met hdd tools die S.M.A.R.T. probes doen op je disks. de controller / driver mietert dan willekeurig disks op offline. Dat is niet bevorderlijk voor je data natuurlijk.

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
DJ-NaRRa schreef op maandag 22 november 2010 @ 12:57:
[...]


aan de andere kant waarom zou je nu nog voor een VGA aansluiting gaan als je over een paar maanden een flatscreentje hebt. Anders krijg je straks weer gezeik met je flatscreen en vga output (als ik goed begrijp dat je je servertje daaraan wilt hangen).

Je gaat je dvd's dan branden vanuit het OS wat je op de server installeert? Sowieso zou ik zelf nooit dual boot doen op zo'n bak maar dat komt omdat ik geen voorstander ben van dual boot.
Nou de reden waarom ik de vga outpunt wil gebruiken is puur voor het instaleren, voor een newbie linux gebruiker als ik, heb ik denk ik toch ff tijd nodig om alles te installeren. Nu alles via de tv, wordt mijn vriendin zo vrolijk van :*)

Ja dual boot, ik weet zelf ook niet of dit ideaal is maar is waarschijnlijk de enige mogelijkheid om ook spellen op de server te zetten. MAAR mocht het teveel problemen geven, dan ben ik niet teleurgesteld met de NAS mogelijkheden van mijn systeem (dus het linux gedeelte oid). Desnoods laat ik het windows gedeelte achterwege. Gamen zie ik echt als een extraatje.
Na nog veel meer denkwerk over mijn huidige storage systeem heb ik de volgende dingen bedacht.

Afstappen van RAID5 op een Hardwareraid controller vanwege TLER leesfouten. (heb 8 x 1.5TB)
Overstappen op óf RAID6 óf Software RAID.

ZFS is leuk, maar niet echt nodig.

LVM/MDADM is leuk icm XFS of EXT3

Maar wat ik eigenlijk wil is de functie van WHS.
Mijn data is niet echt kritiek, op een paar folders na. Het liefst wil ik de functie hebben om per folder aan te geven of deze gedupliceerd moet worden.

Het liefst heb ik natuurlijk wel een beetje performance winst omdat ik 8 schijven heb. Maar aan de andere kant kunnen de overgebleven schijven uit/in standby omdat er toch nooit meer dan 100MB/s nodig is.

Wat vinden jullie?

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Sannieboy schreef op maandag 22 november 2010 @ 14:00:
[...]


Nou de reden waarom ik de vga outpunt wil gebruiken is puur voor het instaleren, voor een newbie linux gebruiker als ik, heb ik denk ik toch ff tijd nodig om alles te installeren. Nu alles via de tv, wordt mijn vriendin zo vrolijk van :*)

Ja dual boot, ik weet zelf ook niet of dit ideaal is maar is waarschijnlijk de enige mogelijkheid om ook spellen op de server te zetten. MAAR mocht het teveel problemen geven, dan ben ik niet teleurgesteld met de NAS mogelijkheden van mijn systeem (dus het linux gedeelte oid). Desnoods laat ik het windows gedeelte achterwege. Gamen zie ik echt als een extraatje.
Waar ik met name huiverig voor ben met die dual-boot van je (ik doe hier even aannames) is dat je je raid in beide configuraties beschikbaar wilt hebben. Ik begrijp dus dat je als je NAS draait je gebruik maakt van een software raid binnen linux / freenas en binnen windows benader je de raid via de fake-raid...

nu weet ik niet hoe het tegenwoordig zit met compatibiliteit tussen windows en ext3 / zfs / xfs filesystemen maar ik zou er niet zo happig op zijn dat een windows systeem met speciale drivers spul gaat schrijven op een ext3 / zfs / xfs filesystem. Er zit dan een kans in dat linux / freenas dan gaat hikken en je FS vernaggeld is.

Mocht je een aparte disk hebben voor je windows OS en games zonder raid support dan maakt het niet zoveel uit welk moederbord je pakt. maar dan is het wel OF nas OF spelletjes. Het zit er dan niet in dat je vriending een filmpje / serie kan kijken op de bank (vanaf de nas) terwijl jij zombies aan het knallen bent ;)

Verwijderd

DJ-NaRRa schreef op maandag 22 november 2010 @ 13:17:
[...]

ik neem aan dat je daarmee doelt op een kaart als pricewatch: Supermicro AOC-SASLP-MV8 o.i.d.?
Nee die kaart gebruikt een Marvell chip en heeft veel problemen onder in elk geval BSD maar ook andere OS (OpenSolaris/Linux).

Betere keuze is de LSI 1068E, die met alle OS goed werkt. Enige probleempje is SMART bombardementen via smartd; dat vindt deze kaart niet leuk dus smartd uitzetten lost dat probleem op; je kunt wel gewoon normaal SMART informatie opvragen.

Dus dat zou dan worden SuperMicro AOC-USAS-L8i of de Intel SASUC8i. Eerstgenoemde heeft een afwijkend bracket, laatstgenoemde heeft nog een firmware flash naar IT-firmware nodig.
Ik zou deze kaart iig ontwijken als je debian / ubuntu wilt gaan draaien. Er zijn veel gevallen waarin de 1068 chip niet goed de disks herkent in debian / ubuntu.
SMART bombardementen kan de kaart inderdaad niet tegen; maar dan schakel je smartd gewoon uit. Ook moeten sommigen MSI interrupts uitschakelen; ik heb dat gewoon aan gelaten en deze kaarten draaien prima in mijn ZFS server.

Een betere chip dan de LSI 1068E heb ik niet gevonden; dit is de controller chip met de minste problemen. Met name die marvell chips zijn eigenlijk nauwelijks bruikbaar als controller; elke minuut wel timeouts. Dat zal best een driverprobleem kunnen zijn, maar ook onder Linux hoor ik mensen klagen over de Marvell-chip in AOC-SASLP-MV8.

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
/////////

Waar ik met name huiverig voor ben met die dual-boot van je (ik doe hier even aannames) is dat je je raid in beide configuraties beschikbaar wilt hebben. Ik begrijp dus dat je als je NAS draait je gebruik maakt van een software raid binnen linux / freenas en binnen windows benader je de raid via de fake-raid...

nu weet ik niet hoe het tegenwoordig zit met compatibiliteit tussen windows en ext3 / zfs / xfs filesystemen maar ik zou er niet zo happig op zijn dat een windows systeem met speciale drivers spul gaat schrijven op een ext3 / zfs / xfs filesystem. Er zit dan een kans in dat linux / freenas dan gaat hikken en je FS vernaggeld is.

Mocht je een aparte disk hebben voor je windows OS en games zonder raid support dan maakt het niet zoveel uit welk moederbord je pakt. maar dan is het wel OF nas OF spelletjes. Het zit er dan niet in dat je vriending een filmpje / serie kan kijken op de bank (vanaf de nas) terwijl jij zombies aan het knallen bent

/////

NAS en gamen tegelijk gaat niet, dat klopt....maar dat mag geen probleem zijn....hoop ik voor mijn vriendin :D

Het plaatsen van windows zonder raid mogelijkheid is zeker een optie. Dan heb ik geen fake raid meer nodig of wel?

[ Voor 68% gewijzigd door Sannieboy op 22-11-2010 14:43 ]

Sannieboy schreef op maandag 22 november 2010 @ 14:40:
/////////

Waar ik met name huiverig voor ben met die dual-boot van je (ik doe hier even aannames) is dat je je raid in beide configuraties beschikbaar wilt hebben. Ik begrijp dus dat je als je NAS draait je gebruik maakt van een software raid binnen linux / freenas en binnen windows benader je de raid via de fake-raid...

nu weet ik niet hoe het tegenwoordig zit met compatibiliteit tussen windows en ext3 / zfs / xfs filesystemen maar ik zou er niet zo happig op zijn dat een windows systeem met speciale drivers spul gaat schrijven op een ext3 / zfs / xfs filesystem. Er zit dan een kans in dat linux / freenas dan gaat hikken en je FS vernaggeld is.

Mocht je een aparte disk hebben voor je windows OS en games zonder raid support dan maakt het niet zoveel uit welk moederbord je pakt. maar dan is het wel OF nas OF spelletjes. Het zit er dan niet in dat je vriending een filmpje / serie kan kijken op de bank (vanaf de nas) terwijl jij zombies aan het knallen bent

/////

NAS en gamen tegelijk gaat niet, dat klopt....maar dat mag geen probleem zijn....hoop ik voor mijn vriendin :D

Het plaatsen van windows zonder raid mogelijkheid is zeker een optie. Dan heb ik geen fake raid meer nodig of wel?
Waarom niet gewoon windows dan? Je kunt toch prima NAS functies gebruiken onder Windows? :)

Even niets...

Pagina: 1 ... 31 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.