Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 12-09 15:27

Demo

Probleemschietende Tovenaar

DJ-Visto schreef op vrijdag 14 mei 2010 @ 17:32:
[...]

Weet niet of je kan tellen maar ik gebruik er 9... En ik ben van plan binnenkort nog meer door mijn kamer heen te trekken (2 extra bij desktop + nog 2 lozen + tv aansluitinggen vervangen door 2 utp's en bij me bed ook nog 2)
En ik wil teamingen en VLANnen gaan doen.. Dat kan allemaal nu niet. ;)
Heb ik ook gedaan :) (heb ook een dualport Intel en een HP 1810-8G)
Op mijn switch heb ik het volgende geconfigd:
Poort 1 in VLAN 10 (untagged), hier hangt mijn DSL-modem aan in bridge-modus
Poort 2 t/m 6 in VLAN 20 (untagged), deze zijn beschikbaar voor mijn clients
Poort 7 + 8 is een trunk, die tagged in beide VLAN's kan. Hier hangt mijn server aan

Op de server heb ik eth0+eth1 getrunkt tot bond0. Op bond0 heb ik twee VLAN's toegevoegd (10 en 20), bond0.10 krijgt via DHCP een publiek IP-adres (via het DSL-modem), bond0.20 wordt gebridged met wlan0 (wireless kaartje dat als accesspoint draait) tot br0, dat is mijn interne netwerkinterface. Dmv iptables heb ik routering opgezet tussen br0 en bond0.10.

Totale overkill voor thuis, maar wel ontzettend leuk om mee te spelen :D

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Demoniac schreef op maandag 17 mei 2010 @ 13:54:
[...]
Heb ik ook gedaan :) (heb ook een dualport Intel en een HP 1810-8G)
Op mijn switch heb ik het volgende geconfigd:
Poort 1 in VLAN 10 (untagged), hier hangt mijn DSL-modem aan in bridge-modus
Poort 2 t/m 6 in VLAN 20 (untagged), deze zijn beschikbaar voor mijn clients
Poort 7 + 8 is een trunk, die tagged in beide VLAN's kan. Hier hangt mijn server aan

Op de server heb ik eth0+eth1 getrunkt tot bond0. Op bond0 heb ik twee VLAN's toegevoegd (10 en 20), bond0.10 krijgt via DHCP een publiek IP-adres (via het DSL-modem), bond0.20 wordt gebridged met wlan0 (wireless kaartje dat als accesspoint draait) tot br0, dat is mijn interne netwerkinterface. Dmv iptables heb ik routering opgezet tussen br0 en bond0.10.

Totale overkill voor thuis, maar wel ontzettend leuk om mee te spelen :D
Daarvoor doe ik 't ook, en een beetje opscheppen hoort der ook bij, ik heb lekker 2Gbps verbindingen :>

Maar dat is erg netjes gedaan, ik moet nog over de volledige structuur nadenken, maar dat komt vast goed :)

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Eventjes als kleine opmerking. Je weet dat met teaming/bonden/whatever 1 client naar 1 client ten alle tijden1 link gebruikt. Ook al heb je er 4 links tussen liggen. De Inkomende en uitgaande mac word per client verdeelt. Of eventueel per IP hash, etc.

Just thought I would tell you. Als je inderdaad meerdere clients hebt, dan KAN het verkeer over de nic's verdeelt worden. Dat ligt eraan hoe je het instelt. Maar goed, dat zijn meer netwerk zaken!

Verder inderdaad wel een leuke setup in elkaar geklussed!

[ Voor 6% gewijzigd door Quindor op 17-05-2010 17:30 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:36
Quindor schreef op maandag 17 mei 2010 @ 17:29:
Eventjes als kleine opmerking. Je weet dat met teaming/bonden/whatever 1 client naar 1 client ten alle tijden1 link gebruikt. Ook al heb je er 4 links tussen liggen. De Inkomende en uitgaande mac word per client verdeelt. Of eventueel per IP hash, etc.

Just thought I would tell you. Als je inderdaad meerdere clients hebt, dan KAN het verkeer over de nic's verdeelt worden. Dat ligt eraan hoe je het instelt. Maar goed, dat zijn meer netwerk zaken!
Ik ben al een tijdje met Bonding en trunking aan het spelen met een HP 1810g 8 poorts switch. Ik heb met veel geklooi en geknoei met iperf een single tcp transfer gezien van 200+ MB/s (megabytes). Real life met NFS of samba nog niet, maar ik rust niet totdat het werkt. ;)

De beste performance lijkt te worden gehaald door de server met 802.1ad te verbinden en de client iets met Bonding mode 0 te laten doen (round robin).

Met meer dan 1 client is het inmiddels sowieso geen punt om 200 MB/s uit te spuwen, maar de fun is juist om het met 1 client (wat meestal de praktijk is) voor elkaar te krijgen.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Q schreef op maandag 17 mei 2010 @ 20:29:
[...]


Ik ben al een tijdje met Bonding en trunking aan het spelen met een HP 1810g 8 poorts switch. Ik heb met veel geklooi en geknoei met iperf een single tcp transfer gezien van 200+ MB/s (megabytes). Real life met NFS of samba nog niet, maar ik rust niet totdat het werkt. ;)

De beste performance lijkt te worden gehaald door de server met 802.1ad te verbinden en de client iets met Bonding mode 0 te laten doen (round robin).

Met meer dan 1 client is het inmiddels sowieso geen punt om 200 MB/s uit te spuwen, maar de fun is juist om het met 1 client (wat meestal de praktijk is) voor elkaar te krijgen.
Hmm... voor zover ik het begrijp, zit de TCP/IP standaard niet op die manier in elkaar en KAN dat juist niet. 1 van de nadelen ervan aangezien je met 1 MAC/IP werkt.

Round Robin, hoewel je dat in linux bonding kan (lees ik uit je woorden) is naar mijn weten echt niet TCP/IP compatible. Voor zaken als iSCSI, etc. word dat inderdaad wel gebruikt. Zodat je weer geen teaming/bonding hoeft te doen (omdat het niet erg efficiënt is).

IEEE 802.1AX / 802.3ad voorziet iig niet in het verhogen van de bandbreedte van 1 client, maar alleen van meerdere clients. Verder moet je ook goed controleren wat de teaming/bonding doet. Veelal is dat het namelijk alleen outbound en niet inbound. Met bepaalde toepassingen (backup servers, etc.) is dat juist wel nuttig.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • NoepZor
  • Registratie: Maart 2003
  • Laatst online: 21:18
ferdinand schreef op vrijdag 14 mei 2010 @ 20:19:
[...]


[...]

zou software raid5 100MB/s schrijven kunnen halen met een 2.6Ghz athlonII ?
Welke chipset zit erin? Ik haal zelf met een array van 4x1,5TB Samsung F2's een leessnelheid van 290MB/s en een schrijfsnelheid van 130MB/s. Dit is op een Intel platform met een E2160 dual core 1,8Ghz en een G45 chipset met ICH10R southbridge.

De wijzen komen uit het Oosten!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:36
Quindor schreef op maandag 17 mei 2010 @ 22:14:
[...]

Hmm... voor zover ik het begrijp, zit de TCP/IP standaard niet op die manier in elkaar en KAN dat juist niet. 1 van de nadelen ervan aangezien je met 1 MAC/IP werkt.
Linux faked 1 mac adress en laat gewoon beide kaarten om beurten een pakketje sturen, een soort RAID 0 over netwerk interfaces. Enige probleem is alleen dat pakketten out-of-order aan kunnen komen.

Acties:
  • 0 Henk 'm!

  • brid
  • Registratie: Januari 2001
  • Laatst online: 29-07-2024

brid

Onze excuses voor het ongemak

NoepZor schreef op maandag 17 mei 2010 @ 22:20:
[...]


Welke chipset zit erin? Ik haal zelf met een array van 4x1,5TB Samsung F2's een leessnelheid van 290MB/s en een schrijfsnelheid van 130MB/s. Dit is op een Intel platform met een E2160 dual core 1,8Ghz en een G45 chipset met ICH10R southbridge.
Zit hier met dd commando met 5x 1,5TB op 126MB/s(+- 38% gevuld), lezen rond met hddparm +- 370MB/s op een Athlon II e235 + SB710 (gallery: brid) en beide cores kwamen niet van de 800MHz af :)

Bestelling bij azerty is eindelijk verstuurd, dus vanavondeikel van de tnt heeft niet aangebeld en een niet thuis genoteerd :( komt er nog 2x 1,5TB bij als de 2 ports sata600 kaart wordt herkent door lenny

[ Voor 14% gewijzigd door brid op 18-05-2010 13:39 ]

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


Acties:
  • 0 Henk 'm!

  • Ben De Wit
  • Registratie: November 2009
  • Laatst online: 26-08 22:20
Afbeeldingslocatie: http://www.witbvba.be/Images/server.jpg

Oude situatie; 3 jaar oude Debian file server (mdadm, samba, proftpd, etc):
  • Asus M2N-E moederbord + 2 Delock Sata controllers (SIL3112), Athlon X2 3600+, 4 GB Kingston DDR2
  • Software raid met 2 x raid 5 array (4 x 500 GB, 5 x 750 GB).
  • Dit alles in een traditionele Coolermaster Stacker ST101 met 4 in 3 modules
Geen gebruik van hardware raid omwille van de problemen die je kan hebben wanneer je met een kapotte controller zit.

Mijn net opgezette omgeving:
  • GIGABYTE H55M-USB3 mATX moederbord met 7 sata poorten, Intel Core i3 330, 8 GB Kingston DDR3
  • Sharkoon Rebel 9 aluminium case
  • 3 x Chieftec SST-3141SAS backplane
  • 1x WD Raptor 74 GB (recup)
  • 4 x Samsung HD203WI 2 TB schijf
  • 4 x Samsung HD753LJ 750 GB (recup)
  • 2 x Western Digital WD5000AACS 500 GB (recup)
  • 1 x Delock SATA controller (recup)
Ik heb een deftige Linux basiskennis, maar ik was het geklooi gewoon beu. Periodiek had ik problemen met onboard en externe sata controllers en mdadm arrays die 12 maanden perfect lopen tot je een update doorvoert. Daarom heb ik nu voor Windows 2008 SBS gekozen, waar ik tot nu toe nog geen spijt van heb gehad. Dat ik nu Hyper-V kan gebruiken buiten de opslagmogelijkheden, is mooi meegenomen, mede omdat dit voor mij persoonlijk professioneel net iets nuttiger is om ervaring met Hyper-V op te doen dan vb. Virtualbox (om maar iets te noemen).

In mijn huidige setup:
  • Tracht ik het gebruik van raid arrays te vermijden
  • Worden er wekelijks 1:1 backups genomen van de schijven dmv robocopy
Ik heb afgeleerd om te besparen op schijven (raid 5 vs 1:1 opslag) aangezien wanneer je later een raid 5 array wilt updaten je aanloopt tegen; te weinig poorten op een controller of falende raid 5 extensions. Er zijn genoeg mogelijkheden tot in place extensions (dmv hardware controllers of allerhande linux speelgoed), maar daar wou ik vanaf, het is mij de miserie niet meer waard wanneer zoiets fout afloopt.

Waarom geen raid1? Omdat dit geen bescherming biedt tegen problemen met het filesystem, nog een laagje dat ik er vantussen wou. Voor homestorage lijkt simplisme mij de gouden graal. Zelfs voor virtuele Hyper-V machines lijkt het mij beter je verschillende machines gewoon te splitsen over verschillende hdds zolang je met geen gigantisch labo's zit (die je dan weer niet op homebrew hardware gaat draaien).

Pluspunten van de hudige setup:
  • De plaatsbesparing, de aluminium ATX kast oogt veel compacter en weegt een pak minder dan de oude Stacker.
  • Backplanes zijn duur, maar een verademing. Geen gepruts meer met Coolermaster 4 in 3 modules en SATA kabels die achteraf gezien toch niet helemaal goed instaken.
  • Homebrew rechten management op een Windows machine vind ik net iets leuker werken. (persoonlijke mening).
Negatief:
  • De backplanes maken gigantisch veel herrie. Ik heb deze beetje gedempt met Zalman fan controllers, maar zelfs op laag toerental blijft het te lawaaierig, maar acceptabel aangezien het op afzonderlijke plaats staat.
Verbruik: 50-55 Watt Idle wanneer gemeten met spinned down disks enabled. Met disks op: 70 Watt Idle.

Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Nice setup, jammer dat je voor fileserver van Debian af bent gestapt(hardware raid op linux kan ook) met een 16poorts controller heb je echt niet te kort hoort. Voor de rest erg nette setup :) Ik had persoonlijk voor een i5 750 gegaan, iets meer snelheid. Geklooi met Debian ja, maar wel een perfomance boost. Ik heb nu persoonlijk een ESXi machine derbij, dat is bij mij toch eigenlijk ook nog wel veel geklooi geweest. Daarom de vraag waarom geen 16poorts raid controller hardware? Desondanks gebruik je nog steeds niet zoveel schijven, en je hebt als nog raid.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

@BendeWit

Erg erg mooi gebouwd! Zeer netjes!

Ik heb vergelijkbare bays (de 3 slot variant) en daar de fans ook van vervangen. Hier de link waar je mijn foto's ervan kunt vinden.

De disks worden een beetje warmer nu de fan minder hard zijn best doet, maar alle herrie is compleet verdwenen! Zeer content mee. Nu hoor je de disks ook gewoon weer ratelen als ze iets doen (vind dat altijd en prettig geluid).

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Ben De Wit
  • Registratie: November 2009
  • Laatst online: 26-08 22:20
Bedankt voor de tip, ik ga die koelers toch eens vervangen. Waarom ik voor geen hardwarecontroller heb gekozen? Zoals ik aanhaalde; dan heb je proprietary stuk hardware in je server steken. Wanneer dit ooit faalt mag je naar dezelfde hardware op zoek. Ik heb tevens geen nood aan meer snelheid, de gigabit netwerkverbinding knijp ik met filetransfers op 1 schijf bijna helemaal toe.

Ik heb voor de Core i3 gekozen (en dus niet voor een i5) vanwege het verbruik. Ik doe geregeld performance monitoring op Wintel servers en ervaar zeer zelden dat CPU een probleem wordt. Bottlenecks zijn een hoog memory verbruik en disk. In een virtueel labo ga je amper disk I/O genereren & memory verbruik kan je nog in de hand houden.

Het is maar wat je wil, performance was niet mijn einddoel in deze setup. Data zekerheid en een gemakkelijke recovery bij failure wel. Ik zal het maar op het ouder worden & minder tijd hebben steken. ;)

Acties:
  • 0 Henk 'm!

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 14-09 13:39
Ben De Wit schreef op woensdag 19 mei 2010 @ 22:28:
Waarom ik voor geen hardwarecontroller heb gekozen? Zoals ik aanhaalde; dan heb je proprietary stuk hardware in je server steken. Wanneer dit ooit faalt mag je naar dezelfde hardware op zoek.
Ik denk dat je dit wel weet maar toch even voor de duidelijkheid; Bij vrijwel alle goede merken zijn de RAID controllers (jaren lang) uitwisselbaar. Dus als je nu een budget Areca met 8 poorten koopt en daar RAID sets mee aanmaakt dan kun je die vier jaar later bij problemen met de controller (of als je meer poorten nodig hebt) zonder meer vervangen door een nieuw model, zonder je RAID sets opnieuw te moeten opbouwen.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:35
@BendeWit

Mooi gebouwd! Mag ik vragen welke kast je daarvoor hebt gebruikt?

Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
GioStyle schreef op donderdag 20 mei 2010 @ 19:02:
@BendeWit

Mooi gebouwd! Mag ik vragen welke kast je daarvoor hebt gebruikt?
Staat in zijn post, Sharkoon Rebel 9 aluminium case :)

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Nou, mijn server heeft voor de tweede keer deze maand erge problemen! :S

Vorige keer een paar dagen aan het zoeken geweest wat het nou was. Er vielen steeds 1 of meerdere disken uit leek het wel. Volledige set ging down iig!

Dus ik surface scans via mijn controller gedaan en bij 1tje kreeg ik een mooie foutmelding. Daarvoor uiteindelijk een nieuwe disk gehaald en daarna heeft alles een paar weken prima gedraait.

Maar.... nu is het probleem weer terug? En zoals ik lees verdwijnen er weer spontaan 2 disken op een gegeven moment.... Erg wazig.

Ik begin zelf 1 van de backplane modules te verdenken, aangezien zoveel disk failure toch haast niet mogelijk is op zo'n korte tijd. (Als ik thuis ben wel eventjes de serie van de disken controleren).

Iemand nog een idee? Inmiddels heeft het me al zoveel corruptie opgeleverd (volumes online forceren) dat 1 van de R5 sets echt zo vernacheld was dat VMware niet echt meer snapte wat ie er mee moest.... :( :S

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:35
axis schreef op vrijdag 21 mei 2010 @ 08:55:
[...]

Staat in zijn post, Sharkoon Rebel 9 aluminium case :)
Ik dacht dat die case bij zijn oude opstelling hoorde. Mijn excuses. ;)

Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Quindor schreef op vrijdag 21 mei 2010 @ 09:55:
Nou, mijn server heeft voor de tweede keer deze maand erge problemen! :S

Vorige keer een paar dagen aan het zoeken geweest wat het nou was. Er vielen steeds 1 of meerdere disken uit leek het wel. Volledige set ging down iig!

Dus ik surface scans via mijn controller gedaan en bij 1tje kreeg ik een mooie foutmelding. Daarvoor uiteindelijk een nieuwe disk gehaald en daarna heeft alles een paar weken prima gedraait.

Maar.... nu is het probleem weer terug? En zoals ik lees verdwijnen er weer spontaan 2 disken op een gegeven moment.... Erg wazig.

Ik begin zelf 1 van de backplane modules te verdenken, aangezien zoveel disk failure toch haast niet mogelijk is op zo'n korte tijd. (Als ik thuis ben wel eventjes de serie van de disken controleren).

Iemand nog een idee? Inmiddels heeft het me al zoveel corruptie opgeleverd (volumes online forceren) dat 1 van de R5 sets echt zo vernacheld was dat VMware niet echt meer snapte wat ie er mee moest.... :( :S
Zal even in je backplanes gewoon bekijken, ik denk dat er een beetje heet is geworden en doorgefixt is, komt meer voor bij backplanes (helaas..)

Acties:
  • 0 Henk 'm!

  • Ben De Wit
  • Registratie: November 2009
  • Laatst online: 26-08 22:20
PeterPan schreef op donderdag 20 mei 2010 @ 10:33:
[...]


Ik denk dat je dit wel weet maar toch even voor de duidelijkheid; Bij vrijwel alle goede merken zijn de RAID controllers (jaren lang) uitwisselbaar. Dus als je nu een budget Areca met 8 poorten koopt en daar RAID sets mee aanmaakt dan kun je die vier jaar later bij problemen met de controller (of als je meer poorten nodig hebt) zonder meer vervangen door een nieuw model, zonder je RAID sets opnieuw te moeten opbouwen.
Mja, daar komt nu spijtig genoeg al eens het verschil tussen theorie en praktijk om de hoek kijken. Ik heb geen zin om binnen x aantal jaar een inplace upgrade uit te voeren op die manier, zelfs ligt het risico nog zo laag. Daar komt dan bij kijken dat raid 5 geen alternatief is voor backups. Dus zou ik nog altijd ergens copies moeten maken. De prijs van schijven ligt vandaag de dag zo laag dat mirroring qua kost best meevalt. Zoals ik zei, het is maar waar je prioriteiten liggen. Ik heb nog spare disken en zo een tray op overschot, dus kan ik van de belangrijkste data ook nog eens gemakkelijk een backup maken voor offsite storage. Gewoon schijfje er uit en spare er in iedere paar weken.

Acties:
  • 0 Henk 'm!

Verwijderd

Even een vraagje over de dell perc 5/i...

Is het gebruikelijk dat de normale intialisatie van een RAID 5 aray rond de 5 uur in beslag neemt?

Verder heb ik ook het vage probleem dat linux wel de megaraid_sas laadt, de kaart laat zien, maar dat ik de storage nergens terug zie... Het gaat om openSuSE 11.2

[ Voor 36% gewijzigd door Verwijderd op 22-05-2010 14:29 ]


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Verwijderd schreef op zaterdag 22 mei 2010 @ 14:27:
Even een vraagje over de dell perc 5/i...

Is het gebruikelijk dat de normale intialisatie van een RAID 5 aray rond de 5 uur in beslag neemt?

Verder heb ik ook het vage probleem dat linux wel de megaraid_sas laadt, de kaart laat zien, maar dat ik de storage nergens terug zie... Het gaat om openSuSE 11.2
Is er uberhaubt een partitie aanwezig?

Acties:
  • 0 Henk 'm!

Verwijderd

DJ-Visto schreef op zondag 23 mei 2010 @ 10:30:
[...]

Is er uberhaubt een partitie aanwezig?
Hij doet netjes een fast init en maakt een "3" TB virtual disk aan...
Dan start ik de linux installatie, betreffende module wordt geladen, maar op het moment dat ik moet gaan partietioneren ziet het tooltje de VD niet, dus nee geen partitie....

edit: Er hangen btw 3 samsung 154UI disken van "1,5" TB aan

edit2: Als ik raid 1 aanmaak doet ie het wel vreemd genoeg, mischien ligt het aan de grootte oid? Nee is het niet raid 5 met kleinere virtual disks maakt ook geen bal uit...

[ Voor 23% gewijzigd door Verwijderd op 23-05-2010 17:03 ]


Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
Ik heb ondertussen ook een nieuwe servertje besteld. Ik heb gekozen voor een unraid opstelling. Unraid leek mij de meest geschikte oplossing voor het doel dat ik voor ogen heb. Ik heb ook gekeken naar een raid5 opstelling maar deze had een aantal eigenschappen die het gebruik in bepaalde opzichten toch enigsinds beperken.

Kortom de voordelen van unraid komen hierop neer:
Uitbreidbaarheid: unraid vergt een minimum van 2 disks en kan uitgebreid worden tot een max van 25+ disks. Uitbreidingen kunnen gespreid worden in de tijd en dit zonder herconfiguratie of het risico dat je data verliest. Dit was een heel belangrijk aspect voor mij omdat ik de capaciteit van de server in de toekomst gevoelig zie toenemen.
Disks mixen: uitbreidingen kan met eender welke disk van eender welke fabrikant of grootte. Je kan dus zowel nieuwe disks als oude disks door elkaar gebruiken. Dit heeft het voordeel in tegenstelling to raid5 dat je kan beginnen met kleine disks om dan later als de prijzen zakken grotere disks bij te steken. Behalve het prijzige Drobo is er geen enkel ander unraid systeem die dit kan, tenzij dat ik wat over het hoofd heb gezien.
Eénvoudig: het opzetten is eenvoudig, snel en vergt weinig kennis. In geval van vragen is er een grote community aanwezig op het unraid forum die je kan verderhelpen.
Prijs: unraid zorgt ervoor dat je energierekening tot een minimum wordt herleid door inactieve disks uit te schakelen wanneer deze niet gebruikt wordt bij het lezen of schrijven. Dit is mogelijk omdat de parity data niet gestriped wordt over alle disken maar altijd bewaard wordt op éénzelfde parity-disk. Het feit dat ook oude disken van een verschillende grootte mee kunnen worden opgezet in de array draagt ook bij tot het drukken van de prijs.
Veiligheid: hoewel we allemaal weten dat er geen enkel raid systeem ten volle kan garanderen dat je je data nooit zal verliezen doet unraid toch aardig zijn best. Bij het uitvallen van één schijf is er nog niks aan de hand en kan de verloren data terug worden opgebouwd aan de hand van de pariteit, bij het verliezen van meerdere disken zou je in het geval van raid5 alle data verliezen maar bij unraid kan de schade enigszins beperkt worden doordat je de data per disk kan benaderen door deze in een ander systeem te steken.

Enige (imo niet onoverkomelijke) nadelen:
-Tot 3 diks is het gratis, om verder uit te breiden heb je een licentie nodig van $69 of max $119.
-Unraid heeft niet de intentie om het snelste raid systeem te zijn op de markt. Voor normaal gebruik zal dit geen probleem zijn maar als je raid5 schrijfsnelheden wil behalen zou dit kunnen tegenvallen. Voor mij was het vooral belangrijk dat ik mijn bestanden op een acceptable snelheid kan wegschrijven en 1080p conent moeiteloos kan streamen. Overigens kan de schrijfsnelheid worden verbeterd door het instellen van een cache-disk. Dit is een disk die als buffer dient tussen de client en het unraid systeem.

Dit zijn de geselecteerde onderdelen:
#ProductPrijsSubtotaal
3Samsung EcoGreen F3EG, 2TB€ 109,90€ 329,70
1Cooler Master Centurion 590€ 49,-€ 49,-
1Papst 8412 N (80mm, 2p)€ 12,24€ 12,24
1Kingston HyperX KHX8500AD2K2/2G€ 0,-€ 0,-
1Asus M4A78L-M€ 56,57€ 56,57
1AMD Athlon II X2 240E€ 64,94€ 64,94
1Cooler Master 4-in-3 Device Module€ 12,47€ 12,47
1be quiet! Pure Power L7 300W€ 31,60€ 31,60
Bekijk collectie
Importeer producten
Totaal€ 556,52

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Al besteld? Van de 4-in-3 module ben ik nog niet helemaal zeker of deze wel in de Centurion past. Je gaat zeker meer dan 3 schijven in de kast plaatsen? (Ook getuige het feit dat unraid disk mixing toestaat.) De Centruion komt in ieder geval standaard al met een 4-in-3 module. Persoonlijk ben ik niet bepaald tevreden met de ventilator in de 4-in-3 module die jij hebt gekozen. Nu weet ik niet of het rooster alle ellende veroorzaakt maar stil is anders. (Voor de speurneuzen, ja ik heb ook de Centurion 590 en er een review over gemaakt, maar de 4-in-3 module zit niet in de Centurion 590 maar een In-Win kast.)
Waarom eigenlijk de 8cm ventilator? Wil je de ventilator op de stock koeler gaan vervangen? Deze is, naar mijn mening juist erg netjes. :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
Ja is besteld en onderweg :), ik was er vanuit gegaan dat die 4-in-3 module wel zou passen aangezien ze toch beide van dezelfde fabrikant kwamen, nuja mocht dit niet passen vraag ik wel of ik deze kan inwisselen. Iig voor die prijs vind je niets beters.
Ik meen inderdaad een review te hebben gelezen waar naarvoor kwam dat de ventilator niet van de stilste is in deze modules, maar ik ben dan ook van plan om deze eruit te slopen en gewoon één of twee case ventilators toe te voegen, moet volgens mij wel voldoende zijn. In mijn huidige case zitten ook een 5-tal disken die opdezelfe manier worden gekoeld en tot nog toe heb ik geen enkel probleem ondervonden.
Die 8cm ventilator zal dus mee als case fan dienen. Ik realiseer dat ik hiervoor best voor een nog groter model had moeten gaan maar dat fix ik dan wel achteraf. Geluidsproductie is wel een vrij zwaar doorwegende factor eigenlijk en alle waarschijnlijkheid zal ik de stock koeler op de cpu ook nog moeten vervangen.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Grote kans dat het wel goed gaat, maar voor het geval je nog niet had besteld wel handig om eens extra te controleren. Klok en klepel verhaal: er zijn twee modules, met minimaal verschil in letters, waarvan er maar in een Stacker zou passen.
Wel opmerkelijke keuze om toch voor een 590 te gaan als stilte zo belangrijk is. In dat geval zou ik alvast beginnen met een mooie 12cm ventilator uit te zoeken voor de 4-in-3 modules. Stilte is de enige reden waarom ik nogal terughoudend ben om voor (nog, ik heb er al twee) een 590 te gaan omdat ik het idee had dat je dan 'zoveel' dingen moet aanschaffen dat je qua prijs opeens bij de (paar) kasten uitkomt die de inbouwmogelijkheden van de 590 bieden, maar ook slimme features heeft die de 590 moet missen. Zo blijft stof de grootste vijand met een 590. Ik heb dat momenteel, letterlijk, door stoffilters voor de intakes te hangen die magnetisch zijn. (Dit zijn zulke zwakke magneten dat ze na een paar centimeter al bijna niet meer iets kunnen aantrekken, laat staan door de behuizing van de hdd heenkunnen.)
Maar de sterkste kant van de 590 is wel de mogelijkheid tot koeling en dan is het weer een opmerkelijke keuze om voor een 8cm case fan te gaan. De 590 is bezaaid met gaten voor 12cm en 14cm ventilatoren. Was gezellig zeker de avond voor de bestelling ;)

Maar in ieder geval succes en plezier met je NAS. Ben benieuwd naar de resultaten :)

[ Voor 3% gewijzigd door Dadona op 23-05-2010 17:35 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

jos707 schreef op zondag 23 mei 2010 @ 17:17:
Ja is besteld en onderweg :), ik was er vanuit gegaan dat die 4-in-3 module wel zou passen aangezien ze toch beide van dezelfde fabrikant kwamen, nuja mocht dit niet passen vraag ik wel of ik deze kan inwisselen. Iig voor die prijs vind je niets beters.
Ik meen inderdaad een review te hebben gelezen waar naarvoor kwam dat de ventilator niet van de stilste is in deze modules, maar ik ben dan ook van plan om deze eruit te slopen en gewoon één of twee case ventilators toe te voegen, moet volgens mij wel voldoende zijn. In mijn huidige case zitten ook een 5-tal disken die opdezelfe manier worden gekoeld en tot nog toe heb ik geen enkel probleem ondervonden.
Die 8cm ventilator zal dus mee als case fan dienen. Ik realiseer dat ik hiervoor best voor een nog groter model had moeten gaan maar dat fix ik dan wel achteraf. Geluidsproductie is wel een vrij zwaar doorwegende factor eigenlijk en alle waarschijnlijkheid zal ik de stock koeler op de cpu ook nog moeten vervangen.
Je kan altijd even kijken of met ze bellen of hij ook al echt de deur uit is, omdat je wat wilt aanpassen, bellen is denk het makkelijkst ;)

Acties:
  • 0 Henk 'm!

  • Nyxium
  • Registratie: September 2009
  • Laatst online: 10-11-2024
Ik ben er over na het denken om mijn huis tuin en keuken servertje redundant te maken. Momenteel zitten er 2 x 1.5TB schijven het OS staat staat op een aparte SSD bootdisk. Ik draai op dit moment windows server 2008 r2. Hij wordt gebruikt als webserver, ftp server, opslag voor backups en media bestanden. Het systeem geeft op dit moment aan dat elke schijf een netto opslag heeft van 1.3 TB.

Echter wil ik binnenkort de server redundant maken door RAID 5 te gaan draaien. Ik wil dit bereiken door nog 2 schijven van hetzelfde merk/type en grootte te kopen met een hardware raid controller.

Ik heb geen idee wat voor raid controller er geschikt is voor mijn mobo, van al die verschillende PCI sloten wordt ik helemaal gek! Hebben jullie misschien een kaart als aanrader om mee te beginnen. Het lijkt mijzelf nogal overkill om gelijk te beginnen met een Areca kaart.

Een ander belangrijk punt is dat er op de server films en muziek staat, deze worden dagelijks benaderd door andere gebruikers in het huis. Ik vroeg mij af of RAID 5 enige invloed heeft op het streamen van media, als ik de verhalen op internet lees moet dit geen probleem opleveren.

specs huidige systeem:
moederbord: pricewatch: MSI 785GM-E65
hardeschijf: http://azerty.nl/producten/product_detail/?ID=204582

Dus welke raid controller (compatible met mn mobo) zouden jullie mij aanraden om met RAID 5 te beginnen?

Heeft raid 5 volgens jullie enige invloed op het streamen van media?

Kan er media gestreamed worden op het moment dat er bestanden naar het RAID array geschreven worden? Zo krijg ik af en toe problemen als ik en een film stream en een bestand weg schrijf op dezelfde schijf.

mijn budget is ongeveer 400 euro

Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
Nuja met deze configuratie zat ik toch al wat boven budget en naar alle waarschijnlijkheid zal dit nog verder uitlopen aangezien ik er nog een cache-disk zal bijnemen. De 590 case zat mooi aan de prijs en had een heel hoop inbouwmogelijkheden die je alleen bij veel duurdere modellen terugvond. Het feit dat je hier dmv inbouwmodules een berg schijven in kan wegzetten en de lage prijs waren de doorslaggevende redenen. Ik heb hier ook een heel mooie case van Zalman zien voorbijkomen maar de extra prijs was moeilijk te verantwoorden aangezien het uiterlijk van een server voor mij geen rol speelt. En wat de geluidsproductie betreft van een case, deze wordt imo voornamelijk bepaald door de gebruikte componenten.
zoals je zegt had ik voor de bestelde 590 beter voor 12/14cm fans gekozen, maar dat heb maar naderhand ingezien. Ik wilde gewoon alles zo snel mogelijk klaar hebben en heb dus na alles te hebben uitgezocht dezelfde avond alles in bestelling geplaatst, ik had toen niet veel zin meer om nog verder veel tijd te steken in dat case/fans verhaal :) Maar al bij al geen ramp, volgens mij kan ik hier wel in de compu-shop op de hoek wel een aantal van die 12cm fans kopen. Alleen nog hopen dat die inbouw-modules een beetje passen want alles zit al op de vrachtwagen en komt volgende week aan. Ik had ook voor deze Chieftec modules kunnen gaan, maar zoals je ziet kan je voor die prijs er 4 van Coolermaster krijgen dus was echt een no-brainer beslissing.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Met de inbouwmodule zal het als het goed is wel goedkomen. Je krijgt er aan de zijkant paneeltjes bij waardoor het net een normaal setje 5.25" devices is die je moet inbouwen. Het zou kunnen dat de Stacker wat inhammen heeft waardoor er iets van ruimte tussen de 5.25" devices inzit.
Qua 12cm fans kun je denken aan Nexus ventilatoren of Scythe. Maar hoewel je gelijk hebt over dat het primair gaat om de gebruikte componenten (daarbij zit je met de F3 wel goed) kan de kast nogal veel (niet) uitmaken. De 590 is natuurlijk helemaal open van voren waardoor ieder geluid zo je kast uit kan wandelen. Vergelijk dat eens met een Antec Solo waarbij de ventilatoren achter een deurtje zitten (en er ook nog eens een stoffilter inzit).
Maar waar ik met name geïnteresseerd in ben, cache-disk? :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
Ik heb idd al veel positieve verhalen zien voorbijkomen over die Nexus fans, zal deze zeker proberen ergens op te vissen.
Hier is uitgelegd wat een cache-drive in een unraid systeem juist doet. Het komt er op neer dat je een extra schijf aan je systeem toevoegd die enkel dient om alle nieuwe data te bufferen. Dit zort ervoor dat wanneer je data gaat wegschrijven dat deze eerst tijdelijk op de cache drive terechtkomt om dan later via een scheduled proces te worden toegevoed aan de array met de nodige pariteit. Het voordeel is dat je veel sneller je data kan doorsluizen omdat de cache drive zelf geen pariteit hoeft te berekenen, de pariteit wordt achteraf automatisch berekend op een later tijdstip.

Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
De 4-in-3 Cooler Master modules welke je standaard kunt bestellen passen PRIMA in een Centurion 590. Het enige dat je moet doen is het front eraf halen waardoor je de module met koeler en al achter de grill van de Centurion 590 front past.

Ik heb zelf 2 van die modules besteld bij mijn 590 en ze passen prima.

De standaard koelers in de modules zijn echt heel erg stil. Ik heb ze met de standaard molex convertors aangesloten en op default snelheid hoor je ze gewoon niet.

Het enige dat ik nu effectief hoor is de 80mm fan die op mijn Dell PERC 5/i controller gericht staat om die geforceerd te koelen.

[ Voor 32% gewijzigd door redfoxert op 23-05-2010 21:22 ]

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Ik doelde eigenlijk meer op, cache-disk, zet je een SSD in of een snelle harde schijf? Daarnaast vraag ik mij af of het echt een groot voordeel is aangezien je in een windows-linux omgeving al snel te maken krijgt met de limiet van Samba ;(

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
Dadona schreef op zondag 23 mei 2010 @ 21:17:
Ik doelde eigenlijk meer op, cache-disk, zet je een SSD in of een snelle harde schijf? Daarnaast vraag ik mij af of het echt een groot voordeel is aangezien je in een windows-linux omgeving al snel te maken krijgt met de limiet van Samba ;(
Cache-disk = cache-drive. Deze staat eigenlijk los van je array, maw voor de data die hierop terecht komt wordt geen pariteit berekend. De snelheid van het wegschrijven van je nieuwe data is dan gelijk aan de schrijfsnelheid van je cache-drive/disk, dus hoe sneller hoe beter. Ik weet niet of je hier eigenlijk ook een SSD voor kan gebruiken, maar imo is dit niet echt aan te raden aangezien SSD's vooral uitblinken in toegangstijd en niet zozeer in doorvoer snelheid. Ik heb verder geen enkele ervaring met Samba dus zal alle mogelijke limieten zelf moeten ondervinden :)

Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
jos707 schreef op zondag 23 mei 2010 @ 21:28:
[...]
maar imo is dit niet echt aan te raden aangezien SSD's vooral uitblinken in toegangstijd en niet zozeer in doorvoer snelheid.
Ik zou even wat reviews van de tegenwoordige SSD's doornemen. Die halen, sequentieel en dat is wat je waarschijnlijk toch alleen maar gaat gebruiken als cache-disk, echt een veel hogere doorvoer ten opzichte van "klassieke" harddisks.

Een Intel 80GB Postville SSD haalt ongeveer 240MB/sec read en 170MB/sec write. Dat zie ik met een reguliere harddisk nog niet zo snel gebeuren.

[ Voor 13% gewijzigd door redfoxert op 23-05-2010 21:32 ]

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Maar het lijkt mij dat het voor het berekenen van de pariteit, als het eenmaal zo ver is, wel uitmaakt of je met een SSD gaat werken. Maar voor het wegschrijven zit je al snel met de limiet van je netwerk (of je moet standaard met een dubbele gigabitverbinding weg willen en kunnen schrijven) dus voor dat deel maakt het inderdaad niet uit.

[ Voor 44% gewijzigd door Dadona op 23-05-2010 21:33 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
Ok, in dat geval als je het geld ervoor over hebt loont het wel natuurlijk :) Ik zie een SSD meer nut hebben als opstart schijf in een regulier systeem dan als cache drive voor unraid, of de prijzen moeten alsnog drastisch beginnen dalen natuurlijk.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
O nee absoluut, maar misschien had jij dat geld wel of nog een interessante redenatie waarom het wel interessant is. :P (Misschien kan unRAID ook in het leesdeel slim tewerk gaan, bijvoorbeeld door veel gebruikte bestanden alvast op een SSD of snelle harde schijf te zetten?)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Bij ZFS kun je ook cache disks gebruiken (en ook nog opslitsen: cache disks voor read, or log devices voor write). Hier leuke blog van een gebruiker: http://www.nerdblog.com/2...lowup-ssd-is-amazing.html

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

axis schreef op maandag 24 mei 2010 @ 08:44:
Bij ZFS kun je ook cache disks gebruiken (en ook nog opslitsen: cache disks voor read, or log devices voor write). Hier leuke blog van een gebruiker: http://www.nerdblog.com/2...lowup-ssd-is-amazing.html
Ik ga zeker met mijn volgende upgrade richting de opensolaris wereld, maar ik wil graag hardware raid houden.. Maar dat zei ik dan wel weer :)

Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 23:25

Midas.e

Is handig met dinges

Ik zie zelf niet echt de voordelen van zfs boven een lvm + xfs + raid. Helemaal niet meer in combinatie met ata over ethernet. Iets waarmee ik bezig ben om mn storage te upgraden.

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • ferdinand
  • Registratie: Februari 2001
  • Laatst online: 28-02 20:34
redfoxert schreef op zondag 23 mei 2010 @ 21:31:
[...]


Ik zou even wat reviews van de tegenwoordige SSD's doornemen. Die halen, sequentieel en dat is wat je waarschijnlijk toch alleen maar gaat gebruiken als cache-disk, echt een veel hogere doorvoer ten opzichte van "klassieke" harddisks.

Een Intel 80GB Postville SSD haalt ongeveer 240MB/sec read en 170MB/sec write. Dat zie ik met een reguliere harddisk nog niet zo snel gebeuren.
De G2 80GB doet 70MB/s schrijven en de G2 160GB doet 100MB/s schrijven. De sandforce schijven trekken SATA 300 dicht met schrijven :)

Acties:
  • 0 Henk 'm!

  • Sand0rf
  • Registratie: Oktober 2005
  • Laatst online: 07:42
Na al een tijdje geleden in dit topic te hebben gepost heb ik nog een wat onderzoek gedaan en denk dat ik nu wel vrij aardig in de buurt ben van een final config:

#ProductPrijsSubtotaal
1Highpoint RocketRAID 2680€ 138,66€ 138,66
1Western Digital Caviar Blue WD1600JB€ 46,-€ 46,-
4Hitachi Deskstar 7K2000, 2TB€ 119,-€ 476,-
Bekijk collectie
Importeer producten
Totaal€ 660,66


Dit is een toevoeging van mijn huidige server (Asus P5W DH Deluxe, C2D E6600, 3GB DDR2). De WD is om het OS en applicatie op te zetten en de rest uiteraard als storage. Wil de boel in RAID 5 gaan draaien onder Windows Server 2008 (Heb de vorige keer al uitgelegd waarom ;) )

Kan dit ermee door?

/post


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:36
Lijkt me prima. Je kunt eventueel een 2e os schijfje van 50 euro er bij doen, zodat je het OS ook redundant kunt draaien met RAID1. Die 50 euro kan gezeik schelen. Maar het is wat je wilt.

Acties:
  • 0 Henk 'm!

  • Sand0rf
  • Registratie: Oktober 2005
  • Laatst online: 07:42
Ja daar heb je een punt, thanx.

Weet iemand trouwens ook of er bij de RAID kaart Mini-SAS naar Sata kabels zitten?

/post


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:36
olliepower schreef op maandag 24 mei 2010 @ 19:03:
Weet iemand trouwens ook of er bij de RAID kaart Mini-SAS naar Sata kabels zitten?
Klik op de handleiding en lees het antwoord.

Acties:
  • 0 Henk 'm!

Verwijderd

Ok de RAID 5 aray werkt, schijnbaar is er een cold boot nodig om de boel helemaal aan de gang te krijgen...

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Helaas moet ik de volgende zaken melden.

Van de 4x chieftec 3-in-2 modules welke ik gekocht heb blijkt er 1tje defect te zijn. Hiervan geeft de temperatuur sensor te pas en te onpas aan dat de temperatuur te hoog is. Betekend verder niets voor het functioneren van de disks erin (welke praktisch koud waren bij aanraking, ook na fan mod). Tijdelijk getest met originele fan, helaas hetzelfde probleem.

Die gaat terug om omgewisseld te worden!

Maar.... nog veel vervelender....

3 van de 7 Samsung 2TB F3EG Ecogreen disks bleken defecten te bezitten! Daar kon mijn RAID5 array uiteindelijk niet tegen en ik heb dus ook een grote hoeveelheid data verlies. :( Zeker ook aangezien deze problemen pas enkele weken na het in gebruik nemen begonnen. Na een full initialize via mijn RAID controller, etc. etc. Helaas lees ik meerdere van dit soort verhalen op het internet, dat er na enkele weken in gebruik ergens aan het einde van de disks zich bad sectors ontwikkelen. Exact zoals bij mijn disks ook het geval is.

Dit kon ik detecteren via mijn RAID controller via de "verify disk media" optie. Maar heb dit ook getest via de Samsung EStool (3.00g). Dit op een SB700 van ATI en een ICH10 van Intel. In de Chieftec's, en er buiten. Same results, everytime.

Dan, nog eventjes als waarschuwing!!!
Hoewel bij alle tools van Maxtor, WD, Seagate en Hitachi gemeld word dat de tests mogelijk data verlies tot gevolg kunnen hebben en je voor een backup moet zorgen. Heb ik met de basic tests nog nooit gehad dat hierbij iets gewist werd. En bij andere tests werd nog eventjes opnieuw duidelijk gemaakt dat dit een destructieve test was!

Bij Samsung, is dat by design, anders. Daarbij zorgt de standaard test ervoor dat als je disk in orde is, hij de laatste 8MB van je disk overschrijft, waar ook je windows partitie tabel blijkt te staan (en in RAID het funest is). Hier word niet om gevraagd, geen speciale melding van gemaakt, niets. Bij een niet correct functionerende HDD word de test vroegtijdig afgebroken en raak je geen data kwijt.

Ongelooflijk. Ik heb nu 4 goed functionerende maar lege disks en 3 disks met bad sectors waar nog wel data op staat!

3 van de 7 vind ik ook een ERG slechte score. :(

Ik had het zelf niet kunnen verzinnen, echt waar...... 8)7 |:( |:( |:( :? :| :'( :'(

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Ik had bij het eerste deel zoiets van, vervelend voor je, maar waarom heb ik daar direct last van. Totdat ik bij het stukje terecht kwam van 3 uit 7 defecte EcoGreens. Laat ik nu net twee weken lang twee Samsung 2TB F3EG schijven bezitten...
Niet om lui te zijn, maar je hebt mogelijk de tabs nog openstaan, kun je de links plaatsen van dingen die je nu al bent tegengekomen over de schijven? Nu weet ik helemaal zeker dat ik voor de dure optie ga om een tweede (echte) backup in te richten voor data die vervelend is om kwijt te raken. (De data die een 'ramp' is om kwijt te raken wordt al echt gebackupped.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-08 17:04

lampie1979

Hoepla!

Ik had ook 14 samsung drives. Binnen 1,5 jaar waren er 7 defect.

They call her... c*ck juggeling Thunderc*nt!


Acties:
  • 0 Henk 'm!

  • ferdinand
  • Registratie: Februari 2001
  • Laatst online: 28-02 20:34
Dadona schreef op maandag 24 mei 2010 @ 23:57:
Niet om lui te zijn, maar je hebt mogelijk de tabs nog openstaan, kun je de links plaatsen van dingen die je nu al bent tegengekomen over de schijven?
Wat bedoel je met tabs die openstaan?

Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
ferdinand schreef op maandag 24 mei 2010 @ 13:52:
[...]

De G2 80GB doet 70MB/s schrijven en de G2 160GB doet 100MB/s schrijven. De sandforce schijven trekken SATA 300 dicht met schrijven :)
Je hebt gelijk. Ik was even in de war met de SLC modellen van Intel :)

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
lampie1979 schreef op dinsdag 25 mei 2010 @ 01:01:
Ik had ook 14 samsung drives. Binnen 1,5 jaar waren er 7 defect.
Om wat voor serie ging het daarbij? De beruchte F1 1TB?
Het probleem is dat dit soort reacties mensen helemaal gek maken en tot nog meer vragen leiden wat nu toch de beste schijven zijn. Ik geef toe, ik ben bij mijn 2TB schijven gewisseld van Western Digital naar Samsung (ik doe het redelijk om en om eigenlijk: Samsung > WD > Samsung > ...). Dit was ingegeven omdat er wat verontrustende geluiden op het forum van SilentPCReview rondgingen over de parkfunctie van de WD schijven. Omdat de WD schijven sowieso duurder waren en ik rondom Samsung nog geen rare verhalen had gehoord ben ik voor Samsung gegaan. Had de prijs andersoms geweest dan was ik mogelijk toch gewoon voor WD gegaan. (Misschien dat de volgende 2TB schijven toch weer van WD komen: WD verlaagt productiekosten Caviar Green)
ferdinand schreef op dinsdag 25 mei 2010 @ 10:04:
[...]
Wat bedoel je met tabs die openstaan?
In de internetbrowser. Als ik mij zo inleef in de situatie dan ben je volop aan het zoeken op het internet (en in mijn geval resulteert dat in een balk met twintig openstaande tabs :+ ) en opeens lees je op één pagina dat ene zinnetje (of een aanhoudende stroom van reacties met dezelfde strekking) dat alles op de plaats laat vallen en waarop je onmiddelijk een reactie op Tweakers plaatst dat je eruit bent. Zo kwam de reactie van Quindor op mij over, dus vroeg ik mij af of Quindor de pagina's waarop de informatie staat, die hij mogelijk toch nog voor zich had (of in de bookmarks heeft staan), in dit topic neer kon zetten.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14-09 14:44
Dadona schreef op dinsdag 25 mei 2010 @ 10:42:
(Misschien dat de volgende 2TB schijven toch weer van WD komen: WD verlaagt productiekosten Caviar Green)
Darn, wilde net bestelling plaatsen voor 4 WD's in RAID5 zie je dit, wilde dan over een week of 8-12 nog een als spare aanschaffen, maar als deze dan helemaal EOL zijn lijkt me dat niet wijs...
Aan de andere kant, hoeveel maakt een andere cachegrootte en rotatiesnelheid uit?

specs


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Loekie schreef op dinsdag 25 mei 2010 @ 12:22:
[...]

Darn, wilde net bestelling plaatsen voor 4 WD's in RAID5 zie je dit, wilde dan over een week of 8-12 nog een als spare aanschaffen, maar als deze dan helemaal EOL zijn lijkt me dat niet wijs...
Aan de andere kant, hoeveel maakt een andere cachegrootte en rotatiesnelheid uit?
Ga er maar niet van uit dat die rotatiesnelheid voor de Green serie daadwerkelijk 7200rpm is. WD zelf geeft daar ook geen uitsluitsel over maar het zal eerder richting de 5400rpm liggen dan de 7200rpm aangezien ze anders zichzelf in de vingers snijden wat betreft de Black serie welke wel daadwerkelijk op 7200rpm draait.

Nog een fout in dat bericht overigens. De WDxxEARS serie bij WD heeft 64Mb cache en de WDxxEADS 32Mb.

Het enige nuttige in het bericht is dus effectief dat ze het productieproces goedkoper gemaakt hebben en dat mogelijk de consumentenprijzen omlaag kunnen :)

[ Voor 15% gewijzigd door redfoxert op 25-05-2010 12:38 ]

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!
Ikzelf heb net 4 nieuwe WD15EADS-00P schijven gekocht, en aan mijn P400 gehangen als RAID5 array.

Hoewel de P400 bekend staat als een redelijk kritische controller, heeft het tot nog toe geen problemen opgeleverd ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
ivm rpm van die WD20EARS, op hun website staat dat deze een variabele snelheid hebben, van 5400 tot 7200, geen idee of dit echt variabel is of niet, maar een 5400 schijf heeft meer dan genoeg throughput om een gbit lan te vullen, dus maakt niet echt uit denk ik...

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 21:30
Het toerental van de Greens is níet variabel maar 5400 of 7200 rpm voor bepaalde types (welke nog niet gesignaleerd zijn, maar anders zouden ze ws ook erg op de Blue's lijken). Artikel:
It's quite simple, really. Most of a drive's power is consumed by the motor that spins the disk inside the drive. Reduce the speed of the disk, and you reduce the amount of power required. However, Western Digital doesn't want to say that they're selling 5,400 RPM drives — those became second class in the desktop market years ago. Instead, they rate the drive's speed as "IntelliPower" and take pains to emphasize that there are other factors that affect performance.

Western Digital has caught a lot of flak for withholding the rotation speed of the Green Power, especially when the product was first launched and the marketing material listed the rotation speed as 5,400-7,200 RPM. This led some to speculate that the rotation speed changed dynamically during use — which would have been an impressive engineering feat had it been true. The reality is revealed by a sentence that Western Digital added to the description of IntelliPower: "For each GreenPower™ drive model, WD may use a different, invariable RPM." In other words, Western Digital reserves the right to release both 5,400 RPM and 7,200 RPM drives under the Green Power name — without telling you which are which.

[ Voor 96% gewijzigd door Nielson op 25-05-2010 18:13 ]


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
goudviske.be schreef op dinsdag 25 mei 2010 @ 17:40:
ivm rpm van die WD20EARS, op hun website staat dat deze een variabele snelheid hebben, van 5400 tot 7200, geen idee of dit echt variabel is of niet, maar een 5400 schijf heeft meer dan genoeg throughput om een gbit lan te vullen, dus maakt niet echt uit denk ik...
Zoals Nielson ook nog eens bevestigd...Ze draaien op 5400rpm en niet variabel o.i.d., dat is marketing praat.

Verder kan ik je mening over de snelheid van deze schijf om gbit lan troughput te saturaten niet delen.

Volgens deze productreview heb je 'slechts' een average read van pakweg 82 MB/s.
Gbit lan doet in theorie 120 MB/s en in praktijk een 110 MB/s (overhead) schat ik.

Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
sequentieel lezen in een raid 6 array haal ik toch vlot 105 MB/s (constant, niet in pieken), misschien dat een enkele schijf daar niet aan komt, niet getest.

Acties:
  • 0 Henk 'm!

Verwijderd

Quindor schreef op maandag 24 mei 2010 @ 23:34:
Dan, nog eventjes als waarschuwing!!!
Hoewel bij alle tools van Maxtor, WD, Seagate en Hitachi gemeld word dat de tests mogelijk data verlies tot gevolg kunnen hebben en je voor een backup moet zorgen. Heb ik met de basic tests nog nooit gehad dat hierbij iets gewist werd. En bij andere tests werd nog eventjes opnieuw duidelijk gemaakt dat dit een destructieve test was!

Bij Samsung, is dat by design, anders. Daarbij zorgt de standaard test ervoor dat als je disk in orde is, hij de laatste 8MB van je disk overschrijft, waar ook je windows partitie tabel blijkt te staan (en in RAID het funest is). Hier word niet om gevraagd, geen speciale melding van gemaakt, niets. Bij een niet correct functionerende HDD word de test vroegtijdig afgebroken en raak je geen data kwijt.
Dat is vreemd, ik heb estool al vele malen gebruikt, zowel de normale als de low-level test, en nog nooit ook maar het minste dataverlies gehad. De low-level format die de tool ook bied resulteert uiteraard wel in dataverlies, maar daar word je dan ook uitgebreid voor gewaarschuwd.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:36
Dadona schreef op dinsdag 25 mei 2010 @ 10:42:
[...]
Om wat voor serie ging het daarbij? De beruchte F1 1TB?
Het probleem is dat dit soort reacties mensen helemaal gek maken en tot nog meer vragen leiden wat nu toch de beste schijven zijn.
Ik weet niet of die greens van Quindor (zwaar K** dude) nu echt slechte schijven zijn, maar 3 stuks met bad sectors is pittig. Maar het blijft inderdaad lastig. met juli a.s. heb ik in totaal 26 Samsung schijven in gebruik waarvan een stuk of 6 al meer dan 2 / 3 jaar. Nul problemen ever. Is de F1 nu goed, slecht? Lampie ervaarde het anders. Tja.

Ik vraag me alleen af of die bad-sectors er pas na een paar weken zaten. Mogelijk is het voor iedereen handig om bij het schoon aanmaken van een array deze een paar keer helemaal te beschrijven en te lezen omdat dan dit soort zaken snel tegen het licht zouden moeten komen voordat de array in productie gaat. Of de disks zelf afzonderlijk (heb ik niet gedaan).

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Loekie schreef op dinsdag 25 mei 2010 @ 12:22:
[...]

Darn, wilde net bestelling plaatsen voor 4 WD's in RAID5 zie je dit, wilde dan over een week of 8-12 nog een als spare aanschaffen, maar als deze dan helemaal EOL zijn lijkt me dat niet wijs...
Aan de andere kant, hoeveel maakt een andere cachegrootte en rotatiesnelheid uit?
De schijven zijn niet EOL. De enige reden waarom ik het de link gaf was vanwege de mogelijk/waarschijnlijke prijsdaling.
Qua storage, zeker in een array, raakt alleen de patsfactor wat aangetast. Zo moet je de schijven ook echt zien, voor zuinige dataopslag. Anders moet je kijken naar black of blue schijven. Zodra je alleen over een gigabit netwerk naar de data gaat, dan zou ik al helemaal geen twijfels hebben. Dat je schijven snel genoeg zijn is stap 1, maar zaken als nics, kabels en zaken als samba liggen maar al te vaak in de weg om daadwerkelijk in de buurt van de 120 mb / sec te komen. Zo blijf ik met samba al op de helft hangen ;(

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Over de samsung's, pech of geluk. Geen idee. Ik heb ook 4x1TB F1's en deze doen het al een jaar prima! Ook heb ik 4x1,5TB Seagate, werken ook prima. Maar ik weet wel dat van alle "sets" disken welke ik over de jaren heen heb gekocht met het upgraden van mijn servers, dat ik nog nooit zo'n "pech" heb gehad.

@Dadona Ik zal zo ff zoeken, tabs niet meer openstaan!
link 1
link 2
link 3

Verder heb ik de disks voordat ik ze in gebruik nam aan een full initialize onderworpen en vele stress testen, etc. etc. Ik heb niet meerdere keren de disks vol geschreven en weer gelezen, maar kom op. Met een full init mag je er redelijk vanuit gaan dat het gewoon goed is. Dat is in het totaal 2x gebeurd voordat ik alles in gebruik heb genomen.

Resultaten van de tests (mochten mensen dat interessant vinden) kun je hier vinden. Elke disk doet in het begin ongeveer 100MB/sec en aan het einde ongeveer 65MB/sec. Bij elkaar deed het RAID array dus zo'n 500MB/sec tot 600MB/sec in het begin van de disks en aan het einde zo'n 400MB/sec. Erg netjes, maar wel logisch. ECO disken compenseren de MB/sec door de platter density te vergroten. Waar ze alleen nooit echt sneller in kunnen worden is IOps, aangezien dat meer gekoppeld is met spindel snelheid. Anyway, andere discussie. Maar in principe kun je stellen dat een 300GB 540 0RPM disk net zo snel sequentiële transfers kan doen als een 100GB 15.000 RPM disk.

Toen heb ik ook grote grote hoeveelheden TB's per volume gemoved om alles ingedeeld te krijgen zoals ik wenste (het was niet 1 groot raid volume aangezien dat problemen oplevert met VMware ESXi 4 (Max 2TB volume)).

Dus voor zover ik kon weten, was alles prima in orde. Ook op een LAN zo'n 10TB in 48Hr over het netwerk gestampt, geen enkel probleem! (Ja, een VM doet zonder moeite 200MB/sec).

Anyway, ik was erg verrast en heb dit tot op heden nog nooit mee gemaakt. Ook heb ik het idee dat ze niet allemaal tegelijk zijn gefailed maar in de loop van 1 week ongeveer, enkele weken na het in gebruik nemen dus. Erg gevaarlijk!

En over EStool. Ik lees dat niet iedereen mijn ervaring deelt. Wellicht dat EStool iets in zich heeft om windows partities te detecteren. Maar als je er RAID op draait, dan gaat dat natuurlijk niet op! Bij mijn RAID disken is het iig consequent mis gegaan, terwijl ik de disks op 2 verschillende hosts heb getest (SB700 en ICH10), just to be sure.

[ Voor 5% gewijzigd door Quindor op 25-05-2010 21:49 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:36
Ik zie dat je er ook flink wat benches mee hebt gedraaid, knappe prestaties zou ik zeggen btw. Het blijft erg vreemd. Kun je nog wat terug vinden in de Windows event logs? oid?

Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14-09 14:44
Dadona schreef op dinsdag 25 mei 2010 @ 19:55:
[...]

De schijven zijn niet EOL. De enige reden waarom ik het de link gaf was vanwege de mogelijk/waarschijnlijke prijsdaling.
Qua storage, zeker in een array, raakt alleen de patsfactor wat aangetast. Zo moet je de schijven ook echt zien, voor zuinige dataopslag. Anders moet je kijken naar black of blue schijven. Zodra je alleen over een gigabit netwerk naar de data gaat, dan zou ik al helemaal geen twijfels hebben. Dat je schijven snel genoeg zijn is stap 1, maar zaken als nics, kabels en zaken als samba liggen maar al te vaak in de weg om daadwerkelijk in de buurt van de 120 mb / sec te komen. Zo blijf ik met samba al op de helft hangen ;(
De schijven an sich niet, maar de uitvoering wellicht wel, ik heb het een en ander bekeken en alle info die ik kan vinden geeft aan dat er iets niet aan het artikel klopt. Alle EARS schijven draaien op 5400 en hebben de 4K-blokgroote en 64MB. Als ze dat aanpassen naar 32MB, gaan ze dan ook terug naar de EADS-serie zonder 4K? Rpm idem, zou dan onder de black-edition vallen als ik me niet vergis.

Het maakt mij niet extreem veel uit hoe snel ze zijn, het is voor een bak die maximaal 8SD-streams en af en toe(in de toekomst) een HD-stream van DVB-S2. Dat eerste doet deze bak nu al op een single 1 TB schijf, dus daar maak ik me geen zorgen over.

Ik heb dan ook maar een bestelling geplaatst en zal over een week of 8 a 12 er een 5e bij kopen als spare of als extra parity voor Raid6, maar daar ben ik nog niet uit. Filesystem wordt dan Ext4 onder een Ubuntu Server.

specs


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Maak je geen zorgen, het artikel klopt inderdaad niet. Als je kijkt naar de bron dan wordt er met geen woord gerept over cache enz. Alleen wordt er gespeculeerd over een kostenreductie door het gebruik van dezelfde materialen voor verschillende schijven.
De auteur van het stuk op HW.info heeft een algemeen inleidend verhaaltje gemaakt over de schijven. Helaas wordt daar inhoudelijk niet over de EARS schijven gesproken, maar over een andere GP, terwijl wel de code EARS wordt genoemd. Kijk bijvoorbeeld maar eens naar het product in hun database dat is gekoppeld aan het artikel (en de prijs van het artikel). Daarin zie je dat die GP (WD20000CSRTL2) een toerental van 7200rpm zou hebben. Hadden ze daadwerkelijk de goede schijf gekoppeld (WD20EARS) dan had de auteur vast geschreven dat het om een 5400rpm schijf gaat met 64MB cache omdat dit bij de WD20EARS in hun database staat geschreven.

(Nu hebben we geregeld al aangegeven dat de GP geen variabel toerental zou hebben, maar een vaste op 5400rpm. Hoe dat met WD20000CSRTL2 zit weet ik niet, als je op die schijft zoekt op de WD site dan krijg je niet een resultaat. Toch komt de schijf bij menig winkel om de hoek kijken, zoals je ook in de pricewatch kunt zien. Daarin staat de schijf aangegeven als zijnde een 5400rpm schijf.)

Lang verhaal, hopelijk klinkt het ook nog logisch ;)

[ Voor 7% gewijzigd door Dadona op 26-05-2010 00:33 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Q schreef op dinsdag 25 mei 2010 @ 22:57:
Ik zie dat je er ook flink wat benches mee hebt gedraaid, knappe prestaties zou ik zeggen btw. Het blijft erg vreemd. Kun je nog wat terug vinden in de Windows event logs? oid?
Hhehehe, dat word lastig. Ik draai ESXi op de bak (een deel van de benches zijn vanuit een VM. Ik stond verbaast over de 1600MB/sec vanuit cache IN een VM!).

Maar voor ESXi was het alsof de disk gewoon spontaan verdween. Dat kan ook wel kloppen aangezien er volgens mijn RAID controller 2 of meer schijven tegelijk verdwenen.

Maar ik had de disks best aardig gestressed voordat deze stuk gingen en al aardig wat mee geschreven en gelezen... daarom kwam het ook als zo'n grote verassing. De nieuwe disks ga ik iig voor ik ze in gebruik neem volledig scannen... hoewel de volledige build het ook had moeten zien. Vandaar ook dat ik verwacht dat de bad sectors pas na enkele weken gekomen zijn. :(

Het is niet anders en het is weg. Nu het zo snel mogelijk weer in orde maken en van de backups bij elkaar puzzelen wat ik nog kan. :)

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Wie kan even de magic keywords aanreiken voor een ZFS based NAS. Met name welk OS handig is. Ik zit met een ESXi server met daarop een aantal linux machines die dan via NFS of iSCSI (whatever gemakkelijk is) gebruik van maken. Ik zou graag ook LDAP integratie hebben met iets vergelijkbaars met linux extended acls. Samba toegang is ook gewenst en als het kan zou het geheel nog een webgui hebben. Ik ben ook bezig met GlusterFS in de toekomst in het achterhoofd. Wat ik wens is dat al mijn servers met een user kan gebruiken , ik begrijp dat LDAP dit mogelijk maakt, het leek me slim om dan gelijk de fileserver hiervan te voorzien of als basis te gebruiken. Suggesties?

Acties:
  • 0 Henk 'm!

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-08 17:04

lampie1979

Hoepla!

Dadona schreef op dinsdag 25 mei 2010 @ 10:42:
[...]
Om wat voor serie ging het daarbij? De beruchte F1 1TB?
Het probleem is dat dit soort reacties mensen helemaal gek maken en tot nog meer vragen leiden wat nu toch de beste schijven zijn. Ik geef toe, ik ben bij mijn 2TB schijven gewisseld van Western Digital naar Samsung (ik doe het redelijk om en om eigenlijk: Samsung > WD > Samsung > ...). Dit was ingegeven omdat er wat verontrustende geluiden op het forum van SilentPCReview rondgingen over de parkfunctie van de WD schijven. Omdat de WD schijven sowieso duurder waren en ik rondom Samsung nog geen rare verhalen had gehoord ben ik voor Samsung gegaan. Had de prijs andersoms geweest dan was ik mogelijk toch gewoon voor WD gegaan. (Misschien dat de volgende 2TB schijven toch weer van WD komen: WD verlaagt productiekosten Caviar Green)

[...]
In de internetbrowser. Als ik mij zo inleef in de situatie dan ben je volop aan het zoeken op het internet (en in mijn geval resulteert dat in een balk met twintig openstaande tabs :+ ) en opeens lees je op één pagina dat ene zinnetje (of een aanhoudende stroom van reacties met dezelfde strekking) dat alles op de plaats laat vallen en waarop je onmiddelijk een reactie op Tweakers plaatst dat je eruit bent. Zo kwam de reactie van Quindor op mij over, dus vroeg ik mij af of Quindor de pagina's waarop de informatie staat, die hij mogelijk toch nog voor zich had (of in de bookmarks heeft staan), in dit topic neer kon zetten.
T166 serie, 500 GB

They call her... c*ck juggeling Thunderc*nt!


Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Mr.SiS schreef op woensdag 26 mei 2010 @ 02:06:
Wie kan even de magic keywords aanreiken voor een ZFS based NAS. Met name welk OS handig is. Ik zit met een ESXi server met daarop een aantal linux machines die dan via NFS of iSCSI (whatever gemakkelijk is) gebruik van maken. Ik zou graag ook LDAP integratie hebben met iets vergelijkbaars met linux extended acls. Samba toegang is ook gewenst en als het kan zou het geheel nog een webgui hebben. Ik ben ook bezig met GlusterFS in de toekomst in het achterhoofd. Wat ik wens is dat al mijn servers met een user kan gebruiken , ik begrijp dat LDAP dit mogelijk maakt, het leek me slim om dan gelijk de fileserver hiervan te voorzien of als basis te gebruiken. Suggesties?
De twee meeste bekende OS'en met ZFS zijn OpenSolaris en FreeBSD. Met beiden kun je volgens mij wat jij wilt. (Hoewel ik niet weet hoe het zit met ACL's en Gluster). OpenSolaris heeft de nieuwste ZFS implementatie (nu ook met deduplicatie e.d.), met de comstar iSCSI target, en meer (NFS4, etc). Er is volgens mij ook de meeste documentatie voor te vinden in combinatie met iSCSI en ESX.

Wat nu een beetje jammer is, is dat niemand weet wat de toekomst van OpenSolaris zal zijn. Het zou jammer zijn als je nu investeert in het leren van OpenSolaris, en je komt er volgend jaar achter dat het project doodbloedt omdat Oracle zijn handen er van af trekt bijvoorbeeld (niemand weet wat hun plannen zijn voor OpenSolaris).

Ik gebruik zelf op veel plekken FreeBSD omdat ik daar al jaren ervaring mee heb, en het managen van softwarepakketten zo ongelooflijk makkelijk is. FreeBSD is volgens mij ook zo'n beetje de meeste veelzijdige *nix.. ZFS gebruik ik ook al een hele tijd naar volle tevredenheid (hoewel niet met ESX). Als ik nu echter een dedicated NAS/SAN pc'tje zou maken, zou ik denk ik toch kiezen voor OpenSolaris.

[ Voor 3% gewijzigd door axis op 26-05-2010 08:27 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

axis schreef op woensdag 26 mei 2010 @ 08:26:
[...]


De twee meeste bekende OS'en met ZFS zijn OpenSolaris en FreeBSD. Met beiden kun je volgens mij wat jij wilt. (Hoewel ik niet weet hoe het zit met ACL's en Gluster). OpenSolaris heeft de nieuwste ZFS implementatie (nu ook met deduplicatie e.d.), met de comstar iSCSI target, en meer (NFS4, etc). Er is volgens mij ook de meeste documentatie voor te vinden in combinatie met iSCSI en ESX.

Wat nu een beetje jammer is, is dat niemand weet wat de toekomst van OpenSolaris zal zijn. Het zou jammer zijn als je nu investeert in het leren van OpenSolaris, en je komt er volgend jaar achter dat het project doodbloedt omdat Oracle zijn handen er van af trekt bijvoorbeeld (niemand weet wat hun plannen zijn voor OpenSolaris).

Ik gebruik zelf op veel plekken FreeBSD omdat ik daar al jaren ervaring mee heb, en het managen van softwarepakketten zo ongelooflijk makkelijk is. FreeBSD is volgens mij ook zo'n beetje de meeste veelzijdige *nix.. ZFS gebruik ik ook al een hele tijd naar volle tevredenheid (hoewel niet met ESX). Als ik nu echter een dedicated NAS/SAN pc'tje zou maken, zou ik denk ik toch kiezen voor OpenSolaris.
Mijn volgende nas projectje ga ik is heel snel met OpenSolaris aan de slag, cache disk, snelle raid arrays. Mijn volgende controller word der waarschijnlijk een zonder RAID maar met ondersteuning van OpenSolaris (dat is 't belangrijkst :P)

Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
Iets wat me gisteren opgevallen is aan mijn NAS. Hij is ongeveer een weekje oud, ben nog volop bezig om alles wat in te stellen.

Moederbord is een Asus M3A76-CM, waar 6x WD20EARS schijven aanhangen. OS is freebsd 8.
Nu moest ik gisteren nog iets aanpassen in de bios, herstart de machine, ... en in de bios zie ik dat hij maar 4 schijven herkent van de 6 die aangesloten zijn (poort 1-4, poort 5 en 6 zijn volgend de bios niet aangesloten), vond ik vreemd. Nadien terug opgestart in freebsd en daar blijft hij de 6 schijven wel degelijk herkennen.

Iemand die een idee heeft waar dit aan zou kunnen liggen? Ik weet ook niet of dit enig risico inhoudt? Schijven zelf werken zonder problemen.

Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14-09 14:44
Dadona schreef op woensdag 26 mei 2010 @ 00:26:
Maak je geen zorgen, het artikel klopt inderdaad niet.
KNIP
Lang verhaal, hopelijk klinkt het ook nog logisch ;)
Ik heb de knoop al doorgehakt, voor zorgen maken is het te laat ;) Dat heb ik vaker bij HWI, dat conclusies niet kloppen oid. Ik heb wel eens het idee dat een redacteur daar een stelling bedenkt en er dan een verhaal omheenschrijft en er een 'test' bij fabriceert die deze stelling onderschrijft. Nu is dit wel een externe nieuwsbron, maar toch.
Het is logisch, diezelfde redenatie had ik ook ongeveer. Het is voor WD goedkoper om de print aan te passen en kleiner te maken dan volledig de specs aan te passen op een stille manier met alle gevolgen van dien.

EDIT: Darn, m'n 4 schijven zijn onderweg, de case waar het allemaal ingaat is de CM 590 met een 4in3 module, die mist een paar schroefjes, iemand enig idee of ik CM daarover kan mailen? Of toch direct de leverancier?

[ Voor 12% gewijzigd door Loekie op 26-05-2010 23:01 ]

specs


Acties:
  • 0 Henk 'm!

  • Kupauw
  • Registratie: Maart 2010
  • Laatst online: 13-08 15:04
Ik ben sinds enige dagen aan het kijken naar een NAS en het leek me leuker/goedkoper om er zelf 1 in elkaar te zetten. Ik loop alleen al direct tegen een probleem aan, ik heb een kast nodig waar 2 (3.5") schijven in gaan en die rond de 100 EUR kost.
Kan ik dan het beste gaan voor een HTPC kast zoals, Antec New Solution NSK1380? Of zijn dit soort kasten echt alleen geschikt voor HTPC doeleinden?

Acties:
  • 0 Henk 'm!

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 11-09 08:36
Quindor, zit net je berichten te lezen echt kl*te man! Heb je al contact gehad met je leverancier..? (misschien een rotte Samsung batch?) Krijg je dezelfde soort disken terug of hoe denkt men het te gaan oplossen?

Succes en hou je taai buddy!

Member of the Ukraine IT Army


Acties:
  • 0 Henk 'm!

  • dragunova
  • Registratie: Mei 2007
  • Laatst online: 03-08-2023

dragunova

Samozaridnyia Vintovka D.

Jasperklaren schreef op donderdag 27 mei 2010 @ 22:27:
Ik ben sinds enige dagen aan het kijken naar een NAS en het leek me leuker/goedkoper om er zelf 1 in elkaar te zetten. Ik loop alleen al direct tegen een probleem aan, ik heb een kast nodig waar 2 (3.5") schijven in gaan en die rond de 100 EUR kost.
Kan ik dan het beste gaan voor een HTPC kast zoals, Antec New Solution NSK1380? Of zijn dit soort kasten echt alleen geschikt voor HTPC doeleinden?
Voor twee schijfjes zou je evt kunnen kijken naar een SilverStone SUGO SG02-F.
Die kost rond de zeven tientjes.
Als je later wilt uitbreiden heeft silverstone ook mooie desktopachtige (platte) kasten van rond de 100 euri waar je 6 of meer schijven in kwijt kan.

does the pope shit in the woods? is a bear catholic?


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

NIK0 schreef op vrijdag 28 mei 2010 @ 12:40:
[...]

Quindor, zit net je berichten te lezen echt kl*te man! Heb je al contact gehad met je leverancier..? (misschien een rotte Samsung batch?) Krijg je dezelfde soort disken terug of hoe denkt men het te gaan oplossen?

Succes en hou je taai buddy!
De disken (en de cabinet) komen van Azerty af. Contact mee gehad en die zeiden "gewoon RMA's voor aanmaken", dus dat heb ik gedaan en opgestuurd.

Binnen de RMA's wel verwezen naar mijn emails aangezien je bij een "simpel" test je geen probleem vind en dat de LBA errors alleen naar voren komen tijdens een "Full scan"

Maar goed, ik ga het zien! Ik hoop ergens volgende week alles (nieuwe spullen) terug te ontvangen! Maar dat zal wel niet helemaal de werkelijkheid zijn. :(

Voor de rest geeft het me de kans dingen met mijn server te doen welke normaal niet mogelijk zijn! Normaal draai ik VMware Vsphere 4.0 (ESXi) dus nu staat er eventjes Win2k8 R2 x64 met Hyper-V op om eens te zien hoe dat is..... voorlopige conclusie : Snel weer terug naar ESX! :P

Verder lijkt mijn online backup via crashplan.com mijn belangrijkste zaken te hebben bewaard. Daarnaast heb ik ook nog wat andere backups en die ga ik binnenkort maar eens in elkaar puzzelen. Historische data en mail/documenten dus niet kwijt, wel veel VM's en ander werk wat ik opnieuw zal moeten doen. Heb me d'r maar bij neer gelegd..... en voor in de toekomst... RAID6, here I come! (Kan met mijn RAID controller delen van disken indelen, dus 2TB RAID6 en dan de rest bijvoorbeeld los of in een R5 of zelfs R0). ESX maakt het lastig (2TB max volume) maar goed. Al doende leert men toch nog bij. ;) :*)

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • nAffie
  • Registratie: Januari 2002
  • Laatst online: 11-09 20:46

nAffie

...

nAffie schreef op dinsdag 11 mei 2010 @ 02:41:
#ProductPrijsSubtotaal
1AMD Sempron 140€ 30,11€ 30,11
1Asus M4A78L-M€ 55,95€ 55,95
1Cooler Master Silent Pro M500€ 65,45€ 65,45
1Kingston HyperX KHX6400D2K2/2G€ 29,75€ 29,75
1Zalman MS1000-HS2€ 126,41€ 126,41
Bekijk collectie
Importeer producten
Totaal€ 307,67
Eindelijk, na bijna 3 weken m'n onderdeeltjes binnen....(Sempron 140 niet direct op voorraad, wist ik tijdens het bestellen al, dus wachtte geduldig af)

Maar kan nu lekker gaan bouwen dit weekend....

Afbeeldingslocatie: http://www.djnaffie.com/pics/IMG00055-20100529-0337sm.jpg

meh.


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Quindor schreef op zaterdag 29 mei 2010 @ 00:43:
[...]

De disken (en de cabinet) komen van Azerty af. Contact mee gehad en die zeiden "gewoon RMA's voor aanmaken", dus dat heb ik gedaan en opgestuurd.

Binnen de RMA's wel verwezen naar mijn emails aangezien je bij een "simpel" test je geen probleem vind en dat de LBA errors alleen naar voren komen tijdens een "Full scan"

Maar goed, ik ga het zien! Ik hoop ergens volgende week alles (nieuwe spullen) terug te ontvangen! Maar dat zal wel niet helemaal de werkelijkheid zijn. :(

Voor de rest geeft het me de kans dingen met mijn server te doen welke normaal niet mogelijk zijn! Normaal draai ik VMware Vsphere 4.0 (ESXi) dus nu staat er eventjes Win2k8 R2 x64 met Hyper-V op om eens te zien hoe dat is..... voorlopige conclusie : Snel weer terug naar ESX! :P

Verder lijkt mijn online backup via crashplan.com mijn belangrijkste zaken te hebben bewaard. Daarnaast heb ik ook nog wat andere backups en die ga ik binnenkort maar eens in elkaar puzzelen. Historische data en mail/documenten dus niet kwijt, wel veel VM's en ander werk wat ik opnieuw zal moeten doen. Heb me d'r maar bij neer gelegd..... en voor in de toekomst... RAID6, here I come! (Kan met mijn RAID controller delen van disken indelen, dus 2TB RAID6 en dan de rest bijvoorbeeld los of in een R5 of zelfs R0). ESX maakt het lastig (2TB max volume) maar goed. Al doende leert men toch nog bij. ;) :*)
Ik draai NFS shares dan heb ik 't lun size limited niet.. Alleen je kan niet zonder te formatteren een complete datastore aan een vm hangen, daar baal ik als een stekker van. Zo kan ik geen WIndows home Server draaien op een lekkere manier. Hoe heb jij dit gefixt?
nAffie schreef op zaterdag 29 mei 2010 @ 03:52:
[...]


Eindelijk, na bijna 3 weken m'n onderdeeltjes binnen....(Sempron 140 niet direct op voorraad, wist ik tijdens het bestellen al, dus wachtte geduldig af)

Maar kan nu lekker gaan bouwen dit weekend....

[afbeelding]
Dat is een mooi stukje hardware! Succes :)

Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14-09 14:44
Zo, disks eindelijk binnen, nieuwe revisie WD20EARS-00J2GB0 64 MB cache en ws zelfde rpm.
Ben nu een raid5 aan het bouwen, vraag me alleen af welke chunksize beste is.
Gaat met name TV-opnames, filmbestanden en af en toe een backup. Ik heb nu 128K gekozen.
Er moet straks EXT4 opkomen voor alle verschillende diensten.

specs


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Loekie schreef op zaterdag 29 mei 2010 @ 14:17:
Zo, disks eindelijk binnen, nieuwe revisie WD20EARS-00J2GB0 64 MB cache en ws zelfde rpm.
Ben nu een raid5 aan het bouwen, vraag me alleen af welke chunksize beste is.
Gaat met name TV-opnames, filmbestanden en af en toe een backup. Ik heb nu 128K gekozen.
Er moet straks EXT4 opkomen voor alle verschillende diensten.
Nu nog foto's! :P

128k is lekker ja.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

DJ-Visto schreef op zaterdag 29 mei 2010 @ 10:35:
[...]

Ik draai NFS shares dan heb ik 't lun size limited niet.. Alleen je kan niet zonder te formatteren een complete datastore aan een vm hangen, daar baal ik als een stekker van. Zo kan ik geen WIndows home Server draaien op een lekkere manier. Hoe heb jij dit gefixt?
Euhm, ik snap niet helemaal wat je bedoelt.

Bij mijzelf had ik 1x7disks in R5, maar dan lun's van 2TB per stuk. Dus 3x2TB R2. Elk disk had dus 3 partjes, het vierde partje van elke disk was de overige ruimte in een simple volume. Uiteindelijk dus 6TB in R5 en de rest als losse ruimte (welke ik in mijn storage VM weer aan elkaar knoopte per 3 stukjes).

Dat limiet is echt **** irritant! Maar ja, er is geen manier omheen helaas.

Wat jij bedoelt met zonder te formateren een datastore aan een VM hangen snap ik niet helemaal? Je hangt toch ook geen datastore aan een VM maar een VMDK welke op 1 van je datastores/VMFS's disken/shares/luns staat?

Deze VMDK's kun je naar wil veranderen, herindelen, aan meerdere VM's koppelen, etc. etc. Nooit problemen mee gehad. Performance is ook prima, enigste echte nadeel is dat als je de disks ooit aan een windows bak wenst te koppelen welke niet in een VM draait dat een probleem oplevert.

De 'extra' disken naast het bovenstaande RAID array (4x1.5TB Seagate 7200 + 1x1TB Samsung 7200) heb ik via een Physical RDM koppeling aan mijn Storage VM geknoopt en middels windows striping weer gestriped. Voordeel daarvan is dat ik deze wel gewoon aan een willekeurige bak kan knopen en de data lezen.

Kun je je vraag nog eens anders uitleggen? Ik denk dat je bedoelt dat je 'normale' disks niet zonder er VMFS van te maken aan VM's kan koppelen, maar ben niet helemaal zeker. Dat kan wel, maar dan moet je zorgen dat de adapter waarmee je dit probeert een Block SCSI adapters is en niet een SCSI adapter. Mijn Adaptec 3805 en 5805 kunnen het dus niet maar mijn SB750 op mijn moederbord (AMD) kan het wel.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14-09 14:44
DJ-Visto schreef op zaterdag 29 mei 2010 @ 14:50:
[...]

Nu nog foto's! :P

128k is lekker ja.
1 DOA, media-errors....
Foto's komen later, ben nu aan het werk en RAID wordt gebouwd...
En er lijkt ook een 2e niet mee te werken :S

[ Voor 8% gewijzigd door Loekie op 29-05-2010 19:55 ]

specs


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Quindor schreef op zaterdag 29 mei 2010 @ 16:50:
[...]

Euhm, ik snap niet helemaal wat je bedoelt.

Bij mijzelf had ik 1x7disks in R5, maar dan lun's van 2TB per stuk. Dus 3x2TB R2. Elk disk had dus 3 partjes, het vierde partje van elke disk was de overige ruimte in een simple volume. Uiteindelijk dus 6TB in R5 en de rest als losse ruimte (welke ik in mijn storage VM weer aan elkaar knoopte per 3 stukjes).

Dat limiet is echt **** irritant! Maar ja, er is geen manier omheen helaas.

Wat jij bedoelt met zonder te formateren een datastore aan een VM hangen snap ik niet helemaal? Je hangt toch ook geen datastore aan een VM maar een VMDK welke op 1 van je datastores/VMFS's disken/shares/luns staat?

Deze VMDK's kun je naar wil veranderen, herindelen, aan meerdere VM's koppelen, etc. etc. Nooit problemen mee gehad. Performance is ook prima, enigste echte nadeel is dat als je de disks ooit aan een windows bak wenst te koppelen welke niet in een VM draait dat een probleem oplevert.

De 'extra' disken naast het bovenstaande RAID array (4x1.5TB Seagate 7200 + 1x1TB Samsung 7200) heb ik via een Physical RDM koppeling aan mijn Storage VM geknoopt en middels windows striping weer gestriped. Voordeel daarvan is dat ik deze wel gewoon aan een willekeurige bak kan knopen en de data lezen.

Kun je je vraag nog eens anders uitleggen? Ik denk dat je bedoelt dat je 'normale' disks niet zonder er VMFS van te maken aan VM's kan koppelen, maar ben niet helemaal zeker. Dat kan wel, maar dan moet je zorgen dat de adapter waarmee je dit probeert een Block SCSI adapters is en niet een SCSI adapter. Mijn Adaptec 3805 en 5805 kunnen het dus niet maar mijn SB750 op mijn moederbord (AMD) kan het wel.
Ah ja, ik heb dus 2NFS shares, een opslag voor mijn vm's, 't grootte voordeel met NFS share je zit niet aan t lun limited O+ Maar dat is 't niet, ik heb dus op mijn onboard controllertje nog een 1TB disk, waar data opstaat en komt vanaf een windows machine, ok via nfs shared, en ESXi ziet hem weliswaar ook nog.

Alleen nu moet ik hem nog aan een VM koppelen zonder data verlies (Dus puur als hardeschijf voor opslag/foto's etc) de vm's zelf worden op de anderen schijf opgeslagen. Met een beetje geluk heb ik binnenkort bij iemand wat ruimte om ruim 2TB aan data ;( te backuppen zodat ik 3x1TB RAID5 kan maken op mijn smart array p400 controller. Maar tijdelijk hangt alles los :F

Wil wel graag bij die bestanden kunnen zonder de vSphere client optestarten.. Ik dacht misschien weet jij dus de oplossing hoe ik die datastore (NFS) koppel aan m'n VM.
Loekie schreef op zaterdag 29 mei 2010 @ 18:12:
[...]

1 DOA, media-errors....
Foto's komen later, ben nu aan het werk en RAID wordt gebouwd...
En er lijkt ook een 2e niet mee te werken :S
:S Van de hoeveel werkt er niet mee en in welke RAID komen die?

[ Voor 5% gewijzigd door DJ-Visto op 29-05-2010 23:38 ]


Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 23:25

Midas.e

Is handig met dinges

Je kan ook een nfs koppeling maken vanuit je vm? Services for unix installeren en gaan.
Tevens kan je de 2TB limitatie voorbij gaan door de blocksize bij het maken van een vmfs naar 512K te zetten.

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Midas.e schreef op zondag 30 mei 2010 @ 00:32:
Je kan ook een nfs koppeling maken vanuit je vm? Services for unix installeren en gaan.
Tevens kan je de 2TB limitatie voorbij gaan door de blocksize bij het maken van een vmfs naar 512K te zetten.
Dat kan idd ook nog, vandaag maar eens doen.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Midas.e schreef op zondag 30 mei 2010 @ 00:32:
Je kan ook een nfs koppeling maken vanuit je vm? Services for unix installeren en gaan.
Tevens kan je de 2TB limitatie voorbij gaan door de blocksize bij het maken van een vmfs naar 512K te zetten.
Euhm, mijn block size is het maximum van 8MB anders kun je de 2TB niet eens halen. Dus ik weet niet helemaal waar je je informatie weg haalt. ESX(i) 4.0u1 heeft nog steeds het 2TB limiet zoals altijd. Enige wat je kunt doen om er omheen te werken is met "extends" gaan werken tot een maximum van 2TB. Maar dat is niet wenselijk naar mijn mening.

@DJ-Visto Als de disk bijvoorbeeld NTFS is geschreven en je wilt deze in je ESX machine bouwen en vervolgens "doorkoppelen" naar je VM zonder te prutsen met VMFS en VMDK's moet je een Virtual of Physical RDM koppeling maken. Zoals ik eerder aangaf, dit gaat alleen als je een Block SCSI controller hebt. Op die manier kun je de disk zonder data verlies aan je VM koppelen.

[ Voor 22% gewijzigd door Quindor op 30-05-2010 01:32 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14-09 14:44
DJ-Visto schreef op zaterdag 29 mei 2010 @ 23:28:
:S Van de hoeveel werkt er niet mee en in welke RAID komen die?
2 van de 4 uit raid5, had er eerder al een ontkoppeld, ik zal zodra resync klaar is ook de laatste disk kicken.
In alle eerlijkheid denk ik niet dat het aan de disks zelf ligt, de verpakking door de leverancier was niet optimaal. Ik zal de naam maar niet noemen, maar ik ga wel een RMA aanmaken. Vervelende is wel dat deze als OEM zonder shell geleverd zijn, retour probeer ik zoveel mogelijk in shell te doen met ruime hoeveelheid schuimvlokken...

Hmm, sta ietwat in dubio, heb net de array weer opnw opgebouwd en heb van 1 disk 1 unrecoverable read-error gehad. Ook de snelheid van het resyncen bleef boven de 30MBs. Ik ben er niet tevreden over, maar anderszijds twijfel ik of dit genoeg is voor RMA....

[ Voor 17% gewijzigd door Loekie op 30-05-2010 17:21 ]

specs


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Quindor schreef op zondag 30 mei 2010 @ 01:30:
[...]

Euhm, mijn block size is het maximum van 8MB anders kun je de 2TB niet eens halen. Dus ik weet niet helemaal waar je je informatie weg haalt. ESX(i) 4.0u1 heeft nog steeds het 2TB limiet zoals altijd. Enige wat je kunt doen om er omheen te werken is met "extends" gaan werken tot een maximum van 2TB. Maar dat is niet wenselijk naar mijn mening.

@DJ-Visto Als de disk bijvoorbeeld NTFS is geschreven en je wilt deze in je ESX machine bouwen en vervolgens "doorkoppelen" naar je VM zonder te prutsen met VMFS en VMDK's moet je een Virtual of Physical RDM koppeling maken. Zoals ik eerder aangaf, dit gaat alleen als je een Block SCSI controller hebt. Op die manier kun je de disk zonder data verlies aan je VM koppelen.
Ik denk dat ik 't makkelijk hou en tijdelijk maar elke schijf los koppel tot ik 3x1TB in RAID5 heb daar maak ik dan gelijk een VMDK van..

Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
nAffie schreef op zaterdag 29 mei 2010 @ 03:52:
[...]


Eindelijk, na bijna 3 weken m'n onderdeeltjes binnen....(Sempron 140 niet direct op voorraad, wist ik tijdens het bestellen al, dus wachtte geduldig af)

Maar kan nu lekker gaan bouwen dit weekend....

[afbeelding]
Ik heb hetzelfde moederbord besteld omwille van het groot aantal sata poorten maar zie ik nu dat goed dat er geen wifi onboard is ?

Acties:
  • 0 Henk 'm!

  • Sand0rf
  • Registratie: Oktober 2005
  • Laatst online: 07:42
Een NAS Server op wifi draaien lijkt me sowieso niet een heel goed idee

/post


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

jos707 schreef op zondag 30 mei 2010 @ 15:09:
[...]

Ik heb hetzelfde moederbord besteld omwille van het groot aantal sata poorten maar zie ik nu dat goed dat er geen wifi onboard is ?
Ben je verdwaalt ofzo? Dit gaat meer over htpc en 6 sata poortne zijn niet echt veel ofzo hoor ;)
Sand0rf schreef op zondag 30 mei 2010 @ 17:20:
Een NAS Server op wifi draaien lijkt me sowieso niet een heel goed idee
Niet heel goed idee? Geen idee!

Acties:
  • 0 Henk 'm!

  • NoepZor
  • Registratie: Maart 2003
  • Laatst online: 21:18
Als je er MP3's vanaf streamt is het prima hoor, dvd's wil ook nog wel :) Maar voor de echte ervaring moet je minstens op gigabit gaan zitten. Ik heb gigabit liggen tussen de NAS server en mijn game-pc. De Asus O!Play beneden zit helaas nog op wireless, full HD materiaal hapert en het kastje reageert tijdens het afspelen niet erg goed (instellen ondertitels, vooruitspoelen ed) omdat wireless te traag is. Ik ga wss een keer een kabel trekken naar die O!play en een gbit router aanschaffen zodat het netwerk geen probleem meer vormt.

De wijzen komen uit het Oosten!


Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14-09 14:44
Hmm, weet iemand hoe je een HD kunt labellen? Dus gewoon de kale HD die niet direct gemount gaat worden onder linux?
e2label labels zie je pas als je mount als ik het zo zie en ik wil juist elke schijf een appart label kunnen geven om zo te zien welke disk niet goed is.

specs


Acties:
  • 0 Henk 'm!

  • Milou
  • Registratie: Mei 2010
  • Laatst online: 21:27
Huidige probleem.

Heb zeer veel films/series op me pc staan en de schijven beginnen wel een beetje vol te raken.
Op dit moment is mijn collectie ~1200 GB groot. Deze staan verspreid over 3 schijven.
Daarnaast heb ik ook nog een muziek collectie erbij staan van ~70 GB.
Ook nog heb ik andere privé bestanden/foto's die ik niet al te graag zie weggaan.
Vandaar mijn keuze voor een NAS. Ben gaan kijken hiervoor maar niet iets gevonden wat aan mijn eisen voldoet.
Ja, wel wat oplossingen gevonden maar die waren ontzettend duur, iets wat ik er niet voor over heb.

Eisen voor NAS.

Genoeg ruimte dus ~4 tb.
Mogelijkheid om schijven bij te plaatsen.
Raid, alhoewel ik niet weet of dit enig nut heeft.
Mogelijkheid om hiervan films te kunnen streamen.
Mogelijkheid om torrents/nieuwsgroepen te kunnen gebruiken.
Laag energie verbruik.
Mogelijkheid om op redelijk tempo films te kunnen converten.

Ik heb zelf een beetje gekeken naar onderdelen maar kom er gewoon helemaal niet uit.
Iemand die me misschien een beetje op weg wil helpen?

Prijsrichting, ~500 euro.

Acties:
  • 0 Henk 'm!

  • Klojum
  • Registratie: Augustus 2006
  • Laatst online: 20-07 20:35
Jasperklaren schreef op donderdag 27 mei 2010 @ 22:27:
Kan ik dan het beste gaan voor een HTPC kast zoals, Antec New Solution NSK1380? Of zijn dit soort kasten echt alleen geschikt voor HTPC doeleinden?
De Antec NSK1380 heb ik ook, en een HTPC is het enige nuttige wat je ermee kan doen, zolang je je mediabestanden streamt van een externe server. Je kunt hooguit drie 3,5" schijven kwijt (naast een 5,25" slot, meestal de CD/DVD/BD-ruimte.

Daarnaast kent deze kast weinig echte airflow. Er is een weggewerkt luchtrooster aan de voorkant, maar de fan in de kleine voeding trekt te weinig lucht door de kast.De harddisks worden dus relatief warm/heet.

Er wordt standaard een extra PCI-slot-fannetje meegeleverd t.b.v. de chipsetkoeling, wat ook niet te regelen is en de voedingsfan qua kabaal aardig overstemt. Geen echt stille kast dus. Wil je de boel met deze kast stil hebben, neem dan een notebookschijf (of SSD) en trek de mediabestanden ergens anders vandaan.

Daarbij zijn de meeste van de kabels die uit de voeding komen aan de zeer korte kant, waar je ook niet blij van wordt. Een oversized koeler voor de CPU is ook niet echt mogelijk, en datzelfde geldt voor een grote(re) passieve koeler op een separate videokaart.

Al met al een systeemkast(je) dat ik niet snel zal aanbevelen...

[ Voor 0% gewijzigd door Klojum op 30-05-2010 21:07 . Reden: Tiepvautjes.. ]


Acties:
  • 0 Henk 'm!

  • jos707
  • Registratie: December 2000
  • Laatst online: 13-09 23:08
DJ-Visto schreef op zondag 30 mei 2010 @ 17:44:
[...]

Ben je verdwaalt ofzo? Dit gaat meer over htpc en 6 sata poortne zijn niet echt veel ofzo hoor ;)
Verdwaalt? nee hoor, ik stelde gewoon een simple vraag. Verder is het niet helemaal duidelijk wat je nu wilt zeggen, naar ik vermoed vind je 6 sata poorten echt niet zo veel? Ok, dat is mooi voor je dan :)

[...]
DJ-Visto schreef op zondag 30 mei 2010 @ 17:44:
Niet heel goed idee? Geen idee!
Wie zegt niet dat ik andere eisen wil stellen aan mijn nas? Wie zegt niet dat ik dat bordje eventueel later voor andere doeleinden wil gebruiken ?

Acties:
  • 0 Henk 'm!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Loekie schreef op zondag 30 mei 2010 @ 19:43:
Hmm, weet iemand hoe je een HD kunt labellen? Dus gewoon de kale HD die niet direct gemount gaat worden onder linux?
e2label labels zie je pas als je mount als ik het zo zie en ik wil juist elke schijf een appart label kunnen geven om zo te zien welke disk niet goed is.
Ja, je kan met udev een rule maken voor een specifiek apparaat. De definitie gaat zo diep als het serienummer.

Je kan ook per interface, device type, fabrikant, size, speed e.d. gaan.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Milou schreef op zondag 30 mei 2010 @ 20:47:
Huidige probleem.
...
Prijsrichting, ~500 euro.
Je zit op of over het randje van het beleid van Tweakers wat betreft je vragen (de magische zin, ik heb gezocht maar heb helemaal niets is nogal makkelijk ;)). Eerlijk gezegd snap ik niet waarom je er niet uitkomt, het is met deze requirements niet al te lastig, maar sommige zaken kun je misschien maar beter niet combineren. Maar ik ben in een goede bui en doe net als die voorbijganger die je een rechts-links-rechts verhaal vertelt waar je het aan het einde zelf verder moet zoeken of nogmaals vragen. :)

Je geeft zelf aan dat je huidige computer te weinig ruimte heeft en je drie schijven inzet. Wat ik zou doen is de films en series verplaatsen naar je NAS. De muziek en persoonlijke data laat je op je huidige computer staan en je maakt daarvan een backup naar de NAS (eventueel laat je de muziek daaruit). Op die manier heb je in ieder geval van de data een backup, je hoort vanaf nu bij een select gezelschap :+
Om te voorkomen dat je bij een schijfuitval alle films opnieuw mag gaan rippen kun je de NAS voorzien van RAID. Gezien de hoeveelheid ruimte die je wil (die ik wel erg veel vind gezien je nu nog niet eens aan de 1.5TB zit) zal dat waarschijnlijk een RAID5 opstelling worden. Een RAID1 (evt 1+0) zal je nog weer een extra schijf kosten en dat lijkt mij nogal overkill. Om aan 4TB (of 3TB) te komen heb je drie schijven nodig als je RAID5 wil draaien.
Een voorstel voor de basis configuratie zou uit het volgende bestaan:
#ProductPrijsSubtotaal
3Samsung EcoGreen F3EG, 2TB€ 110,-€ 330,-
1AMD Sempron 140€ 32,15€ 32,15
1be quiet! Pure Power L7 300W€ 31,60€ 31,60
1Kingston ValueRAM KVR1333D3N9K2/2G€ 53,80€ 53,80
1MSI 785GM-E51€ 63,50€ 63,50
Bekijk collectie
Importeer producten
Totaal€ 511,05

Je gaat hiermee dus iets boven de 500 euro (nog zonder behuizing) maar krijgt daar wel een behoorlijk zuinige set voor terug. Geef je nog zo'n 50 euro meer uit dan kun je nog een paar Watt eraf krijgen. Of dit rendabel is hangt ervan af of je de NAS altijd aan zult hebben.
Het moederbord is nogal saai :+, het is een bijzonder populair moederbord geworden omdat het standaard al een lekker zuinig moederbord is. Je hebt met dit moederbord in ieder geval twee interne SATA poorten vrij en nog één e-SATA (die natuurlijk extern is). Dus uitbreidbaarheid is geen punt.
Processor is een singlecore, maar voldoende voor dataopslag en het leveren van data (of je moet het over geavanceerdere vormen van streamen hebben). Beelden omzetten zou ik zeker niet op je NAS doen maar op je desktop, dus ook wat dat betreft kun je wegkomen met een Sempron. (Een Athlon 240 is een leuke keuze om het misschien iets zuiniger te krijgen, maar het prijsverschil verdien je niet snel terug middels je energierekening.)

Als OS kun je kiezen voor FreeNAS, erg simpel en je kunt zonder veel geklooi voor een RAID5 opstelling kiezen.

Tot zover mijn goede bui, volgende keer mag iemand anders :+

De CSL/OT kroeg !

Pagina: 1 ... 19 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.