Core i3 doet geen VT-d, alleen i5 2500 > (en i7 dus) non-K en Xeon's doen VT-d.
AMD heeft een vergelijkbare feature (AMD-Vi, soms ook wel IOMMU genoemd) maar die vind je maar op een enkele Opteron.

Bovendien moet je chipset en je BIOS het ondersteunen.

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Ik zat vooral te denken om alle files op te slaan op een freenas verzie zit ik aan te denken (nog te zien in hoeveel vdevs). Dan Windows 2k8 server voor dc++ op lan party's. thuis vooral streamen over gig netwerk kan makkelijk via freenas volgensmij (en mis in de toekomst een infiniband kaartje tussen me pc en server) dus in feiten gaat het om een 24 disk zfs server voor film storage en back-ups van de pc's hier thuis.

[ Voor 11% gewijzigd door dylan0806 op 30-03-2012 21:50 ]

Dat kan dus met elke aftandse bak... Pentium G620 zou hier zelfs waarschijnlijk nog snel genoeg voor zijn.
Nadeel is wel dat je dan geen VT-d hebt. Goedkoopste manier om VT-d te krijgen is een i5-2500.

Even niets...


  • marcop23
  • Registratie: December 2009
  • Nu online
Ik heb, op de server van een vriend die ik een soort van beheer (nouja, help), ontdekt dat de chunk size van mdadm op 512 staat:

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdd[0] sdb[3] sdc[1]
      3907027968 blocks super 1.1 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>


Terwijl er 4K disks in zitten (WD20EARX):
# hdparm -I /dev/sdb | grep size
        Logical  Sector size:                   512 bytes
        Physical Sector size:                  4096 bytes
        device size with M = 1024*1024:     1907729 MBytes
        device size with M = 1000*1000:     2000398 MBytes (2000 GB)
        cache/buffer size  = unknown


Is dat eigenlijk niet slecht voor de performance van de array? Die doet nu ongeveer 60 MB/s read en 50 MB/s write, wat ik eigenlijk niet erg hoog vind.

Als de array opnieuw aangemaakt zal moeten worden, kan ik dan gewoon een disk uit de array gooien -> data daarop, array weg, nieuwe array met 4K maken, met een missing disk, data er op, en die disk bij de array?

Of kan ik dit soort dingen ook 'live' aanpassen?
Denk dat je je meer werk op de hals haalt dan dat het op gaat leveren. Maar wat je zegt klopt wel.

Even niets...


  • marcop23
  • Registratie: December 2009
  • Nu online
FireDrunk schreef op zondag 01 april 2012 @ 14:25:
Denk dat je je meer werk op de hals haalt dan dat het op gaat leveren. Maar wat je zegt klopt wel.
Dus het zal niet veel uitmaken? Wat zal dan de bottleneck zijn, het md0_raid5 proces gebruikt onder hevige load namelijk nooit meer dan 10% CPU en wat geheugen, tijdens het controleren of rebuilden. DIe is het bottleneck dus niet. De schijven kunnen zelf buiten een array om ook veel sneller.

Zou zo'n script het oplossen? Past die de block size eigenlijk aan, of wat doet die?

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Met iperf al je kabels en switches uitgesloten?

  • marcop23
  • Registratie: December 2009
  • Nu online
Het is zowel met een dd testje als over het netwerk, wat bijna niets scheelt, dd doet bijna exact net zo snel als SMB.

De server load ligt nu (web server, samba, java voor minecraft en nog wat runnend) op 0.00, wat tijdens schrijven 0.05 of iets degelijks wordt. Daar ligt het dus ook niet aan.

Ik ben eigenlijk gewoon benieuwd of zo'n scriptje zal helpen, maar weet niet of het geheel veilig is om die zomaar te starten.

Het is trouwens een Debian Squeeze server, headless.

  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
FireDrunk schreef op vrijdag 30 maart 2012 @ 23:41:
Dat kan dus met elke aftandse bak... Pentium G620 zou hier zelfs waarschijnlijk nog snel genoeg voor zijn.
Nadeel is wel dat je dan geen VT-d hebt. Goedkoopste manier om VT-d te krijgen is een i5-2500.
Intel ondersteund maar 32 gb en geen ecc.

Memory Specifications
Max Memory Size (dependent on memory type) 32 GB
Memory Types DDR3-1066/1333
# of Memory Channels 2
Max Memory Bandwidth 21 GB/s
ECC Memory Supported No

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Ik haalde net van 160GB 2,5" HD in server naar 1TB op eigen pc een top snelheid van 88MB/s
Viel bijna van me stoel.

Maar dat samba protocol is zo bagger als wat.
Mijn security = user of share werkt voor geen meter.

En performance is alles behalve consequent.
Haalde toen rond de 70/80MB/s half uur later nog geen 15MB/s
NFS is wat dat betreft een *veel* beter protocol. Lekker simpel, en lekker snel.

@ Marcop23, dat scriptje zal inderdaad wel helpen, maar belangrijk is dat je snapt wat je doet. Want voor RAID1 heeft dat scriptje geen zin. Cache groote en block readahead zijn de settings die je het beste kan veranderen.

@Dylan, HD films serveren en een beetje spelen met een paar hostjes qua backup kost echt geen drol van je CPU. Als je de pieken in 2 minuten wil oplossen en daarna 23 uur en 57 minuten je CPU idle wil laten staan, verspil je veel geld.

Je kan beter ergens in het midden gaan zitten, (de sweet spot), daar waar de prijs van CPU + Geheugen + Moederbord opwegen tegen hetgeen je ervoor terugkrijgt. En niet iets kopen omdat je gewoon het snelste van het snelste wil.

Er zijn genoeg mensen hier die alles wat jij noemt doen op een Brazos platform. Wil je niet treuzelen als je toevallig alles tegelijk doet, is een i5-2500 al een monster qua performance.

Even niets...


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zondag 01 april 2012 @ 15:34:
NFS is wat dat betreft een *veel* beter protocol. Lekker simpel, en lekker snel.
NFS was toch niet geschikt voor linux-windows.
Wel onder linux-linux systemen?

Dat kan ik mij herinneren onder de laatste NFS zoektocht.
Linux Windows kan wel, maar de Windows implementatie is niet zo heel goed, maar prima bruikbaar.
Op het werk hebben we zelfs een Windows NFS server :D (goor he... :+ )

Even niets...


  • aaahaaap
  • Registratie: November 2010
  • Laatst online: 15-12 12:14
Ik ben me een beetje aan het oriënteren om een 4 tot 6-bay zelfbouw NAS te gaan maken en hoop dat jullie mij kunnen helpen met wat vragen.

De reden dat ik zelf een NAS wil bouwen is omdat ik de kant en klare NASsen die een beetje wat kunnen (Synology DS412+ of groter) te duur vind (500+ euro) en ik er maximaal 250 aan wil uitgeven.
De NAS komt in een gigabit netwerk te hangen en zal, naast als pure NAS te dienen ook mijn download-bakje worden (dus nzbget + sickbeard, etc) en zal dus ook moeten unpacken en parren.

Ik wil wel graag de afmetingen en het stroomverbruik binnen de perken houden, de minimale eisen zijn:
  • mini-itx
  • minimaal 4x SATA
  • minimaal 1x USB 3.0
  • redelijke tot maximale performance over gigabit
  • en uiteraard een zo laag mogelijke prijs :)
Nu mijn vragen:
  • In het geval van 4x SATA zou ik mn OS moeten booten en runnen van USB, heeft dit nog nadelen?
  • Mini-ITX moederborden met > 4x SATA zijn er niet echt veel, de enige die ik heb kunnen vinden zijn de volgende ASUS moederborden:
    • E35M1-I/E45M1-I serie (met een E-350/E-450 Zacate CPU)
    • P8H77-I (socket 1155, dus met iets van een Celeron G530 of een Pentium G620 oid)
  • Dit zijn helaas niet de meest zuinige moederborden, heeft iemand nog andere/zuinigere suggesties?
  • Uitgaande van deze 2 moederborden, wat zouden de voor- en nadelen van de 1 of de ander zijn? Maakt de keuze voor een Zacate of een Sandy Bridge CPU überhaupt uit voor mijn doeleinden?
  • Is het toch beter/handiger/voldoende om voor een tweedehands/vorige generatie kant en klare NAS te gaan?

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Het OS draaien vanaf USB stick kan prima, afhankelijk van welk OS het is. Je kan natuurlijk voor een PCI of PCI-E SATA kaart gaan, kost wel wat maar dan heb je wel extra SATA poorten erbij.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

De Intel- en MSI-moederborden komen door de band als zuinigste uit de test. Ik heb zelf een G530 met een Intel DH67BL moederbord. Ik weet niet waar je vandaan haalt dat die dingen niet zuinig zijn. De H61 zou naar het schijnt nog zuiniger zijn dan de H67. Heb hier wel het nodige uitgeschakeld.

Het moederbord heeft in ieder geval USB 3.0 en eS-ATA, en een Intel gigabit NIC. Dus dat zit snor. Die USB 3.0 hoefde voor mij niet, ik heb 'm aangeschaft omdat het een zuinig model is, een Intel NIC biedt, en eS-ATA. Als degelijk gigabit wil dan zit je vast aan Intel, tenzij je er apart nog een kaartje bij koopt (en dat jaagt je prijs en verbruik weer de hoogte in).

[ Voor 12% gewijzigd door Borromini op 01-04-2012 23:41 ]

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
@Aaahaap hoeveel TB wil je hebben?

Heb zelf een G620 draaien, werkt ideaal.
Dat icm met 4GB en zat net even te kijken naar mijn resources met htop en top.
Kwam tot de conclusie dat dit voor Sabnzbd + Sickbeard + nog wat standaard dingen behoorlijk overkill is.
Heb mijn server nog nooit boven de 10% CPU usage gezien.

  • aaahaaap
  • Registratie: November 2010
  • Laatst online: 15-12 12:14
Tsurany schreef op zondag 01 april 2012 @ 23:36:
Het OS draaien vanaf USB stick kan prima, afhankelijk van welk OS het is. Je kan natuurlijk voor een PCI of PCI-E SATA kaart gaan, kost wel wat maar dan heb je wel extra SATA poorten erbij.
Dat is mooi om te horen :)
OS weet ik nog niet, waarschijnlijk iets van FreeNAS/FreeBSD of gewoon lekker Linux (Arch in mijn geval), beide moeten wel vanaf USB te booten zijn lijkt me.

Ik zou evt een hardware RAID kaartje kunnen gebruiken, dan zijn de SATA connectors op het moederbord weer vrij om vanaf te booten. Denk alleen niet dat dat voor mijn gebruik veel oplevert kwa performance en het alleen maar de kosten en het verbruik verhoogt.
Borromini schreef op zondag 01 april 2012 @ 23:40:
De Intel- en MSI-moederborden komen door de band als zuinigste uit de test. Ik heb zelf een G530 met een Intel DH67BL moederbord. Ik weet niet waar je vandaan haalt dat die dingen niet zuinig zijn. De H61 zou naar het schijnt nog zuiniger zijn dan de H67. Heb hier wel het nodige uitgeschakeld.
De specifieke moederborden die ik noemde zijn niet heel zuinig, dit is vaker zo bij ASUS moederborden, MSI en (in het geval van Intel-moederborden) Intel zijn inderdaad vaak een stuk zuiniger.
De intels hebben overigens max 4x SATA, maar vaak wel 1 of 2x e-sata.
Dat zou sowieso wel een oplossing kunnen zijn voor moederborden met 4x SATA om een vijfde/boot schijf aan te sluiten, de e-SATA weer naar binnenlussen (mits de e-SATA op een los "kanaal" zit).
Borromini schreef op zondag 01 april 2012 @ 23:40:
Het moederbord heeft in ieder geval USB 3.0 en eS-ATA, en een Intel gigabit NIC. Dus dat zit snor. Die USB 3.0 hoefde voor mij niet, ik heb 'm aangeschaft omdat het een zuinig model is, een Intel NIC biedt, en eS-ATA. Als degelijk gigabit wil dan zit je vast aan Intel, tenzij je er apart nog een kaartje bij koopt (en dat jaagt je prijs en verbruik weer de hoogte in).
De gebruikte LAN chipset op de AMD moederborden is zo te zien vaak een Realtek (de RTL8111E), maakt dit echt zo veel uit voor de performance in de praktijk? M.a.w. zijn die echt zo slecht?
Worst case zou ik dan als ik voor AMD kies er inderdaad nog een Intel Netwerkkaartje bij moeten prikken (+-20 euro).

Ik kwam nog de volgende moederborden tegen, allemaal met Intel NIC:
  • Jetway NF99FL-525 met een Atom D525en 6x SATA
  • Jetway NF9A-Q67, socket 1155, 6x SATA
  • Jetway NC9B-HM67, socket 1155, 5x SATA (1x e-SATA)
  • SuperMicro X7SPA-H, Atom D510+ICH9R, 6x SATA
  • SuperMicro X7SPA-H-D525, Atom D525+ICH9R, 6x SATA
  • SuperMicro C7Q67, socket 1155, 6x SATA, 2x USB3.0
  • SuperMicro X9SCV-Q, socket G2 (Sandy Bridge mobile), 6x SATA
En nog de Jetway NF81-T56N-LF, met e-350 en 5x SATA, 1x mSATA (en Realtek NIC)
Dennisik schreef op maandag 02 april 2012 @ 00:08:
@Aaahaap hoeveel TB wil je hebben?

Heb zelf een G620 draaien, werkt ideaal.
Dat icm met 4GB en zat net even te kijken naar mijn resources met htop en top.
Kwam tot de conclusie dat dit voor Sabnzbd + Sickbeard + nog wat standaard dingen behoorlijk overkill is.
Heb mijn server nog nooit boven de 10% CPU usage gezien.
Aantal TB en exacte disk- en RAID-config ben ik nog niet helemaal uit, denk in eerste instantie 4x 3TB in Raid5 (dus effectief 9TB) of evt RAID6 (dus effectief 6TB).

Wat betreft CPU-load klinkt het goed :)
Die 10%-grens is dus echt de max die je ooit gehad hebt? Dat was dan waarschijnlijk ook bij unpacken/parren?

[ Voor 7% gewijzigd door aaahaaap op 02-04-2012 13:26 ]


  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 18-12 13:23
verkeerde plek

[ Voor 97% gewijzigd door justice strike op 02-04-2012 05:34 ]

U can call me sir.... or justice as long as u bow down ;)


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zondag 01 april 2012 @ 17:02:
Linux Windows kan wel, maar de Windows implementatie is niet zo heel goed, maar prima bruikbaar.
Op het werk hebben we zelfs een Windows NFS server :D (goor he... :+ )
Ik kan me herinneren dat het alsnog via samba gaat, omdat windows alleen het samba protocol gaat?

Die fluctuerende snelheid van samba is echt bagger. Net 86MB/s nu 14MB/s
Moet morgen 2TB overpompen, dat word nog leuk dan.

Zal volgende week ergens, wanneer ik tijd heb dat NFS is eens proberen.
Het klinkt iig wel erg goed, als ik zo de tests lees van verschillende mensen.

Anders FTP, dat zou ook nog wel goed kunnen.
Zo te zien gaat samba nu weer omhoog, het blijft iig een gaar protocol.

[ Voor 8% gewijzigd door Dennisik op 02-04-2012 20:50 ]


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Zit denk toch deze setup te gaan gebruiken.
  • lsi sas voor zfs samen met 3tb schijven
  • intel 2500 voor vt-d
  • ssd vooral voor snelle boot tijden
  • 32GB ram voor zfs
  • moederbord voor voldoende uitbreidingskaarten en zuinig
#ProductPrijsSubtotaal
8Hitachi Deskstar 5K3000, 3TB€ 159,90€ 1.279,20
1Scythe Big Shuriken 2 Rev. B€ 32,75€ 32,75
3Scythe Slip Stream SY1225SL12H, 120mm€ 6,70€ 20,10
1LSI SAS 9201-16i€ 378,77€ 378,77
1Intel Core i5 2500 Boxed€ 178,-€ 178,-
1Corsair HX850W€ 138,99€ 138,99
1Crucial m4 CT128M4SSD1 Slim 128GB€ 131,85€ 131.85
4Corsair Vengeance CMZ8GX3M1A1600C10€ 48,60€ 194,40
1MSI Z68A-G43 (G3)€ 88,-€ 88,-
Bekijk collectie
Importeer producten
Totaal€ 2.573,91

Ga esxi gebruiken met vcenter server met een aantal vm's waaronder zfsguru en w2k8 r2.
Nu aan jullie de vraag of ik iets vergeet/verbeteren kan.
De Slim versie van die SSD is niet nodig toch? En je zegt 32GB RAM voor ZFS, maar je hele server heeft 32GB RAM? Blijft er niets voor andere VM's over...

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
een deel dan ;)

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 19-12 11:19

Midas.e

Is handig met dinges

Hoeveel VM´s wil je werkelijk gaan gebruiken? een 5K3000 met zn 5400rpm disks zijn nou niet echt geweldig snel voor VM's.
Ga nou eens eerst voor jezelf noteren WAT je wil gaan doen ipv speculeren wat je met je nieuwe hardware zou kunnen doen.

Hacktheplanet / PVOutput


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
  • vcenter
  • w2k8 r2 dns en active directory
  • w2k8 r2 dc++ en plex share
  • zfsguru
  • en nog wat test servertjes
vCenter heb je helemaal niet nodig met 1 host, dus die kan je schrappen. Er zijn bij ESXi5 geen dingen die je kan met vCenter die je op een single host niet kan (die in mijn ogen van belang zijn).

W2K8R2 doet het prima met 2GB geheugen in een share ESXi omgeving (Transparant Page sharing zorgt wel voor weinig geheugen gebruik). Dus dat is ook niet echt veel. ZFSguru is natuurlijk een lastige, en afhankelijk van de snelheid die je wil, kan je meer geheugen toevoegen, maar 8GB is in mijn ogen zat.
Dan zit je krap in de 16GB als je ook nog wat test VM's wil.

Het is dus even de afweging of je ECC RDIMM, UDIMM of zelfs helemaal geen ECC wil draaien, want dan heb je een heel andere setup nodig (Server bord vs Desktop bord). Als je er echt geld aan uit wil geven, bedank dan goed wat de eisen moeten zijn, en bedenk niet zomaar een mooi systeem, want dat kan iedereen ;)

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Oke bedankt voor je replay,
Het voordeel van vcenter er ook op is dat je ook kan clone en nog wat meer dingen kan gaan doen.
Nu ik het verschil zie kan ik toch mis beter gaan voor deze setup.
#ProductPrijsSubtotaal
1Supermicro X8SIA-F€ 211,75€ 211,75
1Intel Xeon E5506€ 193,30€ 193,30
8Hitachi Deskstar 5K3000, 3TB€ 159,90€ 1.279,20
1Scythe Big Shuriken 2 Rev. B€ 32,75€ 32,75
3Scythe Slip Stream SY1225SL12H, 120mm€ 6,70€ 20,10
1Corsair HX850W€ 138,99€ 138,99
1Plextor PX-128M3 128GB€ 169,90€ 169,90
3Kingston ValueRAM KVR1333D3LD4R9S/8GEC€ 61,75€ 185,25
Bekijk collectie
Importeer producten
Totaal€ 2.231,24
We kunnen het nog een keer zeggen, maar nu ben je weer een systeem aan het samenstellen, en zien we nog geen eisen.

De CPU die je hebt uitgezocht, past niet eens op dat bord.

Wat wil je nu eigenlijk bereiken met het hebben van een Xeon? Alleen RDIMM? Dan kan je misschien goedkoper voor AMD gaan.

Even niets...


  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 02-12 10:08

lampie1979

Hoepla!

vCenter is way overkill idd. Echter kan het in sommige situaties best ahndig zijn, b.v. met backuppen etc..
Wil je toch vCenter neem dan de Appliance.

Updaten van 1 host doe handmatig je via de CLi.

Bij virtualiseren niet besparen op geheugen! Minimaal 8GB (en dat is krap bij 2+ VMs). Je wil niet dat ESXi gaat swappen!
FireDrunk schreef op woensdag 04 april 2012 @ 11:26:
vCenter heb je helemaal niet nodig met 1 host, dus die kan je schrappen. Er zijn bij ESXi5 geen dingen die je kan met vCenter die je op een single host niet kan (die in mijn ogen van belang zijn).

W2K8R2 doet het prima met 2GB geheugen in een share ESXi omgeving (Transparant Page sharing zorgt wel voor weinig geheugen gebruik). Dus dat is ook niet echt veel. ZFSguru is natuurlijk een lastige, en afhankelijk van de snelheid die je wil, kan je meer geheugen toevoegen, maar 8GB is in mijn ogen zat.
Dan zit je krap in de 16GB als je ook nog wat test VM's wil.

Het is dus even de afweging of je ECC RDIMM, UDIMM of zelfs helemaal geen ECC wil draaien, want dan heb je een heel andere setup nodig (Server bord vs Desktop bord). Als je er echt geld aan uit wil geven, bedank dan goed wat de eisen moeten zijn, en bedenk niet zomaar een mooi systeem, want dat kan iedereen ;)

They call her... c*ck juggeling Thunderc*nt!


  • Meauses
  • Registratie: November 2004
  • Laatst online: 19-12 10:36
Ik zie regelmatig langskomen dat de i5 2500 en hoger vt-d ondersteunt maar ik heb een 2400S en die heeft ook VT-d en VT-x. Die is weer wat goedkoper dan de 2500 serie.

Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp

Maar een -S versie is weer niet zo nuttig, vandaar de 2500 ;)
Bang voor buck met VT-d is het hoogst :)

Even niets...


  • Meauses
  • Registratie: November 2004
  • Laatst online: 19-12 10:36
FireDrunk schreef op woensdag 04 april 2012 @ 19:33:
Maar een -S versie is weer niet zo nuttig, vandaar de 2500 ;)
Bang voor buck met VT-d is het hoogst :)
bedoel je vanwege het aantal Ghz?

Ik wilde performance maar ook zuinigheid combineren, vandaar voor mij de keus

[ Voor 13% gewijzigd door Meauses op 04-04-2012 20:39 ]

Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp

Oh, het is een prima keus, alleen zijn de -S versies vaak een marketing truuk. En clock-voor-clock helemaal niet zuiniger. Er zit alleen een Cap op het maximale verbruik.

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
het is wel heel raar se moederborden van supermicro socket 1366 hebben alleen 1068e lsi chip terwijl de 1156 wel de 2008e hebben

Verwijderd

@dylan: socket 1366 is end-of-life; oude core i7 toch? de nieuwere zijn gewoon 1155 en die raakt binnenkort EOL als 1150 uitkomt zodra Haswell zijn intrede doet... mits ik het allemaal goed heb begrepen. :P

Ik heb trouwens een gelekte PDF van de nieuwe SuperMicro bordjes, of staan deze inmiddels al op de site?
FireDrunk schreef op woensdag 04 april 2012 @ 20:47:
Oh, het is een prima keus, alleen zijn de -S versies vaak een marketing truuk. En clock-voor-clock helemaal niet zuiniger. Er zit alleen een Cap op het maximale verbruik.
Als ik dat mag wat nuanceren:

De performance-per-watt van CPUs is beter op een lagere kloksnelheid. Dus op 1GHz levert een chip misschien de beste performance per watt, terwijl je vanaf 2 - 3GHz steeds meer warmte/voltage nodig hebt voor bescheiden winsten. Het verschil tussen de ivy bridge 45W quadcore en 77W quadcore is een verschil van 2.5 naar 3.5. Dat is ook met alle threads belast; single threaded kom je bijna aan dezelfde cijfers.

Kortom, net zoals met auto's bereik je op een gegeven moment een punt waarbij het verhogen van de clock naar verhouding steeds meer energie gaat verbruiken. Als je software draait die langdurig op 100% draait, kan het nuttig zijn om een lagere TDP CPU te gebruiken.

Bedenk ook dat TDP niet zozeer om stroomverbruik gaat maar om thermische aspecten. Zo betekent 45W dat je hem passief kunt koelen en geen ventilator nodig hebt met een goede passieve koeloplossing. Lage TDP chips zou ik zeker niet marketing willen noemen. Eerder een afweging. Kleine behuizingen of superstille systemen willen graag een lage TDP processor.

Voor 24/7 fileservers is het veel minder interessant. Normaliter drop je naar idle en heb je alleen pieken in stroomverbruik wanneer je echt wat aan het doen bent. Daarbij komt dat een snellere CPU sneller klaar is en dus sneller naar idle mode gaat. Daarom kun je ook van task energy spreken: hoe lang je er ook over doet, hoeveel stroom kost het om X hoeveelheid werk te verrichten, zoals een film transcoden ofzo of met SABnzbd+ vanalles parren. Een hoge TDP chip kan eenzelfde task energy hebben.

Ik zelf kijk uit naar de Ivy Bridge 3770T met 45W, terwijl ik een 3770K neem voor desktop/gaming. Dit stelt mij in staat om een quadcore met 32GB te combineren met 0dB geluidsproductie, 15W idle power en gemonteerd onder mijn bureau vrijwel onzichtbaar. Pics komen vast nog wel eens. In feite zet ik mijn ZFS server en workstations allemaal onder mijn buro tegen het buroblad vast, met iets van 10-12 centimeter hoogte prima te doen. En 100% passief gekoeld en afgesloten. Geen stof, geen lawaai, niets. :)

Oh en kijk even hoe stoer die 3770T schaalt voor single-threaded workloads. Slechts 200MHz langzamer dan de 3770K: http://www.xbitlabs.com/i...bridge_specifications.png

[ Voor 9% gewijzigd door Verwijderd op 04-04-2012 21:06 ]

45W passief kan wel, maar dan moet je wel wat airflow hebben. Onder een bureau gaat dat denk ik niet goed hoor :P

Even niets...


  • Meauses
  • Registratie: November 2004
  • Laatst online: 19-12 10:36
FireDrunk schreef op woensdag 04 april 2012 @ 20:47:
Oh, het is een prima keus, alleen zijn de -S versies vaak een marketing truuk. En clock-voor-clock helemaal niet zuiniger. Er zit alleen een Cap op het maximale verbruik.
Dat geloof ik graag, de huidige cpu's zijn tegenwoordig niet meer van die grootverbruikers (op enkele na).
Maar deze kostte me minder dan een 2500 en het idee van een lager TDP geeft me toch het gevoel goed bezig te zijn voor de natuur (ook wat waard toch? ;) )

Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
nee ik denk dat ik ook maar beter kan wachten op de sandy bridge -e aangezien socket 1366 =<4GB ram geheugen en geen 6gb/s sas aansluitingen.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
aaahaaap schreef op maandag 02 april 2012 @ 00:26:
[...]
Aantal TB en exacte disk- en RAID-config ben ik nog niet helemaal uit, denk in eerste instantie 4x 3TB in Raid5 (dus effectief 9TB) of evt RAID6 (dus effectief 6TB).

Wat betreft CPU-load klinkt het goed :)
Die 10%-grens is dus echt de max die je ooit gehad hebt? Dat was dan waarschijnlijk ook bij unpacken/parren?
Die 10% moet ik even corrigeren, hij is nu een Blu ray film aan het repareren in Sabnzbd en zo'n 150GB aan het kopieren via samba. En hij schommelt nu rond de 50% CPU usage, geheugen zo rond de 20 a 30%

Maar dan nog doet deze CPU die slechts 4 tientjes het prima.

Bedenk me net dat ik een G530 heb draaien |:(
Excuses, De G620 kwam mij bekend voor ik zat daar ook tussen te twijfelen. Enkel het verschil tussen de G620 en G530 was nihiel, klok snelheid ging over paar tiende. Terwijl het prijs verschil percentueel vrij groot was. Iets van 20% meer, vandaar de G530 gekozen.

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Vroeger in het Netburst-tijdperk was een Celeron rommel in vergelijking met een Pentium, Intel heeft de benaming gehouden maar het zijn nu alletwee budgetlijnen, en de verschillen zijn inderdaad miniem (buiten voor de G440 dan die geen EIST heeft). Zelf ook een G530, is meer dan voldoende voor m'n server hier. I/O is meer een probleem dan processorkracht.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
Verwijderd schreef op woensdag 04 april 2012 @ 21:02:
Ik heb trouwens een gelekte PDF van de nieuwe SuperMicro bordjes, of staan deze inmiddels al op de site?
Gimme gimme gimme :o

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik heb hier 6x een 2TB WD20EARS in RAID6 staan. En ik vroeg mij af of deze snelheden acceptabel zijn?

code:
1
2
3
4
5
6
7
8
server:/ # dd if=/dev/zero of=/mnt/data/zerofile.txt bs=1M count=10000
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 37.2081 s, 282 MB/s
server:/ # dd if=/mnt/data/zerofile.txt of=/dev/null bs=1M
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 39.3993 s, 266 MB/s


Ook viel het mij op dat mijn chunck-size op 128K stond, maar als ik het volgende uitlees:
code:
1
2
3
4
5
server:/ # hdparm -I /dev/sdd | grep size
        Logical/Physical Sector size:           512 bytes
        device size with M = 1024*1024:     1907729 MBytes
        device size with M = 1000*1000:     2000398 MBytes (2000 GB)
        cache/buffer size  = unknown


Zie ik dat de Logical/Physical Sector size 512 bytes heeft. Maakt dan een chunk size van 128K veel uit ivm 512K, eigenlijk is dit dus dezelfde vraag als marcop23 stelde.
Nee, een grote chunk is beter voor grote files, een kleine chunk voor kleine files.

Heb je al eens met de readahead enzo gestoeid?


mijn /etc/rc.local

hdparm -S 120 /dev/sda
hdparm -S 120 /dev/sdb
hdparm -S 120 /dev/sdc
hdparm -S 120 /dev/sdd
hdparm -S 120 /dev/sde
hdparm -S 120 /dev/sdf
hdparm -S 120 /dev/sdg
hdparm -S 120 /dev/sdh

echo 8192 > /sys/block/md0/md/stripe_cache_size
blockdev --setra 64 /dev/sd[abcdefgh]
blockdev --setra 16384 /dev/md0
echo 128 > /sys/block/sda/queue/max_sectors_kb
echo 128 > /sys/block/sdb/queue/max_sectors_kb
echo 128 > /sys/block/sdc/queue/max_sectors_kb
echo 128 > /sys/block/sdd/queue/max_sectors_kb
echo 128 > /sys/block/sde/queue/max_sectors_kb
echo 128 > /sys/block/sdf/queue/max_sectors_kb
echo 128 > /sys/block/sdg/queue/max_sectors_kb
echo 128 > /sys/block/sdh/queue/max_sectors_kb

[ Voor 73% gewijzigd door FireDrunk op 05-04-2012 21:56 ]

Even niets...


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik heb dit er al op los gelaten.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
blockdev --setra 16384 /dev/sd[bcdefg]
echo 1024 > /sys/block/sdb/queue/read_ahead_kb
echo 1024 > /sys/block/sdc/queue/read_ahead_kb
echo 1024 > /sys/block/sdd/queue/read_ahead_kb
echo 1024 > /sys/block/sde/queue/read_ahead_kb
echo 1024 > /sys/block/sdf/queue/read_ahead_kb
echo 1024 > /sys/block/sdg/queue/read_ahead_kb
echo 256 > /sys/block/sdb/queue/nr_requests
echo 256 > /sys/block/sdc/queue/nr_requests
echo 256 > /sys/block/sdd/queue/nr_requests
echo 256 > /sys/block/sde/queue/nr_requests
echo 256 > /sys/block/sdf/queue/nr_requests
echo 256 > /sys/block/sdg/queue/nr_requests
# Set read-ahead.
echo "Setting read-ahead to 64 MiB for /dev/md0"
blockdev --setra 65536 /dev/md0
# Set stripe-cache_size.
echo "Setting stripe_cache_size to 16 MiB for /dev/md0"
echo 16384 > /sys/block/md0/md/stripe_cache_size


Maar dat hdparm -S 120 /dev/sd[bcdefg]
En die echo 128 > /sys/block/sdb/queue/max_sectors_kb heb ik nog niet geprobeerd.
Je disks hoeven niet ook nog eens readahead te doen. Dat werkt averechts omdat MD dat al voor je doet (die geeft al meer IO commando's af dan dat applicaties dat doen).

Bovendien (denk ik) dat MD zijn stripes niet altijd na elkaar neerzet, waardoor je beter readahead op je MD device kan hebben dan op je disks. Omdat je disks anders de verkeerde data inlezen, en ze dus trager worden.

Even niets...


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
FireDrunk schreef op donderdag 05 april 2012 @ 22:03:
Je disks hoeven niet ook nog eens readahead te doen. Dat werkt averechts omdat MD dat al voor je doet (die geeft al meer IO commando's af dan dat applicaties dat doen).

Bovendien (denk ik) dat MD zijn stripes niet altijd na elkaar neerzet, waardoor je beter readahead op je MD device kan hebben dan op je disks. Omdat je disks anders de verkeerde data inlezen, en ze dus trager worden.
Dus ik zou echo 1024 > /sys/block/sdb/queue/read_ahead_kb uit moeten zetten?
En zo ja hoe doe je dat eigenlijk :p?
Gewoon het getal verlagen naar 64, en het bestandje opnieuw uitvoeren ;)

Even niets...


  • soulrider
  • Registratie: April 2005
  • Laatst online: 27-11-2017
dylan0806 schreef op woensdag 04 april 2012 @ 21:21:
nee ik denk dat ik ook maar beter kan wachten op de sandy bridge -e aangezien socket 1366 =<4GB ram geheugen en geen 6gb/s sas aansluitingen.
socket 1366 heeft vaak 6 DIMM-sloten en 6*4GB = 24 GB en die sets koop je zo in bijna alle winkels.
Het enige waar je mogelijk moet opletten: geheugen per 3 of 6 kopen en niet per 2 of 4.
Waar haal je die '=<4 GB RAM' vandaan?

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 15:40
@Dylan0806. Zoals eerder vermeld ben je al vrij lang bezig met het samenstellen van een NAS. Daarnaast blijft mijn eerdere opmerking staan dat echt gedegen onderzoek daar vaak in lijkt te ontbreken. Is het niet handiger om een eigen topic te openen voor deze specifieke vraag? Dan heb je alle informatie voor handen en wordt het ook voor ons makkelijker om je verder te helpen. Dit heb ik zelf ook gedaan toen ik met performance problemen zat. Toen kwamen er elke dag wel een aantal nieuwe berichten van mij langs over hetzelfde probleem waardoor uiteindelijk niet meer duidelijk was waar het begin lag en wat ik wel al geprobeerd had. Daarnaast werd het DIY topic er onoverzichtelijker van.

Als je dat nieuwe topic aanmaakt, zoek dan even al je posts op die over het samenstellen van je NAS gaan en voeg ze dan samen in je openingspost. Dan weet iedereen gelijk waar je mee bezig was en hoe je het beste geholpen kan worden. Voorbeeld:

ZFS NAS Performance Issues

Sinds de 2 dagen regel reageer ik hier niet meer

MSDN: Windows 8 SMB 2.2 File Sharing Performance

Stukje over Multiple TCP Sessions! _/-\o_
Eindelijk mogelijkheid om je 1 en 10Gb interfaces vol te duwen!

Even niets...


Verwijderd

Laatst had ik ook een nieuwe feature in FreeBSD 10 gepost ergens, nog maar eens:
NetMap is a framework for high-performance direct-to-hardware packet IO, offering low latency and high PPS rates to userland applications while bypassing any kernel-side packet processing. With NetMap, it is trivially possible to fully saturate a 10 Gbps network interface with minimal packet sizes.
('Trivially' betekent super eenvoudig)
a linux version has been recently completed and should be released later in February 2012. Performance is very similar to that of the FreeBSD version.
Zelf hoop ik dat de nieuwe Intel 10GBaseT adapter (X540 uit mijn hoofd) flink in prijs zakt, max 200 euro per adapter ofzo, met twee poorten kun je dan 3 PCs verbinden zonder switch. Nadeel van netmap is wel dat je firewall buiten werking wordt gesteld. Maar je kunt altijd nog de onboard gigabit voor firewalled verbinding gebruiken, en de 10G adapters alleen voor lokale filesharing gebruiken.

[ Voor 9% gewijzigd door Verwijderd op 06-04-2012 14:53 ]

Bij point-to-point verbindingen zijn firewalls toch sowieso overbodig? Of wil je je beveiligen tegen applicaties die op hol slaan?

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Zo, men array krijgt het wel knap lastig nu :P. Ik heb net de thuispc van men ouders onder de vleugels van men Avamar Virtual Edition gestoken en bij de initiële backup is gewoon browsen van de data array er niet meer bij.

Misschien toch maar eens kijken naar het opsplitsen van ESX datastore en userdata. Zijn er hier toevallig mensen die die practice toepassen?

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik heb een testje gedaan met de verschillende stripe_cache_sizes en read ahead en dit waren mijn resultaten:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
512:  200MB/s
1024: 220MB/s
2048: 242MB/s
4096: 277MB/s
8192: 271MB/s
16384:265MB/s
32768:275MB/s

Read Ahead:
1536:  258MB/s
2048:  267MB/s
4096:  269MB/s
8192:  268MB/s
16384: 268MB/s
32768: 265MB/s
65536: 279MB/s


En sneller wilt die niet :(

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 14-12 22:38

Demo

Probleemschietende Tovenaar

Ik denk ook niet dat je heel veel meer snelheid gaat halen, met 4 dezelfde schijven in RAID5 (dus effectief 1 minder) haal ik 275 read en 225 write. Dus je writes zitten denk ik wel aan hun maximum, misschien dat je er op de reads nog enkele tientallen MB's uit zou kunnen knijpen maar verwacht geen wonderen.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

FireDrunk schreef op vrijdag 06 april 2012 @ 14:31:
MSDN: Windows 8 SMB 2.2 File Sharing Performance

Stukje over Multiple TCP Sessions! _/-\o_
Eindelijk mogelijkheid om je 1 en 10Gb interfaces vol te duwen!
Interessant artikel!

<hier stond onzin 8)7 >

[ Voor 15% gewijzigd door webfreakz.nl op 07-04-2012 02:27 ]

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Dennisik schreef op vrijdag 24 februari 2012 @ 17:06:
Kleine vraag tussendoor:
Ik neem aan dat dit reden genoeg is om hem RMA te sturen?
[afbeelding]
Heb hem aangemeld bij Mycom.nl en is geaccepteerd kan hem dus RMA sturen, en krijg volgens mij dan een nieuwe.

Zie alleen dat hij er nu beter aan toe is:
Afbeeldingslocatie: http://i.imgur.com/rYuBw.jpg

Nu nog steeds RMA opsturen, ondanks dat de Read Error Rate nu niet gefaild is en hij nu 43 bad sectors heeft?

Ben nu iig een lang format aan het doen in Windows, dat zal wel even duren.
Ga hem btw gebruiken in Linux 11.10, op lange termijn ook in MDADM.

[ Voor 11% gewijzigd door Dennisik op 07-04-2012 11:40 ]


Verwijderd

Je schijf wordt ook erg warm voor een green schijf; je hebt misschien schijven tegen elkaar aanzitten zonder minimaal 1-2centimeter marge tussen de schijven? Je hebt bij green schijven in principe geen actieve koeling nodig.

Crrent Pending Sector staat op 0x2B = 43 onleesbare sectoren. Best wel veel.

Read Error Rate is iets heel anders dan bad sectors; en geeft de mediumkwaliteit weer. Als de schijf een sector vaak opnieuw moet lezen, is de kwaliteit duidelijk minder. In jouw geval staat de huidige waarde op 69 met 51 als drempel. Dat betekent dat je er vrij dicht bij zit en je schijf dus zeker niet meer een nieuwe verse schijf is.

Toch kan je schijf nog jaren mee. Als je een zero write doet en je houdt de Current Pending Sector in de gaten, kun je de schijf gewoon weer gebruiken. Krijg je continu weer Pending Sectors erbij, dan zou ik de schijf zeker RMA sturen.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zaterdag 07 april 2012 @ 11:43:
Je schijf wordt ook erg warm voor een green schijf; je hebt misschien schijven tegen elkaar aanzitten zonder minimaal 1-2centimeter marge tussen de schijven? Je hebt bij green schijven in principe geen actieve koeling nodig.

Crrent Pending Sector staat op 0x2B = 43 onleesbare sectoren. Best wel veel.

Read Error Rate is iets heel anders dan bad sectors; en geeft de mediumkwaliteit weer. Als de schijf een sector vaak opnieuw moet lezen, is de kwaliteit duidelijk minder. In jouw geval staat de huidige waarde op 69 met 51 als drempel. Dat betekent dat je er vrij dicht bij zit en je schijf dus zeker niet meer een nieuwe verse schijf is.

Toch kan je schijf nog jaren mee. Als je een zero write doet en je houdt de Current Pending Sector in de gaten, kun je de schijf gewoon weer gebruiken. Krijg je continu weer Pending Sectors erbij, dan zou ik de schijf zeker RMA sturen.
Ik zal nu een zero write aanzetten, danku!

De schijf is nu net geen jaar oud, en heeft nog jaar garantie. Zou beetje zonde zijn als de schijf crasht net buiten de garantie. Schijven zitten inderdaad dicht op elkaar in deze kast, eerdaags zal ik ze 1 voor 1 naar de server verplaatsten en daar heb ik wat meer ruimte.

"format f: /fs:NTFS /p:2"
Dat zal wel een tijdje duren, wss.

"(04-04-2012) HDD defect. SMART
error bad sectors. Order nr.

Return with end-user invoice
RMA, omruilen voor 1x art. 372875 Caviar Green 2TB - 3.5inch"

Dit is van mijn RMA request, ik zal eens kijken hoe de schijf eruit ziet na de zero write.

[ Voor 8% gewijzigd door Dennisik op 07-04-2012 12:02 ]


Verwijderd

Na de zero write zie je Current Pending Sector op 0 staan en als je een surface scan doet zijn alle sectoren leesbaar. De echte vraag is: gaat dat zo blijven. Krijg je vrij snel weer een nieuwe pending sector dan zou ik hem zeker RMA opsturen.

  • roelieboelie
  • Registratie: November 2003
  • Laatst online: 20-12 22:58
Ik heb een servertje gebouwd om hier mijn muziek en film collectie centraal beschikbaar te maken (o.a voor XBMC). Wat ik wil is eigenlijk heel simpel, maar met Windows Home server 2011 kom ik er niet echt uit...

Wat ik wil is het volgende:
1) Een schijfletter op de betreffende computers/laptops die naar de media mappen wijzen (bijv: F:\ voor films, M:\ voor Muziek. Hoe krijg ik dit in godsnaam voor elkaar ? Tevens wil ik hier lees/schrijf rechten een verbinden.

2)Server wil ik zo af en toe uit zetten en hij moet opstarten zonder dat er een wachtwoord / aanmeldscherm o.i.d nodig is. Ook dit lukt me niet met WHS 2011.

3) Extern beheer, dat ik een ip adres indruk op een andere PC in de wereld en dat ik dan ook mijn server binnen kan. Ook dit gaat nog niet lekker.

Mijn vraag is: met welk OS gaat dit nu lukken, zo veel eisend ben ik volgens mij niet ? (ik moet zeggen dat ik niet dat ik geen ervaring heb met linux systemen, vandaar dat ik naar windows grijp).

Hoi


  • GioStyle
  • Registratie: Januari 2010
  • Nu online
Volgens mij kan je dat allemaal met Windows Home Server 2011 regelen.

1.) Je moet op WHS2011 een map sharen via het netwerk. Dan kan je deze share als een schijfletter (netwerklocatie) toevoegen op je clients.

2.) Waarom? Waarom zou je bij een reboot autologin willen gebruiken? Lijkt me juist kwetsbaar.

3.) Dat kan, je zal alleen poorten moeten forwarden in je router.

  • wizkid_niels
  • Registratie: Juni 2006
  • Laatst online: 20-09 15:08
Hi,

Ik ben sinds kort bezig met een film/serie collectie bij te houden. Ik zou dit graag centraal op één plek willen houden, iets waarvoor een NAS perfect zou zijn. In eerste instantie leek FreeNAS mij wel interessant, maar van wat ik begrepen had is OCE hierbij niet mogelijk (dus geen extra drives toevoegen(?))

Ik heb nu een ESXi server. Ik wil graag drives aan de NAS koppelen en vervolgens van daaruit gebruiken voor de andere VMs als dataopslag en kunnen benaderen vanuit het netwerk. Op zich moet dat allemaal kunnen lijkt mij.

Het lastige is juist, ik wil graag makkelijk schijven kunnen toevoegen. Ik wil gebruik maken van Raid0 (er komt geen gevoelige data op, alleen films/series) en makkelijk een schijf kunnen toevoegen zodra het vol zit. Het makkelijk toevoegen van schijven schijnt lastig te zijn voor software-raids.

Zijn er hiervoor wel mogelijkheden die op een NAS lijken en wat ik onder ESXi kan gebruiken, of moet ik echt naar iets anders op zoek?

Alvast bedankt

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Hi ;)
Het lastige is juist, ik wil graag makkelijk schijven kunnen toevoegen. Ik wil gebruik maken van Raid0 (er komt geen gevoelige data op, alleen films/series) en makkelijk een schijf kunnen toevoegen zodra het vol zit. Het makkelijk toevoegen van schijven schijnt lastig te zijn voor software-raids.
Zoek even in dit topic (óf Het grote ZFS topic )op posts van de gebruiker "CiPHER", hij heeft een keer _zeer_ uitgebreid uitgelegd over het hoe en wát omtrent het expanden van een bestaande ZFS pool (met FreeNAS).

[ Voor 3% gewijzigd door webfreakz.nl op 10-04-2012 20:30 ]

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!

Pak gewoon linux met LVM, dat werkt denk ik het makkelijkst voor jou..

Even niets...


  • Roeligan
  • Registratie: December 2001
  • Laatst online: 22-07 11:37

Roeligan

Feyenoord

Inderdaad, LVM (Logic Volume Manager) zou voldoende moeten zijn, Freenas, OMV en nog veel meer NAS OS-en en ook standaard Linux distro's ondersteunen dit allemaal.

A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814

FreeNAS en LVM? Dan zit je ook vast aan de 'oude' RAID engine van FreeNAS?
(hoe heette het ook alweer :+ )

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Tip van de dag: Voor zij die een M1015 willen scoren, er staan er weer een aantal op ebay voor goeie prijzen.

Intussen is mijn ri-vier bestelling ook toegekomen. Gisterenmiddag besteld, deze morgen aangekomen (in Belgie). RPC-230 voor mijn ESX bak en een RPC-2208 voor mijn NAS.

Foto's en een build(b)log volgen!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 16-12 08:59

DJ-Visto

Aye aye, sir!

Van het weekend was mijn raid array (MDADM 3x1TB) een schijf gaan bokken heb hem verwijderd en opnieuw toegevoegd, en hij lijkt weer fijn na het rebuilden mee te doen nu nog is kijken of het mogelijk is om een hogere mdadm versie er op te krijgen hij staat nu op 0.90 en veel te lage chunk size..

/me Happy

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Afbeeldingslocatie: http://i158.photobucket.com/albums/t118/santascsi/NAS/th_P1050242.jpg
Ja de foto is ruk maar de belichting in mijn kamer is ditto

RPC-230 en RPC-2208 vers uit de doos. De 2208 moet mijn NAS gaan herbergen die nu in een Fractal case staat. Ik hoop van harte dat mijn NAS erin past :P.

Het overbouwen zal pas voor dit weekend zijn want ik moet nog kabels trekken naar de zolder, de juiste SFF kabel kopen (vergeten bij te bestellen bij ri-vier) een 19" switch versieren en een PDU plaatsen.

Avamar vind het niet leuk om zomaar zonder datastore te zitten dus moet ik eerst mijn ESX clean afsluiten en dan aan de NAS beginnen eens alles klaar ligt.
offtopic:
Waar heb je die Avamar Virtual edition van daan? ik kan hem nergens meer vinden op de EMC website...

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
offtopic:
Internal affairs ;). Ik vond 'em ook niet meer terug op de website en powerlink. Geen idee waarom hij eraf gehaald is.

  • Abductee
  • Registratie: Oktober 2007
  • Laatst online: 20-11-2024
Even een vraagje tussendoor:
De vrije ruimte op mijn raid5-array begint stilaan krap te worden, dus ik zou er wat extra hdd's in willen steken. Ik heb echter niet veel sata-poorten meer over, dus ik zit te denken aan een expander, maar ik vraag me af of ik bv de M1015 wel kan gebruiken icm mijn moederbord (Asus P5K-e)?

Klopt het dat ik hier dan nog een break-out cable bij nodig heb om de aansluitingen om te vormen naar sata-poorten?

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Abductee schreef op vrijdag 13 april 2012 @ 11:29:
Even een vraagje tussendoor:
De vrije ruimte op mijn raid5-array begint stilaan krap te worden, dus ik zou er wat extra hdd's in willen steken. Ik heb echter niet veel sata-poorten meer over, dus ik zit te denken aan een expander, maar ik vraag me af of ik bv de M1015 wel kan gebruiken icm mijn moederbord (Asus P5K-e)?

Klopt het dat ik hier dan nog een break-out cable bij nodig heb om de aansluitingen om te vormen naar sata-poorten?
De HP sas expander zo met de M1015 samen moeten werken. De user Piglover bevestigd dit op 't ServeTheHome forum.
Het jammere van deze expander is wel dat hij duur is (duurder dan bijv. een M1015 controller) en dat je effectief de bandbreedte van je M1015 (PCIe 8x) over meerdere disks uitsmeert (24 extra disks bij een dual-link verbinding binnen door). Maar als je verder geen PCIe 8 slots meer hebt en enkel PCIe 4x (voor de spanningsvoorziening) is je keuze niet groot.
[H]ardForum heeft ook nog een goede thread over deze SAS expander.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Verwijderd

Voor normaal RAID5 en met name FlexRAID werken expanders prima, maar voor bijvoorbeeld ZFS is dit geen goede optie. Je verliest enorm veel snelheid en degradeert er je hele array mee. Daarnaast is het duurder, kost je meer stroom en is het veel probleemgevoeliger.

Als het even kan; koop twee controllers ipv één. Maar ik kan niet terugvinden wat voor RAID engine Abductee gebruikt, laat staan wat voor OS. De M1015 heeft standaard geen hardware RAID5 alleen RAID0 en RAID1 dus waarschijnlijk gebruikt hij software RAID. In dat geval is het véél beter een extra M1015 te kopen voor 8 extra poorten. Ongeveer 12 euro per poort en volledige snelheid en perfect geschikt voor ZFS als optie in de toekomst.

  • Abductee
  • Registratie: Oktober 2007
  • Laatst online: 20-11-2024
Verwijderd schreef op vrijdag 13 april 2012 @ 12:42:
Voor normaal RAID5 en met name FlexRAID werken expanders prima, maar voor bijvoorbeeld ZFS is dit geen goede optie. Je verliest enorm veel snelheid en degradeert er je hele array mee. Daarnaast is het duurder, kost je meer stroom en is het veel probleemgevoeliger.

Als het even kan; koop twee controllers ipv één. Maar ik kan niet terugvinden wat voor RAID engine Abductee gebruikt, laat staan wat voor OS. De M1015 heeft standaard geen hardware RAID5 alleen RAID0 en RAID1 dus waarschijnlijk gebruikt hij software RAID. In dat geval is het véél beter een extra M1015 te kopen voor 8 extra poorten. Ongeveer 12 euro per poort en volledige snelheid en perfect geschikt voor ZFS als optie in de toekomst.
Ik heb inderdaad een software RAID5 draaien, mbv mdadm onder Ubuntu server. Momenteel zit er nog geen expander in, ik heb alles aangesloten op de poorten van het moederbord. Daarom ben ik nu dus aan het kijken naar bijvoorbeeld een M1015.

Als ik het goed begrijp, zou ik dus gewoon een M1015 kunnen kopen en die in mijn systeem plaatsen?
De M1015 is SAS2 en als je daar een recente HP SAS Expander bij stopt heb je ook een SAS2 link.
Dan heb je een Dual SAS2 link naar je expander.
Dat is dus 2 x 6Gb = 12Gb naar tussen je controller en je expander... Dat is bij 24 disks 0.5Gb per disk...

Bij SAS1 (of zelfs SATA150) zou het inderdaad wat slechter zijn, want dan zou je 0.25Gb per disk overhouden. En bij SATA150 maar 125Mbit.

Lijkt me dus een prima oplossing. Nadeel is vooral het stroomverbruik, die dingen verbruiken iets van 15-20W naar mijn weten.

[ Voor 15% gewijzigd door FireDrunk op 13-04-2012 13:19 ]

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Abductee schreef op vrijdag 13 april 2012 @ 13:13:
[...]


Ik heb inderdaad een software RAID5 draaien, mbv mdadm onder Ubuntu server. Momenteel zit er nog geen expander in, ik heb alles aangesloten op de poorten van het moederbord. Daarom ben ik nu dus aan het kijken naar bijvoorbeeld een M1015.

Als ik het goed begrijp, zou ik dus gewoon een M1015 kunnen kopen en die in mijn systeem plaatsen?
Even Googl'n of iemand die combi al in gebruik heeft, niet alle combi's werken even goed.

Vlgs de spec's van je mobo:
..
2 x PCIe x16 (blue @ x16 mode, black @ x4 or x1 mode) supports

wat er op neer komt dat je slechts 1x een M1015 maximaal zou kunnen gebruiken, de 2e castreer je tot 4x snelheid. Je zult dan ook op zoek moeten naar een PCI videokaartje voor je video uitgave (of een PCIe x1 kaartje).

xtra info:
Heb zelf een M1015 getest in de volgende moederborden:
Asus P5N7A-VM, Gigabyte GA-EX38-DQ6 en de SuperMicro X9SCM-F. Ik heb nog een Asus M3A plank liggen waarbij ik nu een IB HCA in t PCIe x16 slot heb zitten en een PCI videokaartje voor t beeld, een redelijke kans dus dat de M1015 daar ook wilt werken in t PCIe x16 slot.

[ Voor 17% gewijzigd door Pantagruel op 13-04-2012 13:27 . Reden: Xtra info. ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Abductee
  • Registratie: Oktober 2007
  • Laatst online: 20-11-2024
Pantagruel schreef op vrijdag 13 april 2012 @ 13:22:
[...]


Even Googl'n of iemand die combi al in gebruik heeft, niet alle combi's werken even goed.

Vlgs de spec's van je mobo:
..
2 x PCIe x16 (blue @ x16 mode, black @ x4 or x1 mode) supports

wat er op neer komt dat je slechts 1x een M1015 maximaal zou kunnen gebruiken, de 2e castreer je tot 4x snelheid. Je zult dan ook op zoek moeten naar een PCI videokaartje voor je video uitgave.
Ik ben nog niet onmiddelijk van plan om een 2e M1015 erin te stoppen, laat ons maar beginnen met 1. Als ik op het punt kom dat ik met die poorten niet meer genoeg heb, dan denk ik dat mijn server ook wel afgeschreven kan worden, en bouw ik een volledig nieuwe setup. Ik verwacht namelijk dat tegen die tijd een aantal toekomstplannen vorm hebben gekregen, waardoor mijn vereisten van mijn server ook veranderd zullen zijn.
Maar momenteel wil ik dus enkel een 4tal schijven aan mijn systeem toevoegen.

Ik ben wel een beetje in de war door de reacties van Firedrunk en Pantagruel. Volgens mij gaan zij ervan uit dat ik al een M1015 in mijn systeem heb, en dat ik de poorten daarvan wil expanden?
Dat komt omdat een Expander niet werkt zonder controller. Als jij begint over een Expander, gaan wij ervan uit dat jij weet dat je daar een controller voor nodig hebt ;)

Even niets...


  • Abductee
  • Registratie: Oktober 2007
  • Laatst online: 20-11-2024
FireDrunk schreef op vrijdag 13 april 2012 @ 13:33:
Dat komt omdat een Expander niet werkt zonder controller. Als jij begint over een Expander, gaan wij ervan uit dat jij weet dat je daar een controller voor nodig hebt ;)
Dan heb ik me dus (zoals ik al dacht) verkeerd uitgedrukt.
Heb ik het dan juist als ik zeg dat ik enkel de M1015 kan aanschaffen, en daarmee 8 extra poorten krijg?
Ja, dat kan prima.

Even niets...


Verwijderd

FireDrunk schreef op vrijdag 13 april 2012 @ 13:18:
De M1015 is SAS2 en als je daar een recente HP SAS Expander bij stopt heb je ook een SAS2 link.
Nou daar gaat het dus al mis, want als je één schijf met SATA/300 hebt dan draait de expander link ook op 3Gbps snelheid! En ik hoorde ook veel problemen zoals dat maar één link werkte. In zo'n geval heb je de bandbreedte per disk behoorlijk gecastreerd.
Lijkt me dus een prima oplossing.
Welk voordeel haalt hij daar dan uit? Want als hij software RAID gebruikt kan hij prima de onboard + IBM M1015 poorten gebruiken, plus eventueel nog een extra controller. Dan kan hij ongeveer 22 schijven aansluiten. Enige wat hij nodig heeft is twee PCI-express poorten (2.0 x8). Deze optie is sneller, goedkoper, zuiniger, minder probleemgevoelig en tevens geschikt voor ZFS.

Ik blijf dus erg kritisch over expanders; eigenlijk zijn die alleen nuttig als je een verkeerde moederbord-keuze hebt gemaakt, namelijk dat je te weinig PCI-express poorten hebt gekozen voor het aantal disks dat je maximum wilt kunnen aansturen, uitgaande van 8 disks per PCI-express poort (kun je eventueel 16 van maken maar ik hou van veilig en netjes dus 8 disks per PCIe x8 slot).
Als de techniek gaat falen is het natuurlijk nooit goed :) Mijn advies is ook alleen maar dat het een prima oplossing is an sich, ik zou sowieso voor meer controllers gaan, dat is en zuiniger, en sneller inderdaad.

P5K-E staat er volgens mij wel bekend om, om een tikkie kieskeurig te zijn...

Even niets...


  • jadjong
  • Registratie: Juli 2001
  • Niet online
FireDrunk schreef op vrijdag 13 april 2012 @ 13:18:
De M1015 is SAS2 en als je daar een recente HP SAS Expander bij stopt heb je ook een SAS2 link.
Dan heb je een Dual SAS2 link naar je expander.
Dat is dus 2 x 6Gb = 12Gb naar tussen je controller en je expander... Dat is bij 24 disks 0.5Gb per disk...
Die dingen hebben toch een multi-lane poort? Dus met 1 sff8088 kabel koppel je de expander over 4 links.
Verwijderd schreef op vrijdag 13 april 2012 @ 14:03:
[...]

Nou daar gaat het dus al mis, want als je één schijf met SATA/300 hebt dan draait de expander link ook op 3Gbps snelheid! En ik hoorde ook veel problemen zoals dat maar één link werkte. In zo'n geval heb je de bandbreedte per disk behoorlijk gecastreerd.
Dat hangt van de expander af. Sommige kunnen 150/300/600 mixen per link.
[...]

Welk voordeel haalt hij daar dan uit? Want als hij software RAID gebruikt kan hij prima de onboard + IBM M1015 poorten gebruiken, plus eventueel nog een extra controller. Dan kan hij ongeveer 22 schijven aansluiten. Enige wat hij nodig heeft is twee PCI-express poorten (2.0 x8). Deze optie is sneller, goedkoper, zuiniger, minder probleemgevoelig en tevens geschikt voor ZFS.
x4 is 2GB/s, met 8 disks per poort kom je daar toch niet in de buurt.

Verwijderd

IBM M1015 en andere LSI SAS controllers zijn PCI-express x8, niet x4. Dus 8 keer 500MB/s per lane = 4GB/s. Dat zou je theoretisch ook kunnen halen met 8x Crucial M4 64GB SSD. Voor hardeschijven duidelijk overkill en kan PCIe 2.0 x4 link ook goed werken.

Belangrijk is wel dat je zonder expanders geen hogere latency hebt wat met name voor ZFS erg ongunstig is en voor RAID-Z in het bijzonder. Het énige voordeel dat ik zie voor gebruik van expanders is dat je een 'ongeschikt' moederbord voor het aansluiten van veel schijven tóch kunt gebruiken. Met andere woorden, wil je je huidige moederbord met te weinig PCI-express sloten gebruiken, dan kan het gebruik van expanders een overweging zijn.

Maar in andere gevallen? Je hebt alleen maar voordelen bij aanschaf van meerdere controllers. Prijs, Performance en energieverbruik zijn de belangrijkste. Maar je maakt je setup er ook veel minder probleemgevoelig door. Ook al ga je nu geen ZFS gebruiken, kan het fijn zijn hardware te kopen die ook goed met ZFS werkt zodat je dit als toekomstige optie open houdt. Anders heb je straks niets aan zo'n dure expander net als veel mensen met RAID controllers zitten die niet goed met ZFS of andere software RAID overweg kunnen. Dat is natuurlijk jammer als je dat kunt verkopen door de juiste afweging te maken bij aankoop.

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 17-12 15:06
Jormungandr schreef op woensdag 11 april 2012 @ 11:24:
Tip van de dag: Voor zij die een M1015 willen scoren, er staan er weer een aantal op ebay voor goeie prijzen.
Goeie tip, zijn er idd weer een berg te vinden. Wel jammer dat ze vrijwel allemaal zonder normaal bracket worden geleverd..iemand daar al een handige tip voor..?

Member of the Ukraine IT Army


  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Ik heb nu 3x2TB in raid5 ( Samsung F4 ) en 2x 1,5TB los in mijn nas.
Deze week krijg ik er een 4de Samsung F4 bij om zo naar 4x2TB te gaan.
Als ik de 2x 1,5TB los maak en de nieuwe F4 toevoeg gaat hij dan netjes doortellen met drive letters? Daarna wil ik de 2x 1,5TB weer aankoppelen en die schuiven dan hoppelijk 1 drive letter op.
Daarna moet ik gaan growen en mijn EXT4 vergroten ( Debian 6 ).

http://allintech.info/200...owing-raid5-array-ubuntu/

Dit lijkt mij goed ^.

[ Voor 11% gewijzigd door DJ-Promo op 14-04-2012 14:43 ]


  • Meauses
  • Registratie: November 2004
  • Laatst online: 19-12 10:36
NIK0 schreef op zaterdag 14 april 2012 @ 14:35:
[...]

Goeie tip, zijn er idd weer een berg te vinden. Wel jammer dat ze vrijwel allemaal zonder normaal bracket worden geleverd..iemand daar al een handige tip voor..?
Ik heb deze http://www.ebay.com/itm/1..._trksid=p3984.m1497.l2649 besteld, kwam ik tegen tussen comments in de v&a voor een m1015. Heb zelf een m1015 kunnen scoren voor 95$ - 10% (coupon van ebay) en die bracket besteld.

Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Over expanders.

Een sas expander is als een switch die een van de schijven aan een van de sas lanes van de controller knoopt. Dit doet ie alleen als de schijf/controller daar om vraagt en gebruikt hier gewoon een vrije lane voor.

Dus een expander met 8 sas kanalen verbonden aan de controller kan dus 8 willekeurige schijven willekeurig gelijkertijd aan de controller verbinden.

De snelheid van die link wordt gelimiteerd door de langzaamste schakel in die "tijdelijke" link, bij een sata150 schijf worden de andere connecties dus gewoon op hogere snelheid gemaakt.

"Enige" nadeel is de schakeltijd waardoor je ns extra latentie krijgt op een verbinding die een latentie heeft van ms.

Knappe server(gebruikers) die 8 schijven constant 600mb/s kan laten lezen/schrijven en visa versa buiten ssd's maar ook daar zijn er niet zo veel van.

Zodra dit niet het geval is wordt er dus data met 600mb/s verstuurt en in de cache van de schijf gedropt en dan wordt de volgende schijf met ... etc etc.
Niet de allermooiste oplossing maar met de hardware die nu op de markt is de expander niet de bottleneck.

Dit in tegenstelling als je gaat kijken hoe het op de sata manier wordt opgelost daar delen meerdere schijven 1 sata poort op de controller. Dit vormt wel snel een bottleneck.

En expanders in pciesloten steken? heb ik nooit begrepen(ik weet dat ze bestaan). Een expanders sluit je aan op de stroom en op de sas controller en op de schijven. Een backplane met expander is dus handiger dan een pcie kaart met expander.

Een hoop argumenten tegen de expander die ik hierboven heb gelezen zijn niet helemaal correct. En zou ik niet gebruiken om een expander uit te sluiten.
De enige echt valide reden is dat een expander te duur is vergeleken met een 8 lane sas2 controller, dit houd natuurlijk op een argument te zijn als je meer schijven in je server wilt stoppen dan dat er pciex8 2.0 poorten zijn. Of bijvoorbeeld sowieso een backplane wil gebruiken want de meerkosten van een met expander zijn niet zo heel groot.

Verwijderd

Mafketel schreef op zaterdag 14 april 2012 @ 15:07:
Dus een expander met 8 sas kanalen verbonden aan de controller kan dus 8 willekeurige schijven willekeurig gelijkertijd aan de controller verbinden.
Een expander heeft vrijwel per definitie meer front-end bandbreedte dan back-end bandbreedte. Je kunt dus nooit dedicated I/O hebben per disk. Afgezien van de bandbreedte betekent een extra laag/chip waar alle I/O doorheen moet dat alle I/O een hogere latency krijgt, maar dat is nog het minste probleem van expanders.
De snelheid van die link wordt gelimiteerd door de langzaamste schakel in die "tijdelijke" link, bij een sata150 schijf worden de andere connecties dus gewoon op hogere snelheid gemaakt.
Dat geldt zeker niet voor alle expanders; op HardOCP is de HP SAS expander het populairst, en daar zijn heel wat problemen mee gemeld. Zoals als je SATA/300 schijven hebt, dan werkt je expander ook op SATA/300 snelheid. Als er betere SAS expanders bestaan prima, maar deze belangrijke beperking mag wel vermeld worden voor iemand die op zoek gaat naar een expander.
"Enige" nadeel is de schakeltijd waardoor je ns extra latentie krijgt op een verbinding die een latentie heeft van ms.
Een van de vele nadelen bedoel je. De véél hogere aanschafprijs, lagere performance, hoger energieverbruik en probleemgevoelige techniek (lees even op HardOCP over alle expander problemen) maken dat expanders enorm veel nadelen kennen.

Bij ZFS in het bijzonder is de performancedegradatie enorm. Dat komt, zoals eerder uitgelegd, over het feit dat ZFS veel meer I/O requests stuurt dan bijvoorbeeld RAID5. Waar RAID5 blokken van 128K opvraagt per disk, zal ZFS zeker bij RAID-Z veel kleinere I/O sturen. De vertraging door gebruik van expanders neemt hiermee veel meer toe dan wanneer je normaal Linux RAID5 zou gebruiken, of FlexRAID, wat uitstekend geschikt is voor expanders en vrijwel geen performanceverlies kent. Bij ZFS is dat heel anders.

Ook komen er bugs aan het licht die alleen bij ZFS lijken voor te komen. Zo stuurt ZFS soms heel veel FLUSH BUFFER commando's, waardoor de HP SAS expander zou trippen. Dergelijke bugs zijn met normaal Linux software RAID niet aan het licht gekomen.
Knappe server(gebruikers) die 8 schijven constant 600mb/s kan laten lezen/schrijven en visa versa buiten ssd's maar ook daar zijn er niet zo veel van.
Op HardOCP anders aardig wat threads geweest waarbij ZFS-gebruikers die Expanders hadden, eigenlijk 1000MB/s+ moesten halen, maar door de expander een factor 10 lagere performance haalde, onder de 100MB/s.

Het vervelende van expanders is dat dit het grootste nadeel van RAID-Z blootlegt; alle I/O wordt verspreid over alle disks, wat niet bij RAID5 gebeurt! Daarom is RAID-Z meer zoals RAID3 wat dezelfde eigenschap heeft. Er bestaat geen read-modify-write. Dat betekent wel dat als schijf5 de I/O pas na 10ms klaar heeft en schijf1 al na 1ms, dat het geldt alsof alle schijven een 10ms latency hadden. Dit is bij RAID5 zeker niet het geval.
Dit in tegenstelling als je gaat kijken hoe het op de sata manier wordt opgelost daar delen meerdere schijven 1 sata poort op de controller. Dit vormt wel snel een bottleneck.
Met FIS-based switching (SATA port multipliers) zou het in principe even goed (of even slecht) als SAS expanders moeten werken.
En expanders in pciesloten steken? heb ik nooit begrepen
Ging toch om dat ze daar hun stroom vandaan halen? Zoals je weet vreten Expanders heel wat stroom. Meer dan een Brazos server met 8GB RAM.
Een hoop argumenten tegen de expander die ik hierboven heb gelezen zijn niet helemaal correct. En zou ik niet gebruiken om een expander uit te sluiten.
Vertel! Deel je inzichten waarom expanders volgens jou wél geschikt zijn. Misschien is het handig om hierbij configuraties als FlexRAID, Linux software RAID en ZFS apart te beoordelen. ZFS komt van alle drie natuurlijk het slechtste (of minst goede) uit de bus.

Met andere woorden: probeer mij eens te overtuigen waarom expanders nuttig zijn? Als ik even ongenaunceerd mag zijn: het zijn klotedingen! Geen enkele reden om aan te schaffen; alleen als je een verkeerde moederbordkeuze hebt gemaakt en geen nieuw moederbord wilt aanschaffen. Prove me wrong! Laat een situatie zien waarin Expanders nuttig en financiëel verantwoord zijn.

Duidelijk mag zijn dat ik vooralsnog absoluut niet overtuigd ben van het nut van expanders. Niet voor ZFS en ook niet voor andere opstellingen. Hoofdelement hierbij is de prijs; als je nou extra SAS/SATA poorten kunt creëren voor de helft van de prijs, maar zelfs dat is niet waar; het is gewoon f*cking duurder. Dus je geeft extra geld uit voor een langzamer, probleemgevoeliger en energieverslindender alternatief. Waarom?

Ik sta open voor goede argumenten. :)
Hoewel ik het helemaal met je eens ben, vraag ik me eerlijk gezegd af waarom je ZFS en MD zou willen scheiden? Ze lezen toch evenveel van een disk? Een full stripe is bij ZFS zelfs van een variabele grootte, en bij MD van een vaste grootte, daardoor zou MD er zelfs meer last van hebben als die IO('s) te traag aankomen.


Edit:

Net een vreemd probleempje. Na het bijplaatsen van een extra SSD (naast mij boot ssd) vond MD dat er een disk miste uit mijn RAID6 array, en gaf vrolijk aan dat deze dus degraded was.
Dit terwijl de SSD aan het einde van de rit erbij is gekomen (/dev/sdj).

Een cat /proc/partitions leerde mij dat gewoon alle disks online waren, en er dus geen enkele reden was om de disk niet te attachen (aangezien er nergens in de logging melding van een fout gemaakt werd).

mdadm /dev/md0 --add /dev/sda (de missende disk) en hij is vrolijk aan het rebuilden.
Ook nog maar even de minimale rebuild snelheid aangepast, aangezien 1000KB/s (de default) mij te langzaam is. Hij doet nu 55-65MB/s.

Vreemd verhaal meneer MD / CentOS :)


Every 2.0s: cat /proc/mdstat                                                                                                                                                           Sat Apr 14 16:52:23 2012

Personalities : [raid6] [raid5] [raid4]
md0 : active raid6 sda[5] sde[1] sdf[0] sdh[6] sdg[7] sdb[3] sdd[4] sdc[2]
      11721080064 blocks super 1.2 level 6, 128k chunk, algorithm 2 [8/7] [UUUUU_UU]
      [=============>.......]  recovery = 65.8% (1285625524/1953513344) finish=213.2min speed=52204K/sec
      bitmap: 8/15 pages [32KB], 65536KB chunk

unused devices: <none>


Lang leve een bitmap! :+

En klaar :D

[ Voor 76% gewijzigd door FireDrunk op 14-04-2012 17:03 ]

Even niets...


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Sorry ik ga je post een beetje mixen ... en dit is niet om jou te overtuigen, er worden genoeg servers uitgeleverd met sasexpanders om te bewijzen dat het een stabiele oplossing is. Dat er geen rotte appels tussen zitten hoor je mij niet zeggen. Dat het goedkoper is hoor je mij ook niet zeggen en dat je geen goed moederbord moet kopen met genoeg pcie lanes is ook iets wat je mij niet hoort zeggen. Sterker nog men zegt dat ik daarin overdrijf :+
Verwijderd schreef op zaterdag 14 april 2012 @ 16:01:
[...]
Een expander heeft vrijwel per definitie meer front-end bandbreedte dan back-end bandbreedte. Je kunt dus nooit dedicated I/O hebben per disk. Afgezien van de bandbreedte betekent een extra laag/chip waar alle I/O doorheen moet dat alle I/O een hogere latency krijgt, maar dat is nog het minste probleem van expanders.
[...]
Met FIS-based switching (SATA port multipliers) zou het in principe even goed (of even slecht) als SAS expanders moeten werken.
Een sas expander is zoals een oude telefooncentrale, en verbind een willekeurige controller lane aan een willekeurige schijf(of iets anders)
Dus nee de sata oplossing is absoluut een bottleneck terwijl een sas2 expander met de huidige hd snelheden dat niet hoeft te zijn
[...]
Dat geldt zeker niet voor alle expanders; op HardOCP is de HP SAS expander het populairst, en daar zijn heel wat problemen mee gemeld. Zoals als je SATA/300 schijven hebt, dan werkt je expander ook op SATA/300 snelheid. Als er betere SAS expanders bestaan prima, maar deze belangrijke beperking mag wel vermeld worden voor iemand die op zoek gaat naar een expander.
ga je nu alle expanders afkraken op de ervaring van een expander? Als de controller met de sata150 schijf praat is die lane van de sas2 controller inderdaad sata150 de rest van de expander en controller praten dan nog met sas2(mits de andere apparaten dat natuurlijk ondersteunen)
[...]
Een van de vele nadelen bedoel je. De véél hogere aanschafprijs, lagere performance, hoger energieverbruik en probleemgevoelige techniek (lees even op HardOCP over alle expander problemen) maken dat expanders enorm veel nadelen kennen.
Heb je daar links van ik zoek net op expander bij hardocp forum en ik zie geen topic met problemen.
Bij ZFS in het bijzonder is de performancedegradatie enorm. Dat komt, zoals eerder uitgelegd, over het feit dat ZFS veel meer I/O requests stuurt dan bijvoorbeeld RAID5. Waar RAID5 blokken van 128K opvraagt per disk, zal ZFS zeker bij RAID-Z veel kleinere I/O sturen. De vertraging door gebruik van expanders neemt hiermee veel meer toe dan wanneer je normaal Linux RAID5 zou gebruiken, of FlexRAID, wat uitstekend geschikt is voor expanders en vrijwel geen performanceverlies kent. Bij ZFS is dat heel anders.

Ook komen er bugs aan het licht die alleen bij ZFS lijken voor te komen. Zo stuurt ZFS soms heel veel FLUSH BUFFER commando's, waardoor de HP SAS expander zou trippen. Dergelijke bugs zijn met normaal Linux software RAID niet aan het licht gekomen.
[...]
Op HardOCP anders aardig wat threads geweest waarbij ZFS-gebruikers die Expanders hadden, eigenlijk 1000MB/s+ moesten halen, maar door de expander een factor 10 lagere performance haalde, onder de 100MB/s.

Het vervelende van expanders is dat dit het grootste nadeel van RAID-Z blootlegt; alle I/O wordt verspreid over alle disks, wat niet bij RAID5 gebeurt! Daarom is RAID-Z meer zoals RAID3 wat dezelfde eigenschap heeft. Er bestaat geen read-modify-write. Dat betekent wel dat als schijf5 de I/O pas na 10ms klaar heeft en schijf1 al na 1ms, dat het geldt alsof alle schijven een 10ms latency hadden. Dit is bij RAID5 zeker niet het geval.
En jij denkt dat de verschillende sun bakken met meer dan 8 hd mogelijkheden geen expanders bevatten?
Dat is ook allemaal kommer en kwel?
Ik bedoel de thumper maar er zijn er nog meer als ik het mij goed herinner
[...]
Ging toch om dat ze daar hun stroom vandaan halen? Zoals je weet vreten Expanders heel wat stroom. Meer dan een Brazos server met 8GB RAM.
En geef mij eens een goede reden om een pcie slot gebruiken om stroom vandaan te halen terwijl er een voeding of meerdere voedingen in een computer zitten met stekkers waar je prik uit kan halen. Overigens word er door sommige expanders inline informatie uitgewisseld naar de controller naar de pc of soms via een extra i2c verbinding.
[...]

Vertel! Deel je inzichten waarom expanders volgens jou wél geschikt zijn. Misschien is het handig om hierbij configuraties als FlexRAID, Linux software RAID en ZFS apart te beoordelen. ZFS komt van alle drie natuurlijk het slechtste (of minst goede) uit de bus.

Met andere woorden: probeer mij eens te overtuigen waarom expanders nuttig zijn? Als ik even ongenaunceerd mag zijn: het zijn klotedingen! Geen enkele reden om aan te schaffen; alleen als je een verkeerde moederbordkeuze hebt gemaakt en geen nieuw moederbord wilt aanschaffen. Prove me wrong! Laat een situatie zien waarin Expanders nuttig en financiëel verantwoord zijn.

Duidelijk mag zijn dat ik vooralsnog absoluut niet overtuigd ben van het nut van expanders. Niet voor ZFS en ook niet voor andere opstellingen. Hoofdelement hierbij is de prijs; als je nou extra SAS/SATA poorten kunt creëren voor de helft van de prijs, maar zelfs dat is niet waar; het is gewoon f*cking duurder. Dus je geeft extra geld uit voor een langzamer, probleemgevoeliger en energieverslindender alternatief. Waarom?

Ik sta open voor goede argumenten. :)
Als je meer dan 16 sas2 poorten nodig hebt en dus waarschijnlijk ook een backplane nodig hebt en pc kast waar dat allemaal inpast zit je al heel gauw op iets met expander.
De meeste das dozen zijn voorzien van een expander.

een voorbeeld buiten de genoemde oudere sun servers(laatst bij oracle op de site gekeken en ik zag ze niet meer staan) Ik had een supermicro voorbeeld willen geven maar hun website was wat traag.... inmiddels wat sneller ...

p.s. Op een bepaald moment begeef je je buiten de gebaande paden en dan word het duur, meer dan 16 sas2 lanes en 6 x sata3 betekend de buidel open trekken. Overigens een nette oplossing om 16 x 3,5" schijven weg te werken plus 4 x ssd cache plus 2 x OS ssd's zal ook niet goedkoop zijn.
En dan heb ik het nog niet eens over de prijzen van de schijven. En heb ik het ook nog niet over een expander gehad en moet je ook nog een aantal extra gbit poortjes aan het ding hangen of infinband of fiberchannel.

En dan mag je mij vertellen welk moederbord genoeg pcie lanes heeft om deftige connectie naar buiten plus meer dan 2 x 8 poorts sas2 controllers aan te sturen.

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
In de EMC arrays worden ook expanders gebruikt en daar gaan meerdere shelfs met 15 disks elk over 1 SAS kabel en ik hoor niemand klagen dat zijn 15k FC disken te traag zijn.

Expanders hebben wel degelijk nut, maar ze moeten op de juiste manier/plaats toegepast worden.

Intussen kan ik mijn NAS niet overbouwen naar mijn nieuwe Norco omdat ik in mijn enthousiasme een SFF8087-SFF8087 kabel ben vergeten te bestellen. Probeer dat maar eens in de buurt te vinden voor een snelle pickup :(. Misschien toch maar eens een bestellingkje doen bij Alternate en de kabel erbij nemen.

Dat de Intel koeler in een 2U past was al bevestigd, maar een AM2 stock koeler wordt wel spannend :P. (misschien toch maar direct van de gelegenheid gebruik maken om mijn AM2 setup te vervangen door een zuinige pentium.)

  • edje-bel
  • Registratie: Februari 2012
  • Laatst online: 20-12 17:59
Ben bezig om een grote nas te bouwen, kom ik op deze nas terecht, duidelijk een backblaze aanpak met 72 schijven in 1 4u kast met ZFS /VM etc

Ik was ervan onder de indruk

http://www.sgi.com/products/storage/modular/server.html

Afbeeldingslocatie: http://www.sgi.com/products/storage/images/mis_server.jpg
4 Xeon's, das geen zuinige server meer :+

Even niets...


  • edje-bel
  • Registratie: Februari 2012
  • Laatst online: 20-12 17:59
Ik hoop dan dat het 4x 4 cores is anders.... ietsje teveel voor thuis, |:(

Per TB opslag zal het wel meevallen toch?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Doet wat denken aan de extended capacity Disk Array Enclosure van EMC die sinds kort te verkrijgen is. Daar steken net zoals de backblaze en dit ontwerp de disks ook horizontaal.

Bekabeling kan maar beter goed zijn want een hot swap part vervangen in zo'n ding is bijna een nachtmerrie.

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

edje-bel schreef op zondag 15 april 2012 @ 17:23:
Ben bezig om een grote nas te bouwen, kom ik op deze nas terecht, duidelijk een backblaze aanpak met 72 schijven in 1 4u kast met ZFS /VM etc

Ik was ervan onder de indruk

http://www.sgi.com/products/storage/modular/server.html

[afbeelding]
SuperMicro heeft ook cases waarmee je 72 - 88 schijven kan bergen: http://www.supermicro.nl/products/chassis/4U/?chs=417

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!

Pagina: 1 ... 98 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.