Hardware IO vraag (bandbreedte PCIe/Moederbord/Netwerk)

Pagina: 1
Acties:

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Als je nu "budget" schijven neemt. 1,2 of 3 TB
zeg bv de WD green series schijven (ja ze zijn slecht I know) waneer haal je de max performance van die schijven ? ..

Ik wil graag van Software Raid (ZFS ofzo) gebruik maken.

Ik heb bv weinig zin een 16 ports Sata Raid kaart te kopen die ik gewoon reduceer tot "i/o" controller ..
das een hoop weggegooid geld. IMHO zeker als een sata poort multiplier het werk kan doen..

ik zoek geen highend perfomance, als 3 tot 4 machines diskless kunnen booten, (peak netwerk I/O moet 120MBs tot 150 MBs zijn .. continue is lager. .. mijn plan zou 3 a 4 netwerk kaarten zijn

OS is voor mij niet zo boeiend in deze, windows/linux/'freebsd ofzo ..

is nu echt een moederbord met een sata multiplier bv genoeg of moet ik op meer dingen letten ?

Tja vanalles


Verwijderd

Het maakt nogal verschil of je voor Windows of FreeBSD+ZFS gaat, want dat laatste betekent dat je absoluut géén RAID controller wilt en ook geen port multipliers. Er is ook niets slechts aan groene schijven; al zou ik eerder voor Samsung F4EG gaan dan WD Green; ze zijn aardig snel voor grote bestanden opslaan.

Je kunt kijken naar een goedkope SAS controller voor 8 of meer schijven, plus de 6 op je moederbord kom je dan aan 14 met één zo'n controller. Wat moet je overigens met 3 of 4 netwerkkaarten? Dan wil je dus link aggregation gebruiken? Hoe had je dat zelf in gedachte?

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op zaterdag 15 oktober 2011 @ 18:14:
Het maakt nogal verschil of je voor Windows of FreeBSD+ZFS gaat, want dat laatste betekent dat je absoluut géén RAID controller wilt en ook geen port multipliers. Er is ook niets slechts aan groene schijven; al zou ik eerder voor Samsung F4EG gaan dan WD Green; ze zijn aardig snel voor grote bestanden opslaan.

Je kunt kijken naar een goedkope SAS controller voor 8 of meer schijven, plus de 6 op je moederbord kom je dan aan 14 met één zo'n controller. Wat moet je overigens met 3 of 4 netwerkkaarten? Dan wil je dus link aggregation gebruiken? Hoe had je dat zelf in gedachte?
Waarom zou ik geen port multipliers willen gebruiken ???

ik redeneneer simpel stel een WD green levert 60 MB per sec en 5x = 320MB/s als de sata II poort max 300MB/s zit .. ram ik die bus vol ..

als ik 300 MB/s (3 netwerk kaarten ..) in wat voor een modus dan ook mijn netwerk in kan rammen ben ik blij .. blijft er 200MB/s over is het nog geen ramp .. zolang ik niet onder de 150 kom is het fijn :)

de 3 of 4 netwerk kaarten komen in een pool te zitten, het is de bedoeling gewoon max performance te halen ..

bij voorkeur kies ik voor "cheap", mocht er een defect optreden is het makkelijk vervangbaar. Ik weet gewoon dat ik hierdoor wellicht performance inlever .. maar continuiteit is belangrijker dan performance.

Ik doe geen highend meuk,

Ik heb van een vriend de N7700 NAS teleen gehad en daardoor viel eigenlijk op hoe slecht de QNap ts-410 presteerde read/write van 20mb/s ofzo .. (zie smallnetbuilder website die heeft leuke NAS overzichten)

ik heb nu het "geluk" om 10 WD green's van 1 tb te hebben. 5 TB is eigenlijk meer als voldoende voor wat ik in huis gebruik .. en dan heb ik ruim overschot ..

Tja vanalles


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
updateje ..

wat ik lees is dat een FIS-based switching Port Multiplier .. en moederbord wat dat ondersteund .. ik beetje krijg wat ik zoek ..

Tja vanalles


Verwijderd

Voor ZFS moet je geen port multipliers gebruiken maar échte poorten. Als je 10 schijven aan wilt sluiten betekent dat dus een controller extra. Is maar iets duurder dan een port multiplier, en heb je gewoon veel meer plezier van.

Hoe jij denkt is oh ik heb 300MB/s per SATA poort dus als ik 10 schijven erop aansluit heb ik 30MB/s per schijf; zo werkt het dus uitdrukkelijk NIET; wel met iets als JBOD en in zekere mate conventioneel RAID, maar niet met ZFS. ZFS spreekt alle devices tegelijk aan en de hoogste latency geldt. Dat ga je dus heel erg merken met expanders of port multipliers. Dat is gewoon zonde als je voor zo'n combinatie gaat.

Een controller als Intel SASUC8i zou kunnen, maar IBM M1015 wordt ook vaak genoemd. Je moet ze wel flashen naar IT-firmware zodat ze als non-RAID controller werken. Want ook een RAID controller is ongeschikt voor ZFS. ZFS wilt normale échte SATA poorten hebben zonder meuk er tussenin. Er is niets zo gevoelig voor latencies als ZFS.

Dat gezegd, het is niet alsof je dan 1MB/s haalt, maar het is gewoon niet de beste keus en je kunt wel degelijk serieuze performance bottlenecks krijgen evenals compatibiliteitsproblemen. Ik zou het er niet op wagen; de voordelen zijn nihil (nét iets goedkoper) en de nadelen redelijk groot.

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op zaterdag 15 oktober 2011 @ 23:18:
Hoe jij denkt is oh ik heb 300MB/s per SATA poort dus als ik 10 schijven erop aansluit heb ik 30MB/s per schijf; zo werkt het dus uitdrukkelijk NIET; wel met iets als JBOD en in zekere mate conventioneel RAID, maar niet met ZFS. ZFS spreekt alle devices tegelijk aan en de hoogste latency geldt. Dat ga je dus heel erg merken met expanders of port multipliers. Dat is gewoon zonde als je voor zo'n combinatie gaat.
het gaat mij erom bandbreedte van de sata poort te vullen niet om 10 schijven op 1 poort.
Beetje dom als een gemiddelde Mobo ook


een Port multiplier zou ik inzetten met 2 of max 3 disks per "multiplier" doel is de bus vol te rammen niet te overspoelen.. het gaat erom dat de als een disk 100MB/s zou kunnen leveren .. sustained en piek van 150 .. dan is de bus "vol"

nadeel van een "dure" kaart zoals de intel of ibm die je voorstelt .. is dat je veel moeite moet doen om het "werkend" te krijgen .. en wat als tie stuk gaat ??? zeker als je hem gewoon als "simple" controller te werk stelt dat is toch zonde ? ..

dan is een FIS based switch port multiplier (met 2 of max 3 disks) een betere oplossing IMHO
om je sata bus te vullen (als de schijven zelf niet meer als 150MB/s produceren ..) zeker omdat ze NCQ ondersteunen ..

Tja vanalles


Verwijderd

Maar het punt is dat jij een SATA/300 ziet als een interface waarbij je de helft van de bandbreedte verspilt. En als een disk dus 100MB/s zou kunnen en je er dus twee op één SATA/300 zet dat geen snelheid kost. Dat is dus niet zo, want de latencies nemen toe. En die latencies zijn nu juist waar ZFS (en RAID-Z in het bijzonder) zo gevoelig voor zijn.

En als jij voor elke 2-3 disks een PM wilt kopen is dat erg duur; duurder dan een normale goede controller zoals die ik genoemd heb. Als die stuk gaat koop je een nieuwe, net zoals als je geheugen kapot gaat je nieuw geheugen kan kopen. Dat is echter extreem zeldzaam; net als CPUs en RAM vrijwel nooit kapot gaan de DoA's uitgezonderd.

Daarnaast zet ik grote vraagtekens bij je uitspraak:
zeker als je hem gewoon als "simple" controller te werk stelt dat is toch zonde ?
Die controllers worden juist gekocht omdat ze als normale HBA kunnen fungeren wat vrij zeldzaam is. Een RAID controller heeft een extra chip tussen de SATA en de PCIe zitten die de latencies weer verhoogt en voor allerlei problemen kan zorgen, en daarnaast ook extra energie verbruikt en ook duurder is. Je wilt dus juist een normale HBA zonder RAID in het geval van ZFS. Een LSI 1068E chip kan firmware RAID0 en RAID1 doen maar kan ook in IT-mode firmware werken als normale controller (HBA). Dat laatste is dus wat je wilt en dan heb je één interface voor elke disk; precies zoals het gedoeld is en hoe ZFS de beste performance levert.

Daarnaast dus ook goedkoper en minder probleemgevoelig dan de setup die jij voor ogen hebt; waar je gewoon spijt van gaat krijgen.

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
de prijzen die ik in mijn hoofd had/heb is 3 tot 400,- per stuk voor zoals ze nu staan ..
prijsjes op pricewatch voor de SASUC9I Nu moet ik zeggen dat best wel meevalt en de PM inderdaad een stuk onintressanter worden (60 tot 70,- per stuk ofzo)

Maar hoe valt de SASUC8I dan in verhouding met de onboard controllers? is het wijs deze te combineren of 2x een SASUC8I ?

overgens:
Wat mij gewoon opviel is dat de FIS based Switching + NCQ redelijk wat "voordelen" heeft ..
"wat" performance opofferen voor redundancy versus kosten is een afweging waar ik mee kan leven.

Wat ik een beetje mis in je verhaal, ondanks dat ik PM laat varen is over welke performance hit je het hebt ? Want ik heb PM's gezien die 2 "bussen" hebben 1 voor "opdrachten" 1 voor data ..

! ding wat ik me wel snel realiseerde zoals je gemerkt hebt is dat een PM met 4 tot 5 disks gewoon waardeloos is als je voor snelheid gaat .. zeker als je op den duur disks gaat vervangen ..
read/write speeds worden alleen maar sneller en enige manier waar op IMHO ze dan nog nuttig zouden zijn
is een mirror op de PM puur om de raid controller(s) als je die gebruikt te ontlasten .. als ze hardware offloading kunnen doen op dat punt... (schijven worden niet kleiner :) )
Daarnaast de nachmerrie van vinden welke disk exact dood ging ?


Maar goed, nog advies naast ZFS RAID-Z2 ? technieken die ik zeker in de moederbord wil zien ?
Naast een overduidelijke need voor RAM ;)

Zelf zit ik voor netwerk te twisten tussen "goedkopere" intel desktop versie(s) of de

Intel® Gigabit ET Dual Port Server Adapter

maar dat is meer omdat ik nu nog zit te twisten tussen een *nix/BSD of hyper-v machine ..
Dit heeft met een ander gedeelte van een project te maken wat los van dit onderwerp staat.
beetje in dept .. de ET netwerk kaart bevat Hyper-V technieken om wat meer performance te krijgen ..
niet dat het me veel intresseer maar mooi meegenomen bij dual nic :)

Tja vanalles


Verwijderd

vso, misschien dat ik irritant overkom ofzo, dat is niet mijn bedoeling. Aan de andere kant, kan ik je maar beter nu gelijk uit de droom helpen dan dat je straks met dure port multipliers zit en een aardige performancehit krijgt met ZFS; dat zou zonde zijn omdat je er dan netto weinig mee bent opgeschoten en toch veel geld kwijt bent. Dat probeer ik je gewoon te besparen, omdat port multipliers en/of expanders het voor ZFS gewoon niet waard zijn, naar mijn inschatting.

Als controllers 400 euro per stuk kosten dan zou het inderdaad sneller interessant worden ja, omdat je dan nog aardig wat geld kan besparen. Maar dat hoeft dus niet zo te zijn. Ik heb mijn LSI 1068E controllers voor 110 euro per stuk wat lekker goedkoop is.

Overigens heb je naast de Intel SASUC8i nog andere keuzes:
pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x
pricewatch: Supermicro -USAS2-L8i 8-Port SAS/2
en staat niet in de PW maar ook de SuperMicro USAS2-L8e (kan geen RAID; maar niet echt goedkoper dan L8i)
pricewatch: Intel RS2WC080 (RS2WC080)

Bovenstaande zijn opvolgers van de LSI 1068E chip die de LSI SAS2008 chip hebben. Het grote verschil is dat deze acht 6Gbps poorten hebben ipv 3Gbps, maar ook dat ze PCI-express 2.0 x8 in plaats van PCI-express 1.0 x8 ondersteunen. Daarnaast hebben ze - geloof ik - niet de beperking van de meeste 3Gbps LSI SAS adapters dat je max 2TB schijven kunt gebruiken. Bij de Intel SASUC8i is het volgens mij zo dat als je een 3TB+ schijf aansluit je daar maximaal 2.0TiB (2.2TB) van kunt zien, en dat is natuurlijk niet wat je wilt.

Belangrijk is wel dat de controller te flashen is naar IT-mode firmware; dat is niet áltijd het geval dus google/informeer je goed alvorens je de controllers bestelt. Dit is een belangrijke beslissing voor een ZFS server dus hier wat aandacht aan besteden betaalt zich vanzelf uit in minder gezeik en meer plezier. Bedenk ook dat je bijna altijd kabels los moet bijkopen (SFF8087 uit mijn hoofd).

Je vraag of dat je controllers kunt combineren: ja, dat kan. In principe geen nadeel van, zeker niet als het om dezelfde type controllers gaat. Maar ook je onboard poorten kun je prima combineren met zo'n SAS addon controller. Nu moet je wel weten dat je onboard poorten beter zijn dan addon poorten; het zit dichter bij de CPU omdat er geen PCIe bridge tussen zit zoals alles anders wel het geval is. Daarnaast zijn je onboard poorten AHCI poorten, en dat heeft als voordeel dat zaken als TRIM en spindown normaal werken. Dus voor SSDs wil je eigenlijk wel op je onboard poorten aansluiten voor performanceredenen.
Wat ik een beetje mis in je verhaal, ondanks dat ik PM laat varen is over welke performance hit je het hebt ? Want ik heb PM's gezien die 2 "bussen" hebben 1 voor "opdrachten" 1 voor data ..
Je je hebt command switching en FIS switching waarbij de laatste veel beter is en meer lijkt op hoe SAS expanders dit truucje doen. Maar ook bij SAS expanders heb je hetzelfde gezeik. Als je nou een normaal RAID of losse disk configuratie gebruikt, zou dit best goed kunnen werken met weinig performance hit.

Maar ZFS is anders, wat alles te maken heeft met de manier hoe met name RAID-Z werkt. Voor alle requests worden alle disks aangesproken, en de request is pas klaar als alle disks de I/O hebben verwerkt. In plaats van MB/s kijken we nu naar latencies. Die twee hebben met elkaar te maken, maar toch werkt het anders dan je - denk ik - denkt:

300MB/s SATA = 300 * 1024 = 307200 KiB/s. Stel nou dat we een 10-disk RAID-Z2 hebben, dan schrijft ZFS met een recordsize van 128KiB dus 16KiB per disk.

Nu reken je van bandbreedte naar latency, dus 307200KB max per seconde betekent dat je 19200 requests van 16KiB per stuk kunt doen in diezelfde seconde; bij 100% performance scaling en andere overhead zoals command overhead en propagation delay niet meegerekend. Dat betekent dus per request 1000 / 19200 = 0,052ms. Die tijd kost het letterlijk om 16KiB door de interface heen te jagen, dus in de praktijk is het altijd langzamer dan deze tijd. Maar laten we ons tot een theoretisch voorbeeld beperken zonder teveel op de praktijk te letten waar nog andere factoren een rol spelen.

Als ZFS nu de perfecte controller (en disks) heeft, dan is het dus:
disk1: 0,052ms
disk2: 0,052ms
..
disk10: 0,052ms

Dan is je request dus klaar in 0,052ms omdat alle 10 de disks even snel zijn allemaal na dezelfde latency klaar zijn. Mooi! Dan heb je dus kicken performance.

Maar nu komt de crux: wat nou als je een expander of port multiplier gebruikt? Nu ga ik wat cijfers verzinnen die helemaal niet hoeven te kloppen, maar het gaat om het idee:
disk1: 0,052ms
disk2: 0,082ms
disk3: 0,112ms
disk4: 0,142ms
disk10: 0,322ms

De latencies nemen toe per schijf. Nu kloppen bovenstaande latencies niet omdat je bij 300MB/s delen met 10 devices nog veel hogere latencies krijgt, maar laten we het simpel houden, stel de situatie boven klopt, dan zit je met een probleem.

Wat is nou het probleem? Door de manier hoe ZFS de I/O doet, waarbij één logische request opgedeeld wordt in sub-requests die alle disks moeten voltooien voordat de logische request klaar is, krijg je dus een situatie waarbij niet het gemiddelde van de latency er toe doet, maar de maximale latency. In plaats van 0,052ms heb je dus 0,322ms. In feite werkt het dan zo dat vanuit het perspectief van ZFS, alle disks er 0,322ms over hebben gedaan; dat disk1 sneller is dan disk10 maakt niet uit het gaat hierbij om de maximale latency van alle disks samen. En daar zit hem het zwakke punt en de performance hit.

Het punt is dus dat bij het delen van bandbreedte zoals met SAS expanders of port multipliers je altijd een situatie hebt dat wanneer je gelijktijdig I/O doet naar meerdere disks, je een situatie krijgt waarbij de latencies gaan toenemen voor bepaalde disks, en daar is met name ZFS dus erg gevoelig voor.
Maar goed, nog advies naast ZFS RAID-Z2 ? technieken die ik zeker in de moederbord wil zien ?
Sommigen willen graag IPMI zodat ze dingen kunnen doen als remote resetten en geen monitor hoeven aan te sluiten. Ik zelf heb niet zo'n behoefte hieraan, maar het kan een leuke feature zijn. Verder heeft SuperMicro wel leuke bordjes met dual intel gigabit aan boord, wat je weer PCIe scheelt en qua energieverbruik beter is. SuperMicro is doorgaans ook erg zuinig en veel producten zijn goed betaalbaar voor wat je krijgt. Zo heb je bordjes waar al een 6Gbps SAS adapter in zit dus je begint al met 14 poorten met nog 3 of 4 PCI-express voor verdere uitbreiding.

En geheugen wil je niet op bezuinigen als je veel performance wilt, in jouw geval minimaal 16GiB denk ik. Dat kost opzich ook niets meer; 80 euro voor 4 latjes van 4GiB per stuk. Let wel op dat sommige serverbordjes alleen registered geheugen willen of alleen met registered alle geheugensloten kan gebruiken.
Zelf zit ik voor netwerk te twisten tussen "goedkopere" intel desktop versie(s) of de
Die enkele adapter heb je alleen nodig voor Windows platforms zodat je de intel software kan gebruiken voor teaming of link aggregation. Onder Linux/BSD/Solaris heb je dat niet nodig en kun je gewoon de OS link aggregation gebruiken wat voor elk merk adapter zou moeten werken. Zelf lijkt mij dual onboard Intel ethernet op supermicro wel geschikt voor je. Let wel dat link aggregation weer een verhaal apart is; lees je goed in hierover!

Genoeg leesvoer tot zover. :)

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op zondag 16 oktober 2011 @ 08:02:
vso, misschien dat ik irritant overkom ofzo, dat is niet mijn bedoeling. Aan de andere kant, kan ik je maar beter nu gelijk uit de droom helpen dan dat je straks met dure port multipliers zit en een aardige performancehit krijgt met ZFS; dat zou zonde zijn omdat je er dan netto weinig mee bent opgeschoten en toch veel geld kwijt bent. Dat probeer ik je gewoon te besparen, omdat port multipliers en/of expanders het voor ZFS gewoon niet waard zijn, naar mijn inschatting.
je latency verhaal is zeer duidelijk echter .. kan het ff niet plaatsen versus MB/s


ach liever irritant en valide argumenten met nuttige info dan alleen irritant ;) dus het is je vergeven .. (niet dat ik je irritant vind btw).

Ach duur is relatief .. rond eind 2009/2010 waren die RAID controllers erg duur .. 400,- + en dat vind ik veel geld voor "domme" controllers
deze post ;) zfs topic? is wel leuk nadeel is dat ik geen 10 disks aan kan sluiten ?
grappig genoeg heb ik dus een ddr2 met M4a78-EM systeem wat uitermate "slecht" performt onder freebsd 8.x ? gebouwd. of was het 7.x whatever .. het systeem is nu een esxi bak die goed presteerd :)

Wat ik in het ZFS topic lees stelt me teminste weer positief, was ff bang dat ik 16 gb ook echt kwijt zou zijn aan zfs en niet voor XEN kan gebruiken ..

overgens ZFS is dat niet een beetje valsspelen met de caching van data naar ram ? is dan een UPS niet zeer belangrijk ?? zometeen ben ik geschreven data "kwijt"

Hoever helpt het om 2 usb sticks erbij te rammen ?

SSD vind ik gewoon te duur op het moment,

Grappig ff rekenen dat een SASUC8I en 3x pm ongeveer in nadeel van PM komen .. alleen ga je ff nadenken dan is het wijsheid om toch voor de intel te gaan ipv PM omdat je meer "bandbreedte" voor toekomstige disks hebt. Als ik me goed herriner is disks vervangen van de setup "redelijk" simpel. Dus disk failure of Capicity exspansion moet goed te doen zijn .. Thx voor de tip van 3tb disk en 1gb platters (speed van de nieuwe disks)

ZFSguru is dat zoiets als freenas of gewoon een simple ZFS utility ?

Onboard netwerk kaarten verdienen toch niet mijn "voorkeur" als je voor performance gaat en een ZFS bied dat, 1gbit per nic dan weet ik dat onboard toch net wat meer "inlevert" 200mbit per nic makkelijk ..
overgens denk dat ik ergens een 4 poort ga scoren op Marktplaats ofzo .. als het maar PCIe is :)


denk dat ik een mobo zoals GIGABYTE GA-X58A-UD7 ga kiezen (merk en type staat niet vast .. nog even verder onderzoek plegen :) )
- 24 gb ram gaat gewoon een eis worden,
- onboard (goeie sata controllers)
- cpu quad core of meer (maar heeft meer met xen te maken)

pff vroeger was het echt gewoon zoeken en wikken en wegen voor storage oplossingen .. nu zie door het bos de bomen zowat niet meer ..

[ Voor 1% gewijzigd door vso op 16-10-2011 11:17 . Reden: ff latency versus MB/s dankje erbij ]

Tja vanalles


  • Femme
  • Registratie: Juni 1999
  • Laatst online: 20-12 20:10

Femme

Hardwareconnaisseur

Official Jony Ive fan

Verwijderd schreef op zaterdag 15 oktober 2011 @ 23:18:
Voor ZFS moet je geen port multipliers gebruiken maar échte poorten. Als je 10 schijven aan wilt sluiten betekent dat dus een controller extra. Is maar iets duurder dan een port multiplier, en heb je gewoon veel meer plezier van.

Hoe jij denkt is oh ik heb 300MB/s per SATA poort dus als ik 10 schijven erop aansluit heb ik 30MB/s per schijf; zo werkt het dus uitdrukkelijk NIET; wel met iets als JBOD en in zekere mate conventioneel RAID, maar niet met ZFS. ZFS spreekt alle devices tegelijk aan en de hoogste latency geldt. Dat ga je dus heel erg merken met expanders of port multipliers. Dat is gewoon zonde als je voor zo'n combinatie gaat.
Dit schrijf je wel vaker. Sas expanders zijn ontwikkeld voor enterprisetoepassingen en doen een erg efficiënte switching die goed schaalt en nauwelijks latency toevoegt. Zie de onderstaande grafiek van de latency op een directe en swiched sas-verbinding.

sas vs fc vs iscsi benchmarks

Port multipliers die alleen command-based switching doen zullen waarschijnlijk wel merkbaar latency toevoegen als meerdere schijven druk bezet worden. Dit zal minder het geval zijn bij port multipliers en controllers die FIS-based switching ondersteunen.

Voor de prijs van een port multiplier haal je ook bijna een sas 3G-adapter van eBay. Sas expanders zijn zo duur dat je net zo goed losse 8-poorts adapters kunt kopen zolang je genoeg pci express-slots beschikbaar hebt.

Verwijderd

De latencies die je post zijn netwerkgerelateerd, nietwaar? 1ms is al heel erg veel als we het over 16KiB request latency hebben over een SATA/300 link, laat staan SATA/600.

Dat SAS expanders en FIS-based switching veel beter zijn dan command-based switching (domme port multipliers) is wel duidelijk, maar feit blijft dat ZFS meer dan andere oplossingen last ondervindt van de toegenomen latencies. In welke mate durf ik niet precies te zeggen, maar een tijd geleden op het HardOCP forum werden er wel wat goede benchmarks gedraaid van mensen die SAS expanders (de HP expander) gebruikte en daarna toch maar extra controllers kochten om van hun expanders af te komen, om zodoende hun bottleneck bij gebruik van ZFS weg te nemen. In sommige gevallen betekende dit dat de performance verdubbelde, als ik me goed herinner. Er was in elk geval een duidelijk verschil tussen dedicated pipes naar alle disks versus het gebruik van SAS expanders.

Daarnaast zit je met de kosten; expanders of port multipliers hoeven niet veel goedkoper te zijn dan simpelweg meer controllers waardoor het enige (?) grote voordeel grotendeels verloren gaat. En je zit met waarschijnlijk toch wat extra stroomverbruik; die HP SAS expander bijvoorbeeld slurpt aardig wat, meer dan extra controllers als ik me goed herinner.

Ik sta open voor nieuwe input en er zijn best situaties denkbaar waarbij PM of expanders wel logisch zijn, zoals wanneer je heel veel disks wilt connecten en onvoldoende PCI-express slots vrij hebt, maar als je specifiek voor ZFS hardware zoekt is het advies toch regelmatig om expanders in zijn geheel te vermijden.

Hiervoor ga ik dan ook af op de ervaringen op met name HardOCP waarin aardig wat grote builds gepost werden en benchmarks gedraaid werden. Totdat de conclusies van dergelijke threads worden tegengesproken door overtuigende benchmarks blijf ik er dus bij dat de combinatie ZFS en expanders / PMs niet de meest voor de hand liggende en misschien zelfs een slechte combinatie is.

Verwijderd

vso schreef op zondag 16 oktober 2011 @ 11:15:
je latency verhaal is zeer duidelijk echter .. kan het ff niet plaatsen versus MB/s
Het punt is dat je bandbreedte niet moet zien als 300MB/s dus als ik 150MB/s gebruik dan heb ik nog de helft vrij. De realiteit is veel complexer, en daar spelen latencies een belangrijke rol.

Laat ik het vergelijken met een snelweg. De snelweg kan 300 auto's per minuut aan, maar alleen als ze precies de juiste snelheid rijden en allemaal perfect achter elkaar. Iets wat in de praktijk nooit gebeurt natuurlijk, want je hebt altijd wel gaten en andere 'imperfecties' die zorgen dat je niet alle wegdek optimaal gebruikt.

Stel dat je het 'wegdek' (bandbreedte) maar voor 60% gebruikt, en je hebt nog een andere lading auto's die je wilt laten invoegen. Je zou zeggen er is voldoende wegdek nog beschikbaar 40%, maar toch zorgt het invoegen ervoor dat de rest van de auto's ook in snelheid minderen. Ook al is er genoeg wegdek, zorgt ervoor dat een toename van het aantal auto's dus de snelheid per auto doet verminderen. Het is maar een analogie, maar zo kun je het wel zien met interfaces en bandbreedte. Als je random I/O doet met maar 10MB/s en je doet dat op SATA/300, denk je van nou ik gebruik niets van die interface dus dan zou ik ook geen enkel verschil met SATA/600 moeten zien; dat is dus niet zo! SATA/600 zorgt voor ongeveer 10 tot 20% verschil bij dit type I/O, wat erg gevoelig is voor latencies. Dit kun je zien bij SSDs met random read met lage queue depth, waar je maar een klein beetje bandbreedte gebruikt maar wel voordeel ziet wanneer je van SATA/300 naar SATA/600 gaat.
deze post ;) zfs topic? is wel leuk nadeel is dat ik geen 10 disks aan kan sluiten ?
Brazos bordjes (op basis van AMD E-350) kunnen helaas niet altijd controllers slikken, wat door het EFI BIOS zou komen. Dit verschilt echter per bordje, omdat voor sommige bordjes waaronder Asus er modellen zijn waarbij een BIOS update ervoor zorgt dat je wél adapters zoals Intel SASUC8i kunt gebruiken. Echter je zit wel aan max 8GiB DDR3 doordat je maar 2 DIMM slots hebt (theoretisch tot 16GiB maar je wilt voorlopig nog 4GiB modules gebruiken).
Wat ik in het ZFS topic lees stelt me teminste weer positief, was ff bang dat ik 16 gb ook echt kwijt zou zijn aan zfs en niet voor XEN kan gebruiken ..
Voor heel veel disks (24+) zou ik wel 16GiB aanraden voor het ZFS OS, waarbij dus effectief 14GiB door ZFS gebruikt kan worden. Meer zou nog beter zijn. Maar het kan ook vanaf 8GiB RAM. Ga je onder de 6GiB dan zie je de performance al flink terug lopen afhankelijk van wat je precies test. ZFS is nu eenmaal een geheugenmonster wat flink voordeel heeft van extra geheugen. Dat is ook de reden dat mij een Interlagos + 8 DIMM platform erg sexy lijkt; goedkoop toch 32GiB bij gebruik van 4GiB modules of 64GiB bij gebruik van 8GiB modules. Dat laatste is nu nog erg duur, maar ik hoop dat dat in 2012 gaat veranderen.
overgens ZFS is dat niet een beetje valsspelen met de caching van data naar ram ? is dan een UPS niet zeer belangrijk ?? zometeen ben ik geschreven data "kwijt"
Zo werkt dat niet; ZFS gebruikt een transaction model om tegen dataverlies en corruptie te beschermen. Je bent dus hooguit x seconden van recente writes kwijt. ZFS zelf kan nooit corrupt raken bij een goede configuratie, hoeveel stroomfailures je ook hebt.
Hoever helpt het om 2 usb sticks erbij te rammen ?
SSD vind ik gewoon te duur op het moment
Wat wil je met die USB sticks doen? Die kun je niet gebruiken als L2ARC als je dat bedoelde, daarvoor zijn ze veels te traag.

SSD is wel een uitstekende manier om de lage random read performance van hardeschijven te compenseren, dus wellicht toch de optie vrijhouden voor een Crucial M4 64GB voor L2ARC of een Intel 320 voor L2ARC+SLOG. Dat is iets waar ZFS ook enorm veel baat van kan hebben.
ZFSguru is dat zoiets als freenas of gewoon een simple ZFS utility ?
ZFSguru is een compleet OS net zoals FreeNAS, maar het is wel op normaal FreeBSD gebaseerd zonder er dingen uitgeknipt te hebben, zoals bij FreeNAS het geval is. Dat kost je een paar honderd MB meer ruimte, maar boeie, het grote voordeel is dat je alles kan wat FreeBSD ook kan, dus software installeren enzo en met de command line kunnen werken. Bij FreeNAS zit je min of meer met een 'gecastreerde' versie van FreeBSD.

Verder vind ik ZFSguru stukken beter in elkaar zitten op sommige punten, qua design choices. Maar het nadeel is dat het nog sommige belangrijke features mist, dat kun je dan wel weer via de command line doen maar dat maakt het nog geen uitontwikkelde oplossing. Toch zeker het overwegen waard, het is denk ik wel de makkelijkste ZFS oplossing en wellicht ook degene met de meeste potentie om nog flink te groeien. FreeNAS ontwikkeling ben ik niet zo weg van namelijk. En meer oplossingen heb je niet binnen op basis van het BSD platform. Solaris kun je ook naar kijken natuurlijk; OI+napp-it. Nadeel is dat de lat daar wel hoger wordt gelegd; niet erg newbie vriendelijk en Solaris heeft ook zo zijn nadelen. Maar zeker te overwegen als je een betrouwbare en snelle setup wilt.
Onboard netwerk kaarten verdienen toch niet mijn "voorkeur" als je voor performance gaat
Oh? Of je een chip nu onboard hebt of op een addon controller maakt toch niet uit? SuperMicro heeft juist onboard Intel NICs wat je geld scheelt en PCIe slots vrijhoudt. En ook: een dualport gigabit NIC is nog geen 2Gbps NIC.
denk dat ik een mobo zoals GIGABYTE GA-X58A-UD7 ga kiezen (merk en type staat niet vast .. nog even verder onderzoek plegen :) )
Waarom een 50-series platform? Dat is nu wel redelijk outdated. En denk ook niet dat je 10 SATA poorten hebt; je hebt 6 échte SATA poorten en de rest bestaat uit fake JMicron en Marvell poorten; die wil je niet mixen met je echte poorten want ook dan krijg je lagere performance en bovendien kun je met Marvell ook stabiliteitsproblemen krijgen. Ik heb zeer slechte ervaring met Marvell onder BSD platform. Niet doen, zou ik zeggen! Kijk nog eens naar SuperMicro plankjes, wellicht een veel betere oplossing voor jou!
pff vroeger was het echt gewoon zoeken en wikken en wegen voor storage oplossingen .. nu zie door het bos de bomen zowat niet meer ..
Mwa juist de keuzevrijheid maakt nu meer mogelijk; maar inderdaad wel even zoeken en je goed laten informeren. Dat is minstens de helft van de moeite die je steekt in een zelfbouw NAS. Daarbij wil ik wel opmerken dat een dedicated zelfbouw NAS veel makkelijker is dan een multi-functionele Xen-gevirtualiseerde NAS dat is. Ga je trouwens BSD als Dom0 of DomU draaien onder Xen?

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op zondag 16 oktober 2011 @ 14:14:
Het punt is dat je bandbreedte niet moet zien als 300MB/s dus als ik 150MB/s gebruik dan heb ik nog de helft vrij. De realiteit is veel complexer, en daar spelen latencies een belangrijke rol.
Dat punt was ik al voor bij :), je snelwel anologie is wel grappig toch mis ik iets "meetbaars"
Andersom die ts-410 Qnap is gewoon marvell troep wat gewoon performance heeft van 20mb/s read en write is nog meer huilie .. het koste gewoon 24 uur om van Qnap naar Thecus n7700 te pompen en terug .. en het was maar 2.5 TB ja geen gein ..

Even voor de duidelijkheid, het doel is niet om een highend systeem te bouwen met eindeloos budget.
als het highend kan dan is het natuurlijk gaaf,
AMD/Intel zal me eigenlijk roesten waar het ligt niet schijnt..

Nu wil ik eigenlijk idd 4GB latjes gebruiken systeem vol rammen en CPU erin,
tja dat Gigabite Mobo was een voorbeeld, zoals je inderdaad correct aanwijst 6 echte controllers en 4 fake die ik inderdaad liever "links" laat liggen (in iedergeval voor ZFS)

Ik denk dat ik gewoon kies voor FreeBSD maar das meer persoonlijk dan andere voorkeur, ik zat te denken aan freeBSD waar NAS en XEN "naast elkaar" en in de XEN omgeving VM guests/clients .. als dat mogelijk is natuurlijk.
Oh? Of je een chip nu onboard hebt of op een addon controller maakt toch niet uit? SuperMicro heeft juist onboard Intel NICs wat je geld scheelt en PCIe slots vrijhoudt. En ook: een dualport gigabit NIC is nog geen 2Gbps NIC.
Denk niet dat je me vorige post goed begrepen hebt, waar jij op doelt met latency is iets waar onboard nics niet echt efficient zijn met "vervoer" van de data.
Verbaast me eigenlijk wel een, je zwaait met high-end performance maar je vergeet de NIC, een offboard controller heeft een eigen CPU enzo wat zeker meer performance kan bieden dan een onboard die van de CPU gebruik maakt. dus dat betekend in een dual port een throughput van +/- 400 meer.
onboard NIC's zitten tussen de 0 en 800 MB/s sommige halen maar 600MB/s het is dus het tegenovergestelde van je latency verhaal ..

Teminste als onboard beter zou presteren waarom is er dan nog veel "offboard" ?

Maar ik ben het wel met je eens goed onderzoek doen is zeker waard voordat je koopt als je een NAS bouwt/koopt (zie voorbeeld met QNAP :( )


Nu ik zou een full atx moederbord kiezen met 4 sloten PCIe(16x) 2.0 puur omdat ik 1 tot 2x gpu 1 intel SASUC8I en 1 dualport/Quadport nic
Daarbij wil ik wel opmerken dat een dedicated zelfbouw NAS veel makkelijker is dan een multi-functionele Xen-gevirtualiseerde NAS dat is. Ga je trouwens BSD als Dom0 of DomU draaien onder Xen?
Nu BSD in DOM? lijkt me niet handig .. maar goed .. heb OS nog niet goed bekeken .. hoe dat werkt ..

Tja vanalles


  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 17-12 15:10
je moet niet de realtek en broadcom onboard nic's gaan vergelijken met intel nic's. een intel nic bijvoorbeeld de 82574L kun je los als kaart kopen maar dezelfde chips die in de kaart zitten dus ook de processor van de nic zitten ook gewoon op een moederbord.

https://bettyskitchen.nl


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
aegis schreef op maandag 17 oktober 2011 @ 08:47:
je moet niet de realtek en broadcom onboard nic's gaan vergelijken met intel nic's. een intel nic bijvoorbeeld de 82574L kun je los als kaart kopen maar dezelfde chips die in de kaart zitten dus ook de processor van de nic zitten ook gewoon op een moederbord.
Erhm als je beetje leest, merk ik op verschil tussen 600/800 mbs .. 600 is de verwijzing naar de "troep" en 800 naar de hogere segment ..

Hoe zeker ? hoe weet je dat ... oftewel hoe kom je daar achter dat het zo is.

overgens de onboard NIC's presteren over het algemeen slecht(er) dan offboard .. tja het 1 merk nog slechter dan het andere merk ..

@CiPHER
Wat ik begreep van je snelweg & latency enzv .. is dat "korte" bursts van data dat het "beter" werkt dan bv paar gb/tb aan data wegknallen ...

Je zou eigenlijk eens een "howto" ZFS moeten bouwen .. met een grafiek van aantal users/gb en performance. . denk aan een situatie van 2 tot 3 users + NAS met ZFS ..
welke "performance" hits (nadeel of voordeel) je krijgt van bepaalde dingen zoals USB,SSD, sata controller, Raid controllers enzv wat hier de revu is gepasseerd ..

Lol eigenlijk vraag ik me nu alleen nog af of de Disk caching van die disks nog wel uitmaakt :)

Tja vanalles


Verwijderd

vso schreef op maandag 17 oktober 2011 @ 07:58:
[...]
Even voor de duidelijkheid, het doel is niet om een highend systeem te bouwen met eindeloos budget.
Dat is ook niet mijn strekking. Ik ben juist iemand van veel kwaliteit/mogelijkheden/performance voor weinig geld. Volgens mij wil je een mid-end ZFS server; je multi gigabit wens maakt het enigszins speciaal.
Ik denk dat ik gewoon kies voor FreeBSD maar das meer persoonlijk dan andere voorkeur, ik zat te denken aan freeBSD waar NAS en XEN "naast elkaar" en in de XEN omgeving VM guests/clients .. als dat mogelijk is natuurlijk.
Je kunt FreeBSD als Xen host en Xen guest gebruiken, dus bijvoorbeeld je ZFS BSD als host gebruiken en nog andere OS virtualizen via Xen. Wellicht wil je wel 9.0 draaien want daar zitten veel verbeteringen in op Xen gebied.
Denk niet dat je me vorige post goed begrepen hebt, waar jij op doelt met latency is iets waar onboard nics niet echt efficient zijn met "vervoer" van de data.
Verbaast me eigenlijk wel een, je zwaait met high-end performance maar je vergeet de NIC, een offboard controller heeft een eigen CPU enzo wat zeker meer performance kan bieden dan een onboard die van de CPU gebruik maakt. dus dat betekend in een dual port een throughput van +/- 400 meer.
onboard NIC's zitten tussen de 0 en 800 MB/s sommige halen maar 600MB/s het is dus het tegenovergestelde van je latency verhaal ..
Als een chip onboard zit betekent dat niets meer dan dat hij direct op het moederbord zit. Performancetechnisch is daar niets anders aan dan een add-on controller op de PCIe bus. Hooguit dat onboard er kwalitatief minder goede chips op zouden zitten. Maar dat is een aanname die denk ik onjuist is.

Qua offloadmogelijkheden: de simpelste nVidia onboard chips hebben ook TSO en checksum offload, zoals ik postte, dus ook baggerchips bieden deze functionaliteit. Ik denk dat je iets teveel verwacht van zo'n addon controller; dat is echt niet per definitie beter ofzo.

Alle goede gigabit netwerkinterfaces horen 900Mbps+ te halen en dat haal ik ook. Of het nou Broadcom, Marvell, Intel, nVidia of Realtek is. Mijn Intel PRO/1000 PT is niet sneller dan de onboard NICs, alhoewel sommige NICs wel drivers hebben die of meer CPU belasting vragen of bugs hebben, wat vooral onder FreeBSD 7.x nog wel eens lastig was. Tegenwoordig merk ik geen verschil meer in performance, en ondersteunen de goedkoopste realtek chips dezelfde features als de duurdere Intel NICs.
Teminste als onboard beter zou presteren waarom is er dan nog veel "offboard" ?
De trend is juist dat er steeds meer onboard gaat. Vroeger had je losse controllers, losse videokaart, losse geluidskaart en ga zo door. Tegenwoordig is het allemaal integrated en gaat alles steeds meer richting één chip die veel functionaliteit huisvest. Dat heeft veel voordelen met name op het gebied van energieverbruik. Denk ook aan de SuperMicro bordjes waar je dual Intel gigabit en LSI SAS controller onboard hebt; dat is gewoon veel beter dan allemaal losse kaarten die extra energie verbruiken en ruimte innemen, terwijl het qua performance niets uit zou mogen maken.

Kortom, waarom zo'n afkeer van onboard spul? Is dat niet hoe we anno 2000 over zaken dachten, en dus persé een losse Creative geluidskaart in onze pc stopte, omdat onboard zo slecht zou zijn? Nou was dat toendertijd misschien wel een issue met de geluidskwaliteit, maar bijvoorbeeld nu met S/PDIF is onboard veel logischer en is extern/addon maar ouderwets, IMO.

Als je nou 10 gigabit spul wilt, dan moet je wel addon ja. Maar er werd gesproken over 2012/2013 dat 10GBaseT naar LoM zou gaan; oftewel LAN-on-Motherboard. Integratie is nu eenmaal een innovatie die voortdurend doorgaat.
aegis schreef op maandag 17 oktober 2011 @ 08:47:
je moet niet de realtek en broadcom onboard nic's gaan vergelijken met intel nic's.
Nouja dat heb ik dus wél gedaan en althans in mijn situatie merk ik bar weinig verschil, zo'n 1% in het voordeel van Intel. Daar hoef je het niet voor te doen, natuurlijk.

Merk wel op dat het erg afhankelijk kan zijn van je besturingssysteem. En ook de PHY is belangrijk, want sommige ethernet chips bestaan nog uit losse MAC en PHY, dan kan de MAC op het ene bordje prima werken maar op het andere problemen of lage performance geven door een andere PHY. Vaak kiezen mensen voor Intel NIC als ze gezeik hebben met hun ethernet om er maar vanaf te zijn, wat ik me prima kan voorstellen, maar het is echt te kort door de bocht om alles wat onboard is of niet-Intel is gelijk af te schrijven als rommel. Dat strookt althans niet met mijn ervaringen, en ik heb aardig wat onboard spul gebruikt en kunnen vergelijken met Intel, maar wel onder beperkte OS (FreeBSD <--> Ubuntu Linux voornamelijk).
vso schreef op maandag 17 oktober 2011 @ 15:15:
[...]
@CiPHER
Lol eigenlijk vraag ik me nu alleen nog af of de Disk caching van die disks nog wel uitmaakt :)
Zonder write-back disk 'cache' en zonder NCQ kan een hardeschijf maar tegen 1MB/s schrijven, of nog langzamer. Dus ja, dat heb je nodig. :)

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op maandag 17 oktober 2011 @ 19:25:
Dat is ook niet mijn strekking. Ik ben juist iemand van veel kwaliteit/mogelijkheden/performance voor weinig geld. Volgens mij wil je een mid-end ZFS server; je multi gigabit wens maakt het enigszins speciaal.
IDD mid-end.... gigabite "performance" is ook maar relatief he .. de ISCSI clients gaan niet continue veel data vragen :) teminste er word een beetje tv, web meuk gedaan geen "zware dingen"
wat ik wel veel doe is data kopieren .. maar ja dat wil ik dus door XEN naast de "ZDS BSD" host zoals jij dat noemt CIPHER (recentste versie als ik ga beginnen)

XEN guests wordden de "download" en "Media portal" machines, andere machines mogen geen "naam" hebben .. maar deze zijn meer CPU intensief niet Mem ..

ik zit nu alleen te twisten tussen 6 of 10 disks, eigenlijk denk ik dat ik beter voor 6 kan gaan wil tzt toch van 1TB naar 2 3 of 4 TB disks toestappen .. (als er disks dood gaan of budget toerijkend genoeg is) die 4 disks zijn eigenlijk "overkill"

Overgens natuurlijk de meest recente FreeBSD 8)

Ik heb geen afkeer tegen Onboard als het zijn doel maar dient, bij voorbeeld mijn Qnap TS-410 met huilie huilie prestaties .. .FYI de CPU is gewoon maxed out wanneer je read/write acties doet .. en dan hebben ze nog het lef om veel "apps" erbij aan te bieden pff je mag blij zijn als tie doet wat tie moet doen is NAS filesharing .. UPS/printserver/dnla,web etc etc niet aan te raden ..

Kijk mijn "homebuild" NAS was kwa prestaties ook niet uitmuntend, maar 20x beter .. maar ja dat wist ik van te voren met weinig onderzoek, en "hoop op zegen" maar ja als je niet waagt win je niet. en daarnaast wou ik zelf het wiel eens uitvinden zoals elke tweaker .. toch ? je leert niet zonder te proberen.

Het verschil zit in onboard/offboard de kosten en de winst die je krijgt,
Conclusie is dus op basis van ZFS, 6 diks (of meer)
* een FIS based Switched PM doe je voor de ruimte je levert performance in
of
* een IT-Mode RAID kaart voor "performance + beetje ruimte
of
* SSD aanschaffen voor (veel???) perfomance
Gok?
* je kan ook ipv 1tb wat meer investeren in 2 of 3 TB disks en stel dat ZFS magisch die extra ruimte ook kan benutten (kweenie hoe ZFS er mee overweggaat als je in een RAID Z 4 disks van 1TB + 2 disks van 2 TB doet ..
/Gok?

Offboard netwerk controllers tja ook hier moet het je extra "winst" op leveren.. zoals Jumbo frames door heel je netwerk heen .
Je moet niet vergeten dat Opensource vaak generieke drivers hebben die wel efficienter kunnen zijn dan de MS tegenhanger maar niet altijd kunnen ze van de nieuwste technieken gebruik maken .. (en waarom zou je?)
Het is nog relatief kort dat een betere GPU onder Opensource ook echt nut heeft .. omdat de CPU eigenlijk net zogoed of beter presteerde dan de zelfde hardware onder MS

Mijn idee was dat ik de offboard nics "primair" zou gebruiken (voor NAS functies) en de onboard voor de XEN omgeving .. bv dat (indien mogelijk?) dat de loadbalancing zo slim kan zijn dat hij eigenlijk poorten uit de pool oppakt wanneer nodig .. dus raakt de eerste GB kaart vol. dan de volgende erbij etc etc ..
maar ja das indien mogelijk .. de ESXI die ik nu heb gebruikt 1 tot 16Mb/s ofzo .. niet ech mega spannende snelheden ..

[ Voor 34% gewijzigd door vso op 18-10-2011 00:02 ]

Tja vanalles

Pagina: 1