@BlauwKeut, CrossFire is ook geen garantie, maar de allerlichtste vorm van Crossfire is 2 PCIe sloten met x8/x8 opstelling. Dat is precies genoeg voor 2 M1015's :)

Maar wees gerust, x4 zou ook nog wel voldoende zijn. Dat ga je in de praktijk niet merken bij gebruik, je ziet het heel misschien in benchmarks.

Over die backup: Je kan nog steeds de 'ruwe' data uit een snapshot backuppen. Wat jij zegt met "Het snapshot zelf backuppen" is een beetje een vage benadering. ZFS snapshots zijn geen losse files (of filesystems) die je gewoon als bestand kan kopieren. Het zijn datastructuren die dwars door je gewone array heen gaan, en nemen dan ook weinig ruimte in (alleen het verschil met je huidige data).

Als je dus een snapshot wil backuppen betekend dat, dat je die inclusief de huidige data moet backuppen. Als je alle relevante Snapshot data wil bewaren (om zo een snapshot restore te kunnen doen met zfs) moet je NAAR een ZFS machine backuppen met ZFS send en recieve volgens mij.

Wil je echt alleen de data hebben, die je later gewoon weer uit kan lezen, voldoet elk ander filesystem (maar is ZFS natuurlijk cooler vanwege zijn data-integriteit).

Wat je dus kan doen is:

ZFS main machine met RAIDZ2 met een filesystem "BELANGRIJK" wat je wil backuppen.
Dit filesystem kan je dan gewoon backuppen dmv het doen van een ZFS SEND naar een andere pool (die in jou geval uit 1 eSATA disk bestaat) sturen.

Dan krijg je datzelfde Filesytem in die andere pool.
Daarna kan je met wat andere ZFS send commando's de boel syncen.

Vrij simpel allemaal. Wil je geen ZFS op de eSATA schijf, maar EXT4 ofzo, moet je met andere backup tools gaan werken (of bash scripts / tar / w/e)
Rooke schreef op woensdag 06 februari 2013 @ 17:36:
Het lezen van een aantal zuinige topics heeft me aan het denken gezet. Temeer daar al maanden/jaren mijn hoeveelheid data gelijk is gebleven, namelijk 1-2TiB.
Mijn huidige opstelling is een br10i doorgemapt naar een vm op een esxi host icm freenas. In de laatst genoemde krijg ik het alleen nog niet voor elkaar om mn hardeschijven te laten sleepen door de controller(een te grote bsd noob, en geen tijd :o ).
Het plan is nu om mn storage los te trekken van mn esxi server en deze te herbergen in een nieuwe build, puur en alleen voor storage. Aangezien het gekozen mobo genoeg sata poorten heeft kan dus ook de br10i dus ook vertrekken. Dat alleen al bespaart mij al 10w, dat gecombineerd met de schijven die wel in sleep/standby gaan scheelt mij 62watt.

#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 37,40€ 37,40
1ASRock B75 Pro3-M€ 56,45€ 56,45
4Western Digital Green WD20EARX, 2TB€ 82,-€ 328,-
1Delock Nano Memory stick 4GB Zwart€ 8,06€ 8,06
1G.Skill RipjawsX F3-10666CL9D-16GBXL€ 82,70€ 82,70
Bekijk collectie
Importeer producten
Totaal€ 512,61

*heb nog een 150w pico psu liggen
*16GB komt uit esxi bak
*schijven komen ook uit esxi bak
Dus ik zou mijn investering er binnen 1 jaar uithebben(helemaal als ik de br10i verkocht krijg). Mis ik nou iets of heb ik jaren teveel zitten verstoken met mn grootheidswaanzin? :z
62W verschil door spindown van 4 schijven? Das wel heel veel... Dat is eerder 30W. En waarschijnlijk nog minder.

[ Voor 49% gewijzigd door FireDrunk op 06-02-2013 18:09 ]

Even niets...


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 06:31
Excusé, grove rekenfout :) Ik had 8*write/read+16*idle*24*365 gedaan want 1 dag heeft 48 uur :z

Kom nu op de volgende berekening op basis van 8 uur gebruik, 16 uur rust:

Nieuw:

8 uur read/write * 4 schijven * 5.3w = 169.9w
16 uur idle * 4 schijven * 0.7w =44.8w

Dat maakt dus totaal voor 24 uur 214.7w.

214.7*365 /1000 *€0.25= €19.59

Oud

8 uur read/write * 4 schijven * 5.3w = 169.9w
16 uur idle * 4 schijven * 3.3w =211.2w
10w van de br10i * 24 uur= 240w

Dat maakt dus totaal voor 24 uur 621.1w.

621.1*365 /1000 *€0.25= €56.67

[ Voor 25% gewijzigd door FDMK op 06-02-2013 19:05 ]

Any job you can do in your pajamas is not the hardest job in the world.

schrijf eens uit, zo snap ik er niets van... ;)

Even niets...


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 06:31
Nieuw:

8 uur read/write * 4 schijven * 5.3w = 169.9w
16 uur idle * 4 schijven * 0.7w =44.8w

Dat maakt dus totaal voor 24 uur 214.7w.

214.7*365 /1000 *€0.25= €19.59

Oud

8 uur read/write * 4 schijven * 5.3w = 169.9w
16 uur idle * 4 schijven * 3.3w =211.2w
10w van de br10i * 24 uur= 240w

Dat maakt dus totaal voor 24 uur 621.1w.

621.1*365 /1000 *€0.25= €56.67

24 uur * 365 dagen=aantal watts
/1000 is kwh
*€0.25 verbruik in euro's

Zo?

Any job you can do in your pajamas is not the hardest job in the world.


  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 17-12 12:22
Argh, nvm, lange dag gehad.

Je verbruikt voor je schijven iets van 20W per uur * aantal uren van de dag * aantal dagen in het jaar.

Je berekening lijkt dan toch te kloppen :+

[ Voor 84% gewijzigd door Loekie op 06-02-2013 19:31 ]

specs


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 06:31
Dus eerst *3600 en dan /3600, die kan je dan tegen elkaar wegstrepen lijkt me. Wat klopt er dan niet aan mijn berekening?

Any job you can do in your pajamas is not the hardest job in the world.

Je berekening klopt wel aardig. Makkelijkste manier van rekenen is, Verbruik/h * 2 = kosten in euro's per jaar. En bij jou is dat dus 621/24 = 25.87 * 2 = 51,-

Dus dat komt inderdaad redelijk in de buurt.

Je aanschaf kost je 512 euro, dus je hebt het in 12 jaar terugverdient... 8-)

Even niets...


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 06:31
FireDrunk schreef op woensdag 06 februari 2013 @ 20:03:
Je berekening klopt wel aardig. Makkelijkste manier van rekenen is, Verbruik/h * 2 = kosten in euro's per jaar. En bij jou is dat dus 621/24 = 25.87 * 2 = 51,-

Dus dat komt inderdaad redelijk in de buurt.

Je aanschaf kost je 512 euro, dus je hebt het in 12 jaar terugverdient... 8-)
Dan heb je de sterretjes niet gezien :) De schijven, het geheugen en de pico heb ik al dus het zou me 'maar' 3 jaar kosten

Any job you can do in your pajamas is not the hardest job in the world.


  • redfoxert
  • Registratie: December 2000
  • Niet online
Moet je fileserver persee de hele dag aan staan? De mijne is alleen ingeschakeld tussen 18:00 en 02:00 door de week en tot 05:00 in het weekend. Daar buiten staat ie gewoon uit. Middels het BIOS schakelt hij aan, scheduled task schakelt hem weer uit. Met services wordt mn Sabnzbd en SickBeard gestart. Backups van mijn ESX bak (die wel 24/7) aan staat gaan met Veeam naar een backup disk.

https://discord.com/invite/tweakers


  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
BlauwKeut schreef op woensdag 06 februari 2013 @ 16:55:
Nu zit ik nog met enkele vragen (bos/bomen/...):
[list]• De M1015 zijn PCIe 2.0 x8. Ik heb veel moeite met moederborden te vinden die hiervoor twee slots hebben. Degene die hierboven staat kan de kaarten aan, maar ligt wel in een hoger prijssegment. Zijn er suggesties voor andere (en goedkopere) moederborden waar dit op kan? Fabrikanten zijn allesbehalve duidelijk met betrekking tot PCIe slots (verschil tussen fysiek slot en elektrisch)...
Ik ben eigenlijk (al een tijdje) op zoek naar het antwoord op dezelfde vraag. Er is op google ook weinig over te vinden. Zou je je ervaringen in dit topic kunnen updaten?

- raid does not fix stupid -


  • analog_
  • Registratie: Januari 2004
  • Niet online
Ook al steek je hem in een x4 slot met pci-e 2.0 is dat nog altijd genoeg voor 8 SSDs. Je kan zelf opzoeken hoeveel bandbreedte de slots hebben en als je er enkel harde schijven aan gaat hangen volstaat feitelijk een x2 slot al, veel meer dan 1GB/sec kan je er toch niet uit 8 harde schijven trekken.

Bedenk ook dat je die snelheid enkel binnen de machine hebt, zodra je hem benaderd vanaf gigabit maakt het helemaal geen drol meer uit.

[ Voor 67% gewijzigd door analog_ op 07-02-2013 01:21 ]

Bij deze:

http://tweakers.net/categ...LkCMyXOJUSfnyU4XbQVUn4cPw

Of ze zuinig zijn, moet je zelf even uitzoeken...

Even niets...


  • BlauwKeut
  • Registratie: Juni 2011
  • Laatst online: 04-06 21:29
Ik was zelf al naar de Z77 serie borden aan het kijken, dat zien er ook wel goeie uit. Alleen nog aan het twijfelen of ik - ondanks geen verschillen in prestatie - zou gaan voor PCIe x4 sloten in plaats van x8 sloten - want dan zouden die B75 en H77 ook volstaan. Langs de andere kant valt het prijsverschil ook wel mee tussen die drie.

Over het backupverhaal, ik ga me dan eens verdiepen in die zfs send-receive. De externe disk in dit voorbeeld zou dan een ZFS pool worden die ik in elke ZFS OS kan importeren, dus dat is misschien wel het interessantste omdat de backup dan ook ZFS als filesystem heeft en geen ntfs - tenzij ik met die backupschijf niets kan in een ander systeem...

Nog eens terug over de OS/cache SSD's - als ik er twee in mirror neem, hoe verdeel ik deze dan? OS op een gemirrorde partitie. Mirror ik ook ZIL en L2ARC? Of één disk de rest ZIL, de andere disk de rest L2ARC?

Nu nog wat proberen te vinden over die Recycle Bin functionaliteit en eventueel Previous Versions (VSS)...
ZIL kan je mirroren, maar persoonlijk vind ik het niet nodig, het is meer je eigen keuze.
4GB ZIL is al genoeg, dus mirrorren kan prima, kost je niet zoveel.

SSD1:
rootpool_a, ZIL_a, L2ARC_a

SSD2:
rootpool_b,ZIL_b, L2ARC_b

rootpool en ZIL mirror je, L2ARC partities voeg je beide toe aan je pool.

Let wel even op overprovisioning.

Even niets...


  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 18-12 15:34
Ik heb hier ook een vraagje over.

Ik volg al een hele tijd dit topic en heb al eens een systeempje gepost, maar binnenkort komt het er echt van via een schoolproject dat er in Juni moet staan.

Wat zijn nu ze de grote's van de partities die je aanmaakt?

Want je spreekt hier wel over SSD1 en SSD2 met de mirror pool ZIL en L2ARC maar hoe groot maak je deze dan? (voor de aankoop van de SSD's)
Dat ligt dus aan de grootte van je SSD's...

Bij 64GB zou ik 10GB mirrored rootpool doen, 10GB mirrored zil, en 20GB L2ARC op beide SSD's.
Bij 128GB het dubbele van alles.

256GB is overkill, maar als je geld teveel hebt, kan je natuurlijk alles nog een keer verdubbelen.

[ Voor 22% gewijzigd door FireDrunk op 07-02-2013 20:17 ]

Even niets...


  • sloth
  • Registratie: Januari 2010
  • Niet online
Ik ben op zoek naar iemand met KeePass (bij voorkeur KeePass 2.20.1) en een NAS (bij voorkeur Nas4Free, FreeNAS of ZFSGuru) die ook gebruik maakt van spindown om volgende te proberen te reproduceren:

De disks van m'n NAS gaan in spindown na 3u inactiviteit. Hier heb ik enkele SMB shares op die ik op enkele clients in hetzelfde subnet heb gemount.

Het ongewenste gedrag wat ik ervaar is dat KeePass ervoor zorgt dat alle disks van m'n NAS gaan opspinnen wanneer ik KP op een client open. Hierbij probeert ie de laatst geopende database te openen. Deze staat echter op een lokale drive, en in de history etc. komt geen netwerkshare voor.
Ook heb ik de portable version geprobeerd, helaas met hetzelfde resultaat.

Een Wireshark capture van wat er gebeurd als KP geopend wordt (1ste keer op no 10, vervolgens even gewacht en een tweede keer vanaf no 32) ziet er zo uit.

Is er iemand die het voorgaande zou willen reproduceren of met meer kennis die kan aangeven wat er aan de hand is?

Edit: inmiddels een zelfde bugreport gevonden:
Greetings,

starting Keepass 2.08 (opening the last used database) always wakes up the HDDs on a remote PC from standby.

The drives are mapped network drives on a client PC (from which I am starting Keepass) and as soon as Keepass starts up, I can hear the drives spin up on the remote PC (checked various times, no coincidence). To open the database Keepass shouldn't need to access the network drives at all, since the database is stored locally on the client PC and I don't use a key file. My guess is that it checks all drive roots for a key file on start-up.

However having all standby drives spin up on every Keepass start is very annoying and not desirable. Is there any way around this (change behaviour in future version, add option (automatically search key files on removable media is NOT checked) to not check network drives,...?)

Regards,

Sebastian

[ Voor 33% gewijzigd door sloth op 08-02-2013 00:21 ]


Verwijderd

KP scant misschien ook voor mountpoints of wat dan ook. Je kunt proberen KP in een jail te draaien dan zou hij niet buiten zijn eigen mountpoint op de lokale disk mogen komen en dus niet bij de ZFS data. Dan zou KP ook geen kans mogen hebben om je schijven uit spindown te halen.

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
Ik ben van plan om op mijn Areca 1222 8x een Hitachi ultrastar 24/7 enterprise 7k3000 HUA723020ALA641 aan te sluiten. Ze hebben Error rate (non-recoverable, bits read) 1 in 10^15. Het grote broertje (HUA723030ALA640) staat op de HDDCompatibilityList en volgens de fabrikant zal de HUA723020ALA641 prima werken samen met de Areca 1222.

Ik weet alleen nu niet zo goed voor welke raid configuratie ik met gaan. Kan bv. kiezen voor raid5, hierover lees je dan weer dat je wat meer risico loopt op een corrupte array. Zou ook kunnen kiezen voor raid6. Zelf verwacht ik hier iets minder risico.

En dan kan ik natuurlijk ook nog kiezen voor Pass-through met de Areca 1222 en een ZFS opzet gebruiken. Ik zat dan te denken aan RAIDZ of RAIDZ2.

Ben erg nieuwsgierig naar jullie ideeën hierover.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Neptunus schreef op vrijdag 08 februari 2013 @ 10:43:
Ik ben van plan om op mijn Areca 1222 8x een Hitachi ultrastar 24/7 enterprise 7k3000 HUA723020ALA641 aan te sluiten. Ze hebben Error rate (non-recoverable, bits read) 1 in 10^15. Het grote broertje (HUA723030ALA640) staat op de HDDCompatibilityList en volgens de fabrikant zal de HUA723020ALA641 prima werken samen met de Areca 1222.

Ik weet alleen nu niet zo goed voor welke raid configuratie ik met gaan. Kan bv. kiezen voor raid5, hierover lees je dan weer dat je wat meer risico loopt op een corrupte array. Zou ook kunnen kiezen voor raid6. Zelf verwacht ik hier iets minder risico.

En dan kan ik natuurlijk ook nog kiezen voor Pass-through met de Areca 1222 en een ZFS opzet gebruiken. Ik zat dan te denken aan RAIDZ of RAIDZ2.

Ben erg nieuwsgierig naar jullie ideeën hierover.
Mbt het gewenste RAID level, dat is afhankelijk van hoe belangrijk de data voor je is. Als het films/series/downloads zijn dan is RAID-5 wellicht een betere optie (meer ruimte sec en toch 1 disks uitval overleven) aangezien de data niet uniek is (tot op zekere hoogte).

Als het om privé data gaat (doc's foto's eigen film) dan is RAID6 een betere optie, gaat ten koste van ruimte maar je mag 2 disks uit de array verliezen.

Passthrough mode van de Areca kun je vergeten, ZFS en hardware RAID geeft gedonder (zie mijn problemen met een Arc-1221x, je kunt beter een M1015 op de kop tikken, of een van de andere HBA in t lijstje. Ik hoop voor je dat je de HDD's nog niet hebt aangeschaft, want voor ZFS is het helemaal niet nodig om 'enterprise' disks (TLER ondesteuning) aan te schaffen, werkt prima op consumer disks.

Voor de keuze van RAID levels mbt ZFS geldt dezelfde redenering als bij de hardware controller.

[ Voor 6% gewijzigd door Pantagruel op 08-02-2013 11:02 . Reden: added info. ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • sloth
  • Registratie: Januari 2010
  • Niet online
Verwijderd schreef op donderdag 07 februari 2013 @ 22:59:
KP scant misschien ook voor mountpoints of wat dan ook. Je kunt proberen KP in een jail te draaien dan zou hij niet buiten zijn eigen mountpoint op de lokale disk mogen komen en dus niet bij de ZFS data. Dan zou KP ook geen kans mogen hebben om je schijven uit spindown te halen.
Inmiddels met dank aan Dadona de oplossing gevonden:
Bij KeePass Options -> Advanced -> zaken als 'Automatically search key files' uitvinken did the trick :)

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
Pantagruel schreef op vrijdag 08 februari 2013 @ 10:55:
[...]


Passthrough mode van de Areca kun je vergeten, ZFS en hardware RAID geeft gedonder (zie mijn problemen met een Arc-1221x, je kunt beter een M1015 op de kop tikken, of een van de andere HBA in t lijstje. Ik hoop voor je dat je de HDD's nog niet hebt aangeschaft, want voor ZFS is het helemaal niet nodig om 'enterprise' disks (TLER ondesteuning) aan te schaffen, werkt prima op consumer disks.
Pantagruel thanks voor snelle reactie!

Stel ik gebruik mijn Arc-1222 met raid6 en mijn Arc-1222 gaat stuk, dan heb ik een single point of failure (SPOF) want heb er niet nog een liggen.

Stel ik koop een M1015 en gebruik ZFS en deze card gaat kapot. Kan ik dan zo een andere card of motherbord gebruiken zodat ik dan nog wel bij mijn data kan. Met andere worden ben ik van de single point of failure (SPOF) af?

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
Neptunus schreef op vrijdag 08 februari 2013 @ 12:11:
Stel ik koop een M1015 en gebruik ZFS en deze card gaat kapot. Kan ik dan zo een andere card of motherbord gebruiken zodat ik dan nog wel bij mijn data kan. Met andere worden ben ik van de single point of failure (SPOF) af?
Jup, dat kan.
Het maakt voor ZFS totaal niet uit aan wat voor controller je schijven hangen, mits de schijven maar direct benaderbaar zijn (daarom ook de IT flash van de M-1015 als je ZFS gaat gebruiken).

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
Sleepie schreef op vrijdag 08 februari 2013 @ 12:22:
[...]

Jup, dat kan.
Het maakt voor ZFS totaal niet uit aan wat voor controller je schijven hangen, mits de schijven maar direct benaderbaar zijn (daarom ook de IT flash van de M-1015 als je ZFS gaat gebruiken).
Dat is dan wel heel nice. MMmm dit toch maar overwegen! Jammer dat dit niet kan met mijn arc-1222.

Is de M-1015 ook goed ondersteurd met ESXi?

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
Neptunus schreef op vrijdag 08 februari 2013 @ 12:34:
Dat is dan wel heel nice. MMmm dit toch maar overwegen! Jammer dat dit niet kan met mijn arc-1222.

Is de M-1015 ook goed ondersteurd met ESXi?
Je kunt in ESXI een M-1015 via passthrough doorgeven aan een ZFS (nas4free, zfsguru, whatever) VM. Passthrough ook weer vanwege de directe toegang tot de schijven voor je ZFS machine.
Er zijn in dit topic genoeg tweakers te vinden die zo'n setup hebben.

Wel zorgen dat je er een vt-d capable proc in je ESXI host stopt, zodat passthrough werkt (core i5 3330 of beter).

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Sleepie schreef op vrijdag 08 februari 2013 @ 12:40:
[...]
Wel zorgen dat je er een vt-d capable proc in je ESXI host stopt, zodat passthrough werkt (core i5 3330 of beter).
Voor VT-d is de moederbord-chipset én de BIOS van veel groter belang. VT-x is wel voornamelijk door de CPU.

  • mjl
  • Registratie: November 2001
  • Laatst online: 21-12 20:59

mjl

Ugh

Het liefst bouw ik een NAS met zo min mogelijk stroom verbruik en ik haal het niet uit al deze posts hier...

Aangezien de grote NAS bouwers allemaal een atom board e.d. gebruiken leek me dat een goede optie. Als ik echter reviews lees zitten de bordjes met CPU onboard rond een verbruik van 50-70 W. Terwijl een NAS van QNAP rond de 35 W zit.

Zijn er moederbodjes & processor combinaties die dit ubeahupt redden of moet ik maar een berekening gaan maken hoeveel het scheelt om een NAS kant en klaar te kopen of zelf wat te schroeven...

Ik wil minimaal 4 schiven aan SATA kunnen hangen en een gigabit verbinding kunnen maken. Het OS zou Windows 7 worden. Fancy output zoals HDMI is mij niet interessant... USB3 is welkom maar geen noodzaak.

Verder zuinig en goedkoper dan een QNAP TS-468L ;)

Een kast bouw ik zelf, voedingen heb ik zat liggen, geheugen: ik heb nog wat DDR3 liggen (DIMM) HDD's heb ik ook al...

Via de pricewatch kom ik met losse componenten op:
pricewatch: Intel Pentium G630T Boxed (66,40)
pricewatch: ASRock B75 Pro3-M (59,80)

of:

pricewatch: Asrock E350M1/USB3 (81,85)

[ Voor 18% gewijzigd door mjl op 08-02-2013 14:02 ]

-------


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Phuncz schreef op vrijdag 08 februari 2013 @ 12:51:
[...]

Voor VT-d is de moederbord-chipset én de BIOS van veel groter belang. VT-x is wel voornamelijk door de CPU.
Het is de combi die het mogelijk maakt.
Een Vt-d loze CPU maakt nog niet dat passthrough werkt als BIOS en mobo-chipset Vt-d expliciet ondersteunen (ESXi meldt braaf dat als er een i3 in de X9SCM-f zit er geen Vt-d ondersteuning is. Steek ik er de Xeon in dan is Vt-d wel ondersteund)
Als een mobo maker geen Vt-d ondersteuning mogelijk maakt in zijn BIOS sta je ook buitenspel, daarom doen veel consumer grade bordjes niet aan Vt-d ookal steek je er een Vt-d enabled CPU in.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja idd. Voor de duidelijkheid een lijst van supported Intel CPU's: http://ark.intel.com/search/advanced/?s=t&VTD=true
En een lijst van supported Intel motherboards: http://www.intel.com/supp.../desktop/sb/cs-030922.htm

[ Voor 118% gewijzigd door Phuncz op 08-02-2013 13:17 ]


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

FireDrunk schreef op woensdag 06 februari 2013 @ 17:05:
2) Als je alleen maar idle VM's met simpele software gaat draaien, is het inderdaad aan te raden om ZFSguru te draaien als host.
ah, dus ik kan onder ZFSGuru VM's draaien? dus ik kan een winxp hebben zonder dat hele VT-d gedoe?

ik geef mijn data gewoon via netwerk door aan mijn xp. in dat geval is een 120GB SSD wel aan te raden denk ik?

ik heb bij mijn systeem vergeten een SSD te bestellen.. nu weet ik niet wat ik moet doen,
wachten op M500 of een andere kopen?

en als ik wacht, wat ga ik in tussentijd gebruiken? UBS-sticks of een normale HDD..
ik kan ook altijd een vertex 2 uit mijn HTPC nemen,, (is dat de moeite om te doen voor 2 maanden servergebruik?)

\\ Baloo \\ Mijn iRacing profiel


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

MikeVM schreef op vrijdag 08 februari 2013 @ 14:03:
[...]

ah, dus ik kan onder ZFSGuru VM's draaien? dus ik kan een winxp hebben zonder dat hele VT-d gedoe?
Yep, ZFSguru is voorzien van VirtualBox

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

MikeVM schreef op vrijdag 08 februari 2013 @ 14:03:
[...]

ah, dus ik kan onder ZFSGuru VM's draaien? dus ik kan een winxp hebben zonder dat hele VT-d gedoe?

ik geef mijn data gewoon via netwerk door aan mijn xp. in dat geval is een 120GB SSD wel aan te raden denk ik?

ik heb bij mijn systeem vergeten een SSD te bestellen.. nu weet ik niet wat ik moet doen,
wachten op M500 of een andere kopen?

en als ik wacht, wat ga ik in tussentijd gebruiken? UBS-sticks of een normale HDD..
ik kan ook altijd een vertex 2 uit mijn HTPC nemen,, (is dat de moeite om te doen voor 2 maanden servergebruik?)
2de hands een cheape SSD kopen?

Even niets...


  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 10:31
Ik heb de L7 voeding die hier al een paar keer voorbij is gekomen. Op 2 van de beschikbare SATA powercables zit al een splitter naar 2x power. Ik heb ook een molex stekker naar 2 x SATA, maar het is al een paar keer gemeld door CiPHER dat die zo onbetrouwbaar zijn als de pest.

Is het raadzaam om die splitters nog eens "uit te splitsen", dus van 1 naar 2 naar 4 en dat twee keer? Of blijf ik best bij die molex.

Waarom de vraag: ik wil er 2 x 2TB bij hangen die ik nog heb liggen, maar mijn power outletjes zijn op :) .

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:08

Compizfox

Bait for wenchmarks

Ik zou de splitters zoveel mogelijk verdelen over de molex-kabels. Dus beter 2 'root-kabels' splitten dan 1 'root-kabel' 2x splitten (2 splitters achter elkaar).

Al denk ik niet dat het in de praktijk veel uitmaakt, tenzij je er 10 A over gaat trekken of zo :P

Gewoon een heel grote verzameling snoertjes

Onbetrouwbaar heeft inderdaad meer te maken met het los raken en slecht contact dan met het vermogen...
Draai hier ook gewoon met alle aansluitingen kris kras door elkaar...

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Verwijderd schreef op vrijdag 08 februari 2013 @ 18:01:
Acht hardeschijven op één kabel zou wel kunnen. Ik houd het liever bij vier. Het probleem is eigenlijk alleen bij het opspinnen dat een hardeschijf 20-30W kan verbruiken dat het erop aankomt. Dan gaat er toch aardig wat ampère door die kleine draadjes; en dan vooral door dat ene gele +12V draadje. De warmteontwikkeling is afhankelijk van ampère (niet volt of watt) dus gedurende het opspinnen mag deze niet kritisch hoog worden. Met 8 schijven is dat toch al 10-15 ampère.
misschien ook even van die molexconnectors bestellen om rechtstreeks op de voedingskabels te prikken, en dan verdelen over 2 kabels ipv 1

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

MikeVM schreef op vrijdag 08 februari 2013 @ 19:51:
[...]

misschien ook even van die molexconnectors bestellen om rechtstreeks op de voedingskabels te prikken, en dan verdelen over 2 kabels ipv 1
Ik snap je niet? Ik stel juist dat men helemaal geen Molex meer moet gebruiken; enkel SATA power stekkers. Dus je voeding heeft 2 tot 4 van die stekkers, daar kun je dan 4 van die splitterkabels aanhangen dan zit je al op 4x4=16 schijven. Eventueel kun je dan doorlussen voor 4x7=28 schijven.

Het hele punt hierbij is dat je geen Molex-stekkers meer gebruikt. Dat was de hele opzet, dat je die onveilige stekkers niet meer gebruikt. Als je dat alsnog blijft gebruiken, wat is dan de winst?

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

oh ja, maar mijn kast (Norco, wil enkel nog Molex voor zijn backplanes) had ik er bij moeten vermelden :)

maar dat ik dan geen molex koppelstukken meer moet gebruiken.

morgen een Intel 320 SSD van 120GB ophalen, dan is mijn server volledig en compleet.
kan ik morgen er vol in vliegen.. hopelijk heb ik tegen woensdag al mijn data overgezet.. (+-15TB)

[ Voor 35% gewijzigd door MikeVM op 09-02-2013 00:55 ]

\\ Baloo \\ Mijn iRacing profiel

Als je écht goede kwaliteit molex stekkers koopt (die je niet zo hard hoeft te forceren, dat ze stuk gaan, maar ook niet zo zacht dat ze los raken) dan kan je ze op zich wel gebruiken, MAAR je moet je wel bewust zijn van de risico's.

Ik heb de hele zooi vastgemaakt met tie-wraps, waardoor de stekkers niet los kúnnen gaan...
Vewissel je nou vaak apparaten/voedingskabels dan is dat niet handig.

Sata is uiteraard beter qua contactjes, maar die gaan naar mijn inzien ook nog makkelijk los. Die moet je dus eigenlijk ook vast tie-wrappen wil je dezelfde 'veiligheid' halen die ik nu heb.

Even niets...


  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

Sata power-connectoren zijn fundamenteel even problematisch als AMP mate-n-lok ('molex') connectoren. Beide zijn friction fit, geen positive retention. Sommige sata power-connectoren hebben wel een retentieclip (net als dat sommige sata datakabels dat hebben), maar dat is geen dwingende feature van de specificatie. Je loopt dus in principe dezelfde risico's.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hmm hier ga ik eens naar op zoek. Hebben de meeste HDD's en SSD's ook de voorziening voor die retentieclip, zoals bij de SATA-datakabels ? Is me eigenlijk nog nooit opgevallen. Heb zelf altijd een hekel aan loskomende SATA-datakabels, zeker omdat ik met mITX en mATX systemen vooral werk.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Met FireDrunk en Mux.

Als je verloop/uitbreidingskabels gebruikt, is het enige wat echt werkt om te voorkomen dat connector loskomt idd tie-wrappen of mbv smeltlijm (glue gun) de boel permanent fixeren.

De andere optie is losse SATA power connectoren aanschaffen (op ebay te vinden 'SATA power connector punch plug') en die op de kabel te drukken. Het enige wat je daar niet mee oplost is de lengte van de kabel.
Phuncz schreef op zaterdag 09 februari 2013 @ 10:35:
Hmm hier ga ik eens naar op zoek. Hebben de meeste HDD's en SSD's ook de voorziening voor die retentieclip, zoals bij de SATA-datakabels ? Is me eigenlijk nog nooit opgevallen. Heb zelf altijd een hekel aan loskomende SATA-datakabels, zeker omdat ik met mITX en mATX systemen vooral werk.
Zo uit mijn hoofd heeft t gros van de HDD's de uitsparing voor de rententie clip (De WD's/Seagates die ik hier heb in ieder geval wel, Samsungs moet ik even na kijken). Of de SATA connector op t moederbord over de uitsparing beschikt is nog maar de vraag. En anders 'hot glue' ;) , Pantagruel herinnerd zich nog de binnenkant van een Escom pc waarbij powerplugs en PATA mbv hot glue vast waren gezet.

Afbeeldingslocatie: http://i1268.photobucket.com/albums/jj580/555greentech/Slim%20Dual%20Removable%20HDD/DSC01531.jpg

[ Voor 45% gewijzigd door Pantagruel op 09-02-2013 10:56 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • ZombieExtreme
  • Registratie: September 2001
  • Laatst online: 19-12 13:00
De afgelopen weken heb ik ook een NAS met ZFSGuru samengesteld, ter vervanging voor mijn Readynas Ultra6 die vol zat. Hoewel de ZFSGuru benchmarks hoge snelheden aangeven valt de Samba performance nogal tegen.

Gebruikte Hardware:
#ProductPrijsSubtotaal
1Intel Celeron G550 Boxed€ 36,95€ 36,95
1ASRock B75 Pro3-M€ 56,45€ 56,45
2Hitachi Deskstar 5K4000, 4TB€ 160,23€ 320,46
3Samsung HD204UI , 2TB SATA-300, 32MB, 5400rpm€ 107,99€ 323,97
1Samsung Spinpoint F1 HD753LJ, 750GB€ 0,-€ 0,-
1Lian Li PC-V2000 (E-ATX, Geen PSU, Zwart)€ 0,-€ 0,-
1Crucial Ballistix Sport BLS2CP8G3D169DS1SC€ 74,35€ 74,35
1XFX Pro 450W v2€ 42,50€ 42,50
Bekijk collectie
Importeer producten
Totaal€ 854,68


De 750GB schijf is de boot en download disk. De 2x4TB heb ik in Stripe voor de films en met de 3 Samsung 2TB schijven wil ik RAIDZ maken voor de data die ik redundant wil bewaren. Ik had nog een 4de 2TB schijf erbij zitten voor de volgende Advanced benchmark:
Afbeeldingslocatie: http://i46.tinypic.com/iejxif.png.

Toen ik een RAIDZ pool maakte van 4x2TB resulteerde dit in de volgende benchmark performance via gigabit LAN:
Afbeeldingslocatie: http://i49.tinypic.com/23htwzd.png
Kortom nogal belabberde read performance.

Ik ben er van bewust dat 4 schijven niet ideaal is voor RAIDZ1, zodoende de pool verwijderd en opnieuw aangemaakt met 3x2TB. De ZFSGuru benchmark geeft
Afbeeldingslocatie: http://i45.tinypic.com/19ld0i.png

Als ik bestanden ga kopieren valt het echter flink tegen. In mijn werkstation zit een Crucial M4 dus deze is niet de bottlenek. Als ik een file van de ZFS NAS kopieer (read) ziet het er als volgt uit:
Afbeeldingslocatie: http://i47.tinypic.com/2q05xsm.png
Zoals je ziet is de snelheid soms netjes en stabiel, maar valt deze regelmatig flink terug. Het oudere stuk dat wel netjes 100% netwerk gebruikte was van de 2x4TB stripe. Deze RAIDZ snelheid valt me natuurlijk flink tegen terwijl ik voor de rest te spreken ben over ZFSguru. Ik heb het vermoeden dat het veroorzaakt wordt door een samba probleem. Heeft iemand een idee hoe ik dit kan verbeteren? De SMART data van alle schijven is healthy.
max_pending en min_pending in het tuning tabje even op 1 zetten allebei.

Even niets...


  • ZombieExtreme
  • Registratie: September 2001
  • Laatst online: 19-12 13:00
FireDrunk schreef op zaterdag 09 februari 2013 @ 11:33:
max_pending en min_pending in het tuning tabje even op 1 zetten allebei.
Bedankt! Nu is de dataoverdracht een stuk stabieler. Helaas maximaal zo'n 80MB/s read dus dat valt nog tegen.

Edit: Nu zit hij handstikke stabiel op 90MB/s. Ik weet niet waarom het gestegen is want ik heb verder niks meer gewijzigd, maar dit is een snelheid waarmee ik tevreden ben. De CrystalDiskMark scores zien er nog hetzelfde uit maar dat is misschien een fout van de tool zelf.

[ Voor 31% gewijzigd door ZombieExtreme op 09-02-2013 11:54 ]

Samba al getuned?


socket options = IPTOS_LOWDELAY TCP_NODELAY SO_SNDBUF=65536 SO_RCVBUF=65536
in je config zetten.

Even niets...

Ik haal (met maar 4GB L1ARC) gewoon strak 110-111MB/s lezen en schrijven.

Even niets...


Verwijderd

Ik heb een algemene vraag. Ik heb meerdere distro's (freenas/ nas4free/ openmediavault/ubuntu server etc etc) getest en het viel mij op dat samba altijd behoorlijk wat cpu (+/- 40%) gebruikt en dat de snelheden matig zijn (40-50% van de gbit aansluiting). Ik heb dit geprobeerd te tweaken maar de resultaten bleven matig.

Vervolgens heb ik win7 geïnstalleerd en ik haalde direct en hogere snelheden en een stuk lagere cpu verbruik.

nas computer: intel 3110 met een gbit kaart en 4gb ram
clients: win7 met gbit

Inmiddels heb ik besloten om win7 te gebruiken op de 'nas' en haal ik 98% write en 80% read van de gbit uitermate stabiel en heb ik helemaal niets hoeven te tweaken. Daarnaast is de CPU load nog steeds laag (rond de 10%).

Het meten heb ik overigens gedaan met De taskmanager in win7 en dan het netwerk tabje.

Komt dit door de drivers? Of is samba niet heel efficiënt? Configuratie? Zonder alle info is dit lastig te bepalen (en dat hoeft ook niet), maar ik vroeg me af hoe jullie ervaring is. Ik heb redelijk wat tijd gestoken om een linux configuratie echt goed te krijgen terwijl alles in win7 direct goed gaat.

Is het überhaupt mogelijk dat ik ongeveer dezelfde performance haal met enige linux/bsd distro als met win7 of moet ik in dat geval tevreden zijn met minder.

[ Voor 6% gewijzigd door Verwijderd op 09-02-2013 18:57 ]

Samba doet hier 18% CPU usage bij 1Gb traffic...

Even niets...


Verwijderd

FireDrunk schreef op zaterdag 09 februari 2013 @ 19:13:
Samba doet hier 18% CPU usage bij 1Gb traffic...
Welke cpu gebruik je? Ik kon dat zo niet direct terugvinden in je posts. Dat klinkt iig een heel stuk beter dan wat ik had.

edit: zou je ook eens de uitvoer van top kunnen geven tijdens maximale netwerk verkeer? Ik kreeg namelijk een heel hoog % bij wait en ik vroeg me af wat dat hoort te zijn bij een goed geconfigureerde samba.

edit2: De cpu gevonden in je profiel informatie. Jij hebt een i5 3550 welke een stuk krachtiger is (en een hogere tdp heeft) dan de i3 3110m. Op het oog is 18% nog best fors. Betekend dat dat een cpu als een amd E2-1800 (of vergelijkbare intel) eigenlijk niet volstaat om een samba server te voorzien ?

[ Voor 49% gewijzigd door Verwijderd op 09-02-2013 19:32 ]

18% om 100MB/s te versturen met een smerige implementatie van een nageaapt protocol? Dat vind ik best meevallen... :+

Bedenk dat de SMB (en SMB2 al helemaal) versie die Windows gebruikt, nou niet echt vlekkeloos op Linux geimplementeerd zijn... Het is stiekem wel een beetje logisch dat Windows dat beter kan...

Over die E2, dat is maar net wat je wil... Als je genoegen neemt met 60MB/s ofzo, kan je prima zo'n troep ding nemen... :+

Even niets...


Verwijderd

Het is ook absoluut niet slecht, maar dat komt met name ook doordat het gewoon een hele snelle cpu is en je veel headroom hebt. Als het een vereiste is dat de nas stil & zuinig is, dan heb je vaak niet de kracht van een desktop i5 tot je beschikking.

Ook als je bv de HP N40L neemt, zit daar een cpu in welke maar een haar krachtiger is dan de E2. Zelf veronderstelde ik dat linux altijd efficiënter was of op zijn minst even efficiënt maar dat is dus niet bepaald zo (toch?).

Heeft iemand een idee hoe dit zit met osx ? Mac-mini's zijn namelijk ook heel zuinig en stil.
Uh, heb je je al verdiept in het verbruik van mijn server? Want je doet een beetje een aanname... 8-)

Even niets...


Verwijderd

FireDrunk schreef op zaterdag 09 februari 2013 @ 20:02:
Uh, heb je je al verdiept in het verbruik van mijn server? Want je doet een beetje een aanname... 8-)
Ik ben niet heel handig met dit forum want ik kom er niet zo vaak maar dit vond ik:
Ik draai idle 61W, en dat vind ik al redelijk...
En dat is heel netjes vind ik. Mijn punt is ook niet dat een 3550 veel gebruikt (of weinig)... maar ik probeer mij een beetje te oriënteren hoeveel cpu kracht je nodig hebt voor een bepaalde setup. Daarnaast staat een nas veel aan dus stroomverbruik is ook een overweging. Ik zocht een goede balans tussen cpu-kracht en stroomverbruik.

Mijn setup draait idle trouwens 15.6w en tijdens streamen van youtube 20.2w.

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:08

Compizfox

Bait for wenchmarks

FireDrunk schreef op zaterdag 09 februari 2013 @ 11:33:
max_pending en min_pending in het tuning tabje even op 1 zetten allebei.
Heb je hier ook uitleg bij? :)

Ik haal ongeveer dezelfde snelheden met Samba, en een paar tweaks om het te tunen zou natuurlijk altijd leuk zijn. Maar dan wil ik ook graag weten wat het precies doet :P

Momenteel staat het op vfs.zfs.vdev.min_pending=4 en vfs.zfs.vdev.max_pending=32.
Ik draai trouwens FreeBSD 9.0 (en heb dus geen automatic tuning aanstaan) en heb 12 GB RAM.

Gewoon een heel grote verzameling snoertjes

Verwijderd schreef op zaterdag 09 februari 2013 @ 20:23:
Ik ben niet heel handig met dit forum want ik kom er niet zo vaak maar dit vond ik:
Dat geeft niet, maar je doet wel een (onterechte) aanname, dat mijn server meer verbruikt omdat hij een hogere TDP heeft. Dat is niet waar. Mijn server verbruikt idle (met windows 7) 19W met alleen een SSD.

Veel zuiniger kan niet. (tenzij je een PicoPSU gaat gebruiken, en een speciaal moederbord met ingebouwde voeding (zoals een DQ77KB).
En dat is heel netjes vind ik. Mijn punt is ook niet dat een 3550 veel gebruikt (of weinig)... maar ik probeer mij een beetje te oriënteren hoeveel cpu kracht je nodig hebt voor een bepaalde setup. Daarnaast staat een nas veel aan dus stroomverbruik is ook een overweging. Ik zocht een goede balans tussen cpu-kracht en stroomverbruik.

Mijn setup draait idle trouwens 15.6w en tijdens streamen van youtube 20.2w.
Dat is ook netjes :)
Compizfox schreef op zaterdag 09 februari 2013 @ 20:39:
[...]

Heb je hier ook uitleg bij? :)

Ik haal ongeveer dezelfde snelheden met Samba, en een paar tweaks om het te tunen zou natuurlijk altijd leuk zijn. Maar dan wil ik ook graag weten wat het precies doet :P

Momenteel staat het op vfs.zfs.vdev.min_pending=4 en vfs.zfs.vdev.max_pending=32.
Ik draai trouwens FreeBSD 9.0 (en heb dus geen automatic tuning aanstaan) en heb 12 GB RAM.
Dat is iets wat niet hier hoort, maar in het ZFS topic ;) Ik geloof dat ik het daar al een keer heb uitgelegd.
Keyword is vdev, maar als je het niet kan vinden, wil ik het nog wel een keer uitleggen.

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:08

Compizfox

Bait for wenchmarks

Daar heb je gelijk in. Ik heb de post die je waarschijnlijk bedoelde gevonden:

FireDrunk in "Het grote ZFS topic"
Reactie erop (relevant): Verwijderd in "Het grote ZFS topic"

Gewoon een heel grote verzameling snoertjes


  • sloth
  • Registratie: Januari 2010
  • Niet online
Verwijderd schreef op zaterdag 09 februari 2013 @ 18:54:
Ik heb een algemene vraag. Ik heb meerdere distro's (freenas/ nas4free/ openmediavault/ubuntu server etc etc) getest en het viel mij op dat samba altijd behoorlijk wat cpu (+/- 40%) gebruikt en dat de snelheden matig zijn (40-50% van de gbit aansluiting). Ik heb dit geprobeerd te tweaken maar de resultaten bleven matig.

Vervolgens heb ik win7 geïnstalleerd en ik haalde direct en hogere snelheden en een stuk lagere cpu verbruik.

nas computer: intel 3110 met een gbit kaart en 4gb ram
clients: win7 met gbit

Inmiddels heb ik besloten om win7 te gebruiken op de 'nas' en haal ik 98% write en 80% read van de gbit uitermate stabiel en heb ik helemaal niets hoeven te tweaken. Daarnaast is de CPU load nog steeds laag (rond de 10%).

Het meten heb ik overigens gedaan met De taskmanager in win7 en dan het netwerk tabje.

Komt dit door de drivers? Of is samba niet heel efficiënt? Configuratie? Zonder alle info is dit lastig te bepalen (en dat hoeft ook niet), maar ik vroeg me af hoe jullie ervaring is. Ik heb redelijk wat tijd gestoken om een linux configuratie echt goed te krijgen terwijl alles in win7 direct goed gaat.

Is het überhaupt mogelijk dat ik ongeveer dezelfde performance haal met enige linux/bsd distro als met win7 of moet ik in dat geval tevreden zijn met minder.
Als je in het ZFS topic gaat zoeken ga je gelijkaardige ervaringen van mij terugvinden.
Bij mijn NAS op basis van een asus c60 is het vermoedelijk de NIC die niet geheel geoptimaliseerd is voor FreeBSD en dus ook niet voor N4F/FreeNAS.

Verwijderd

@firedrunk
19 watt is wel echt heel erg laag. Bij een aantal reviews leek een standaard i5 ivy systeem idle ergens tussen de 60-80W te verbruiken. Ik was mij niet bewust dat dit zo goed te tweaken is. Zit al dat extra vermogen bij een "standaard" systeem dan in het mobo/voeding?

@sloth
Verder is FreeBSD (icm ZFS) in vergelijking met Windows op basis met mijn ervaringen een pak langzamer. Tussen een Windows 7 bak en windows 7 op m'n C60 haal ik ~100MB/s via SMB, terwijl dat met ZFSguru slechts 55MB/s is.
Dus dan is hetgeen ik heb waargenomen geen uitzondering. Dankje voor de bevestiging. Overigens vind ik die snelheden nog steeds heel hoog voor een c60.

Al met al snap ik niet helemaal waarom in de topicstart staat dat windows doorgaans niet wordt aangeraden.

Is er nog iemand met ervaring mbt sambe icm osx?

  • sloth
  • Registratie: Januari 2010
  • Niet online
Graag gedaan :)

Er zijn wel meerdere redenen waarom je geen Windows voor je nas wilt:

-Hoge licentiekosten
-Geen ondersteuning voor ZFS
-Trage software raid
-Windows heeft, gemiddeld, een hogere memory en processor footprint dan een dedicated nas OS

Daarnaast zijn er nog wat zaken die ter discussie staan zoals veiligheid, of het wel handig is alles met een GUI te beheren, de vrijheid/openheid om te tweaken, enz.

Verwijderd

Verwijderd schreef op zaterdag 09 februari 2013 @ 21:34:
@firedrunk
19 watt is wel echt heel erg laag. Bij een aantal reviews leek een standaard i5 ivy systeem idle ergens tussen de 60-80W te verbruiken.
Reviews ja, Amerikaanse reviews. Die pleuren er een 2000W voeding bij en zijn dan verbaasd dat iets wat eigenlijk 10W verbruikt opeens 60W op de teller zet. Reviews zijn zelden nuttig wat betreft stroomverbruik. Het lijkt wel of ze er een sport van maken de idle zo hoog mogelijk te maken. Ik vraag me af hoe ze dat toch lukt. Nouja, soms is het niet heel moeilijk als een ultrazuinig Brazos platform wordt gekoppeld met een stroomvretende discrete GPU. Alsof je een peperdure GPU met een Brazos CPU gaat koppelen, lolz. 8)7

Een modern kaal systeem zit je tussen de 10 en 20 watt idle met een moderne processor zonder tweaks. Zo doet mijn quadcore Ivy Bridge i5 3570 zo'n 8,4 watt idle superkaal aan het stopcontact met enkel een SSD en video-output, en een PicoPSU voeding. Dit is inderdaad met 'tweaking' ofwel undervolting, maar zonder dat was het iets van 12.x watt uit mijn hoofd. Zie hier voor gedetailleerde metingen: Stroomverbruik Processor+Moederbord+Geheugen
Verwijderd schreef op zaterdag 09 februari 2013 @ 20:01:
Als het een vereiste is dat de nas stil & zuinig is, dan heb je vaak niet de kracht van een desktop i5 tot je beschikking.
Dit is dus exact waar ik mij tegen verzet. Juist moderne hardware is tegenwoordig heel zuinig. Een quadcore ivy bridge verbruikt netto minder dan een E350 Brazos systeem.

Wel geldt dat met de standaard 77W TDP je passieve koeling eigenlijk wel kunt vergeten. Dan zul je één van de 'T' versies moeten nemen met maximaal 45W TDP. Dan kun je de CPU fan ook uitschakelen en enkel passief koelen. Bedenk namelijk dat in die 45W TDP ook de GPU thermische headroom zit, dus in feite doen je CPU cores dan 25W ofzo.
Zelf veronderstelde ik dat linux altijd efficiënter was of op zijn minst even efficiënt maar dat is dus niet bepaald zo (toch?).
In mijn tests (zie topic) heb ik ZFSguru/FreeBSD 9.1 als zuiniger getest dan Ubuntu Linux. Dat wat voorheen inderdaad anders met FreeBSD 8.x. FreeNAS is nog gebaseerd op 8.x dus daarvan zal het energieverbruik dan ook hoger zijn.
Al met al snap ik niet helemaal waarom in de topicstart staat dat windows doorgaans niet wordt aangeraden.
Windows loopt enorm achter op opslagtechnologie. Die simpele software RAID functies in combinatie met NTFS is behoorlijk gedateerd en valt totaal niet te vergelijken met iets als ZFS. Als je je data serieuze bescherming wilt geven, is een Windows NAS dus wel de laatste keuze uit het rijtje.

Verwijderd

@ sloth
Daar heb je gelijk in en ik heb/had ook een voorkeur voor linux (ubuntu server). Hier heb ik ook wat ervaring mee. Ik gebruik nog steeds ubuntu server, maar dan draaiende in win7 in virtualbox op de 'nas'. ZFS had ik ook naar gekeken maar dit is in linux niet een standaard optie door licentie technische zaken oid.

Ik verwachtte dat windows meer resources zou gebruiken maar tot nu toe zie ik exact het tegenovergestelde. Ook bijvoorbeeld de taskmonitor gebruikt in win7 een stuk minder cpu en is toch een stuk uitgebreider & prettiger in gebruik dan de ubuntu gnome system monitor. Zeker als je ook kijkt naar de resource monitor van win7. Het zijn kleine dingen maar al met al zie ik een lager verbruik in win7 en meer performance.

Uberhaupt is lastig te zien als je in linux een resource hog hebt wat de oorzaak is en moet je vaak terugvallen op handmatig textbestandjes editen. Ik ben geen linux criticus (helemaal niet zelfs), maar als je niet exact goed weet wat je doet en je moet ingewikkelde zaken instellen in linux, dan vind ik dat daar een soort van inherente onveiligheid in zit.

Het laatste punt is dat veel extra's in linux eigenlijk niet worden ondersteund. Dingen als :
Intel Quick Sync Video
Intel Smart Response
Intel Rapid Start
Intel Smart Connect
2T2R WiFi

welke allemaal bij mij worden ondersteund. Ik weet niet of het kan, maar als je quick sync video kan gebruiken om de videobestanden rechtstreeks in het goede formaat te streamen naar je android mobiel/tablet/tv dan is dat een hele mooie extra want die kunnen niet altijd alle formaten aan en quicksync kan het ruim sneller dan de snelste cpu van dit moment.

  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
Verwijderd schreef op woensdag 02 januari 2013 @ 19:50:
<...>
Zelf denk ik: waarom die extra complexiteit? Waarom niet gewoon ZFSguru als basis houden en met Virtualbox klooien voor wat extra operating systems die je wilt draaien. Je kunt denk ik een heleboel al native op ZFSguru/FreeBSD draaien. Uit veiligheidsoverwegingen doe je dat liever in een jail of virtual machine. Maar beide opties zijn mogelijk. Door ZFSguru als host te draaien heb je niet de problemen die kunnen opduiken.
Reactie heeft wat op zich laten weten (vanwege omstandigheden); jouw antwoord is, desalniettemin zeer gewaardeerd.
Ik ben er achter gekomen dat ik op zoek ben naar OS met goede ZFS ondersteuning inclusief een goede GUI voor ZFS (NAS gedeelte). Dit is zonder twijfel ZFSGuru. De reden dat ik aan CentOS dacht is vanwege mijn aanstaande examens voor RHCE en RHCSS en aangezien ik al lang niets met Linux heb gedaan zou het handig zijn om zoveel mogelijk bezig te zijn hiermee. Oplossing: CentOS in warden jails die op een FBSD geinstalleerd kan worden via ports.


Anyhow, heb alle hardware al een tijdje binnen:

* N40L (10GB ECC en Picopsu 120 met 120W adapter)
* 3x wd30ezrx (de 3 platters)
* 2x 60GB SLC SSD incl. surprise power loss beveiliging
* 1x 64GB MLC SSD

De setup zoals in gedachte, is zfs on root partitie in mirror op de twee slc ssd's van 50g. Overgebleven capaciteit voor ZIL. De 64g mlc ssd voor L2ARC. Inmiddels heb ik FBSD draaien op de mirror en wilde zfsguru (alleen het web gui gedeelte) installeren, maar las op de site dat dit niet handig is. Wat ik ook begrijp. Het is jammer dat het onderliggend OS config zo bepalend is. Ik zou nzb/torrent/owncloud services het liefst in een jail draaien om de risico's te beperken.
<...>
Verder je twee SSDs zou je dan in ZFSguru kunnen gebruiken als een mirror partitie voor je systeem/boot pool en een partitie voor L2ARC en eventueel SLOG/dedicated ZIL. En een gedeelte wat je vrij laat voor overprovisioning. Als je SLOG wilt, moet je wel een beveiligde SSD nemen zoals Intel 320. De SLOG in mirror draaien op twee onbeschermde SSDs is nog steeds onvoldoende. Je zult dan regelmatig een transactiegroup terugdraaien, dus verder terug in de tijd. Ik kan dat niet aanraden. De L2ARC cache partitie kun je in RAID0 gebruiken, dus twee partities op twee SSDs die je toevoegt als cache.
Hoe groot moet de ZIL partitie zijn voor een 6TB (netto) pool? Hiervoor had ik ongeveer 8GB gerekend in een "raid1" mirror. Komt op 2 beveiligde slc disks.

TIA!

Verwijderd

@CiPHER
Dit is dus exact waar ik mij tegen verzet. Juist moderne hardware is tegenwoordig heel zuinig. Een quadcore ivy bridge verbruikt netto minder dan een E350 Brazos systeem.
Daar ben ik het helemaal mee eens. Alleen door de grote max TDP heb je toch een redelijke cooler nodig dacht ik. Maar dan is een iets zuinigere variant inderdaad vaak een betere optie dan een e350 achtig iets.

zfsguru ga ik nog even proberen, die had ik nog niet eerder voorbij zien komen bij het experimenteren. Ik snap ook wel dat windows niet in alle gevallen geschikt is, maar soms JUIST wel. Voor de echte backup gebruik ik een synology met raid1 (maar die haalt maar 30MB/s) en als netwerk opslag om vanaf te werken gebruik ik nu een externe 3TB met aes256 ingebouwd welke is aangesloten op mijn nas systeem.

Locaal op de nas haalt deze in crystal mark
220MB read en 149MB write bij 50MB test en
163MB read en 160MB write bij 500MB test

Dus zonder cpu belasting kan ik met aes256 lezen & schfijven ruim boven de maximale gbit snelheid en dat had onder linux niet gekund (de cpu heeft geen aes instructieset helaas). De reden dat deze enkele usb-3 schijf zo hoog scoort komt geloof ik ook door XFast USB welke in linux/bsd ook wat lastiger zal zijn.

[ Voor 8% gewijzigd door Verwijderd op 09-02-2013 23:38 ]


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
sloth schreef op zaterdag 09 februari 2013 @ 21:49:
Er zijn wel meerdere redenen waarom je geen Windows voor je nas wilt:

-Hoge licentiekosten
-Geen ondersteuning voor ZFS
-Trage software raid
-Windows heeft, gemiddeld, een hogere memory en processor footprint dan een dedicated nas OS

Daarnaast zijn er nog wat zaken die ter discussie staan zoals veiligheid, of het wel handig is alles met een GUI te beheren, de vrijheid/openheid om te tweaken, enz.
ligt wat mij betreft genuanceerder. Voor ZFS wordt relatief veel RAM aangeraden en voor performance i.v.m. applicaties heb je ook een zwaarder systeem nodig.
Stel dat je een zuivere NAS wilt draaien dan is bovenstaande waar. Wil je er daarentegen ook applicaties op draaien dan ligt het genuanceerder.
Persoonlijk vind ik het een voordeel dat mijn fileserver hetzelfde besturingssysteem draait als de PC waar ik dit op typ. Daardoor kan ik bijvoorbeeld probleemloos mij bekende tools op de fileserver draaien t.b.v. bijvoorbeeld remuxen blu-ray files. Daarbij ondersteund Windows standaard beter een zuinig energie beheer. Dat is dan niet zuiver NAS maar voor mij persoonlijk wel een overweging. OEM licentie Windows vind ik zelf wel meevallen.

  • ThinkPad
  • Registratie: Juni 2005
  • Nu online
Voor de mensen die klagen over lage snelheden via Samba van/naar hun linux server: Volgens mij is het SMB protocol oorspronkelijk van Windows, en is dat de reden waarom de SMB performance tussen Windows PC's altijd beter is dan tussen Linux en Windows over SMB.

Misschien is NFS (Network File System) een idee? Volgens mij zit er vanaf Windows 7 ondersteuning voor NFS ingebouwd.

Als ik dit zo lees dan is het zelfs onder Windows een performance verbetering

[ Voor 13% gewijzigd door ThinkPad op 10-02-2013 15:59 ]

Die test geloof ik in geen 100 jaar... 20MB/s halen met SMB en 75MB/s halen met NFS? Dan doe je echt iets verkeerd...

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:08

Compizfox

Bait for wenchmarks

Ik zie zelf ook resultaten die dat tegenspreken inderdaad.

De performance van CIFS (FreeBSD <--> Windows 7) is niet denderend, maar dezelfde 'opstelling' met NFS is qua performance nog slechter.
Ligt aan de implementatie van NFS in Windows 7 denk ik.

Gewoon een heel grote verzameling snoertjes


  • ThinkPad
  • Registratie: Juni 2005
  • Nu online
Hmm dat heb ik niet gezien, dat lijkt mij inderdaad ook nogal ongeloofwaardig :P

Ik dacht dat NFS over het algemeen wel sneller was. Ik zie dat ze in die thread een andere NFS client gebruiken

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:08

Compizfox

Bait for wenchmarks

Tussen 2 Linux/FreeBSD-systemen is NFS sneller ja, want daar is NFS ook een native protocol waar Samba een reverse-engineered implementatie is.

Tussen Linux/FreeBSD en Windows zit je altijd met een minder efficiente implementatie:
- Voor CIFS is Samba niet-native
- Voor NFS is de NFS for Windows client niet-native

Blijkbaar is Samba (als server) een betere implementatie van CIFS dan NFS voor Windows (client) dat is voor NFS.

Tests met Windows als CIFS-server en smbclient heb ik nog nooit gedaan eigenlijk.

Gewoon een heel grote verzameling snoertjes


  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

Vergeet ook niet dat sinds windows fietstas de nieuwere ('microsoft-only') SMB-implementaties worden gebruikt, bijv. SMB 2.0, die veel efficiënter zijn dan SMB 1, maar waarvoor voor zover ik weet niemand support heeft ingebouwd in de bekende linux/BSD-distro's. Het is hier in mijn thuisnetwerk goed merkbaar: met SMB (windows xp->7) kan ik mijn gigabit netwerk niet voltrekken, onder SMB2 met groot gemak.

Edit: Samba implementeert dus wel SMB 2.0 en 2.1, wat verklaart waarom je daar betere snelheden ziet :)

[ Voor 11% gewijzigd door mux op 10-02-2013 16:36 ]


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ik haal nu 50MB/s tussen mijn Linux Server en mijn ZFSGuru Server met samba, (schrijven naar ZFS)

ik had toch 80MB/s verwacht. misschien toch eens kijken naar NFS ofzo voor mijn bestanden over te zetten

\\ Baloo \\ Mijn iRacing profiel


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
Pantagruel schreef op vrijdag 08 februari 2013 @ 10:55:
[...]

Passthrough mode van de Areca kun je vergeten, ZFS en hardware RAID geeft gedonder (zie mijn problemen met een Arc-1221x, je kunt beter een M1015 op de kop tikken, of een van de andere HBA in t lijstje. Ik hoop voor je dat je de HDD's nog niet hebt aangeschaft, want voor ZFS is het helemaal niet nodig om 'enterprise' disks (TLER ondesteuning) aan te schaffen, werkt prima op consumer disks.

Voor de keuze van RAID levels mbt ZFS geldt dezelfde redenering als bij de hardware controller.
Ik heb de HUA723020ALA641 al aangeschaft. Voor 60 euro p.p (nieuw in de verpakking) kon ik ze gewoon niet laten liggen.

Zit nu alleen met een vraagje:
ga ik mijn arc-1222 weg doen en vervangen voor een M1015 met passthough mode (zodat ik goede ondersteuning heb in ESXi)? Of is dit een stom idee omdat het enterprise disken zijn en kan ik deze toch gewoon beter gebruiken met mijn arc-1222 in bv. radi6. Ga namelijk liever over met ZFS.

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ik had je areca/rdm kwestie eigenlijk al zien voorbij komen, sorry dat ik het nu pas post. Maar je kan met een areca controller wel degelijk de disks doorgeven. Hoe dat moet weet ik niet meer (5 jaar geleden op een 1130) maar het kan zeker.
Passthrough werkt wel, maar is nog steeds onbetrouwbaar icm ZFS. Een Areca kaart gooit namelijk nog steeds een disk op Offline als hij wat lang bezig is met bijvoorbeeld het proberen te herstellen van een bad sector. Ik geloof dat CiPHER zelf ooit met Areca begonnen is.

Even niets...


  • analog_
  • Registratie: Januari 2004
  • Niet online
FireDrunk schreef op zondag 10 februari 2013 @ 19:56:
Passthrough werkt wel, maar is nog steeds onbetrouwbaar icm ZFS. Een Areca kaart gooit namelijk nog steeds een disk op Offline als hij wat lang bezig is met bijvoorbeeld het proberen te herstellen van een bad sector. Ik geloof dat CiPHER zelf ooit met Areca begonnen is.
Aha, okay. Volledig eens, echter is dit nog een valide argument als hij aangeeft toch TLER schijven te hebben? Ik heb het dan dus specifiek over TLER schijven + areca + passtrough + ZFS. Ik weet dat dit zeer specifiek is maar ik denk dat dit elkaar 'offset'.

hrmbl. logisch nadenken leert me enkel dat het waarschijnlijk meer rebuilds oplevert die potentieel niet nodig waren .oO
edit Ik neem dit terug, dit was zeer waarschijnlijk te kort door de bocht.

[ Voor 13% gewijzigd door analog_ op 10-02-2013 20:23 ]


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
FireDrunk schreef op zondag 10 februari 2013 @ 19:56:
Passthrough werkt wel, maar is nog steeds onbetrouwbaar icm ZFS. Een Areca kaart gooit namelijk nog steeds een disk op Offline als hij wat lang bezig is met bijvoorbeeld het proberen te herstellen van een bad sector. Ik geloof dat CiPHER zelf ooit met Areca begonnen is.
De configuratie moet natuurlijk wel stabiel zijn. Wil liever geen gezeur met mijn data. Denk dat ik dan maar voor de optie met een M1015 card ga.

Heb eigenlijk alleen nog geen antwoord op de vraag: of het kwaad kan om de enterprise disken met CCTL (Hitachi/Samsung), ERC (Seagate) of TLER (WD) ondersteuning op een moederboard of M1015 aan te sluiten? Zou beetje jammer zijn als ik hierdoor alsnog problemen krijg.

Edit:
Lees op meerdere sites verschillende dingen over het gebruik van CCTL/ERC/TLER met ZFS. Zie door de bomen het bos niet meer :?

[ Voor 8% gewijzigd door Neptunus op 10-02-2013 21:28 ]

Zelfs me TLER schijven moet ZFS het device uit je array flikkeren, en niet je Areca kaart. Maar inderdaad, het is al iets beter. Maar nog steeds niet 100%.

Schijven met TLER ondersteuning op een M1015 aansluiten kan geen kwaad, je verliest alleen potentieel iets eerder je data omdat TLER ingrijpt terwijl de sector met meer effort misschien wel te recoveren was. Als je dus ZFS draait met genoeg redundancy (RAID-Z of RAID-Z2) dan kan je dat prima opvangen.

Even niets...


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
ServeRAID M1015 SAS/SATA

Specifications
  • Eight internal 6 Gbps SAS/SATA ports
  • Supports SAS and SATA drives (but not in the same RAID volume)
  • Two Mini-SAS internal connectors (SFF-8087)
  • 6 Gbps throughput per port
  • LSI SAS2008 6 Gbps RAID on Chip (ROC) controller
  • x8 PCI Express 2.0 host interface
  • Supports RAID levels 0, 1, 10 (RAID levels 5 and 50 with optional ServeRAID M1000 Series Advanced Feature Key)
  • Connects to up to 16 SAS or SATA drives
  • Supports up to 16 logical volumes
  • Supports LUN sizes up to 64 TB
  • Configurable stripe size up to 64 KB
  • Compliant with Disk Data Format (DDF) configuration on disk (COD)
  • S.M.A.R.T. support
Heb ik nu een foutje ondenkt of snap ik het domweg nog niet?
• Connects to up to 16 SAS or SATA drives
Dit kan toch helemaal niet met
• Two Mini-SAS internal connectors (SFF-8087)
??

Verwijderd

Dt is als je SAS expanders gebruikt waarschijnlijk. De SuperMicro USAS2L8e bijvoorbeeld is ook 2 keer Mini-SAS en dus voor 8 schijven, maar die kan tot 128 schijven aansturen via SAS Expanders. Het is dus een bovengrens en ik beschouw dat gewoon als 8-disk controllers.

@FireDrunk: ZFS detached op zich geen schijven en je besturingssysteem zou dat ook niet mogen doen. Elke keer een timeout en reset, dat wel. Uiteindelijk kan ZFS ervoor kiezen een opslagapparaat niet meer te gebruiken. Het apparaat blijft dan wel bestaan/aanwezig maar wordt niet gebruikt om van te lezen. Het heeft dan de status 'too many errors'. Grappig is dat in dit soort omstandigheden, ZFS wel blijft schrijven naar het apparaat. Elke write die eigenlijk naar de schijf had gemoeten, wordt ook verstuurd. In gevallen dat de al deze writes mislukt krijg je dan een heel hoog getal (2.13M) als write errors in de zpool status output.

Zowel je OS als ZFS zouden nooit een schijf mogen detachen in die zin dat de schijf onzichtbaar wordt.

En Neptunus: of je TLER hebt ja of nee maakt niets uit totdat je een bad sector tegenkomt. Als je een ZFS pool hebt mét redundancy (een RAID-Z met alle schijven aanwezig) dan maakt het eigenlijk niets uit. Het gaat pas wat uitmaken als je bijvoorbeeld een degraded RAID-Z hebt dus geen redundancy meer, maar je hebt wel een bad sector. Dan wil je dat je schijf de tijd kan nemen deze proberen te recoveren, omdat dit je last line of defense is, die je niet zomaar de nek om wilt draaien door gebruik van TLER. TLER wil je dus alleen als je het nodig hebt, zoals op hardware RAID, maar schakel je uit in de meeste situaties dat je het niet nodig hebt, zoals dus ZFS.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Kan iemand me vertellen of midnight commander standaard op ZFSguru te draaien is ?
Zo ja, hoe installeer ik dat ?

Ik heb bij de services gekeken, maar zie het daar niet,dus het zal wel los geinstalleerd,moeten worden.

Ik heb nu een smb mount op mijn zfsguru server naar mijn unraid server gemaakt, dan kan ik direct data overcopieren dacht ik (doe het nu via mijn pc, maar dat is een omweg natuurlijk)
Nu moet ik dan directorys gaan copieren, en met midnight commander is het wat makkelijker dan via het cp commando dacht ik..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • analog_
  • Registratie: Januari 2004
  • Niet online
Er is een LSI met 16 poorten op basis van de 2008 chipset (zoals m1015, 9211). Je komt em echter niet zo vaak tegen.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
jacovn schreef op maandag 11 februari 2013 @ 17:30:
Kan iemand me vertellen of midnight commander standaard op ZFSguru te draaien is ?
Zo ja, hoe installeer ik dat ?

Ik heb bij de services gekeken, maar zie het daar niet,dus het zal wel los geinstalleerd,moeten worden.
Ah, er zijn nog zoveel mensen die echte schoonheid van ZFSguru mogen ontdekken. :) Je moet even met SSH aan de gang, na het inloggen:
code:
1
2
3
[s]#  portsnap fetch extract[/s]
#  cd /usr/ports/misc/mc
#  make install clean

Het eerste commando heb ik toegevoegd omdat je vast nog niet eerder met ports heb gespeeld.
Nu moet ik dan directorys gaan copieren, en met midnight commander is het wat makkelijker dan via het cp commando dacht ik..
Afhankelijk van of het éénmalig is zou je ook kunnen overwegen om rsync te pakken. Daarmee kun je makkelijk machines gelijk houden.

edit:....correctie van de make config |:( En zie de opmerking hieronder van CiPHER voor de ports extract thingy...

[ Voor 20% gewijzigd door Dadona op 11-02-2013 19:43 ]

De CSL/OT kroeg !


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Het is niet eenmalig, ik moet een 6tal 4tb hdd's overzetten van een unraid server naar zfsguru.
Ik wil ze per hdd mappen, en dan met een copy opdracht over zetten.
Als dat klaar is moet de rest ook nog een keer. Maar daarna niet weer veel dat in 1 keer.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Met eenmalig doelde ik op een eenmalige kopieer actie actie van een specifieke map. Wat jij dus gaat doen is eenmalig. Dus een cp kan dan werken (desnoods gooi je erna er nog een rsync overheen).
Maar het zou ook kunnen dat je een tweede systeem ernaast laat staan en dat je meerdere keren dezelfde map naar de ZFS opstelling wil kopiëren met als intentie om ze synchroon te houden.

De CSL/OT kroeg !


Verwijderd

Ik raad niet aan dat je met portsnap de portstree downloadt; omdat deze dan afwijkt van hoe de services zijn gecompileerd. Het beste kun je de iets oudere portstree. Die installeer je via de web-interface op Services->Install->ZFSguru->FreeBSD portstree. Dan heb je dezelfde portstree als de services mee zijn gecompileerd en dat werkt over het algemeen het beste.

Heel quick and dirty kun je mc ook toevoegen met: pkg_add -r mc
Maar via ports installeren is wel netter.

En inderdaad, rsync kan beter geschikt zijn (in elk geval als test achteraf) vanwege de checksums. Weet wel dat met checksums bestanden syncen met rsync wel een hele lange tijd kost; zowel server als client moeten dan eerst alle files lezen om zelf checksums te maken. rsync gebruikt niet de checksums van ZFS.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Ah, ik verkeerde in de veronderstelling dat de fetch extract daadwerkelijk bezig ging met de versie van ZFSguru. En ik maar braaf afblijven van 'portsnap fetch update', denkende dat ik helemaal goed bezig was. Staat genoteerd. :)

[ Voor 4% gewijzigd door Dadona op 11-02-2013 19:23 ]

De CSL/OT kroeg !


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Die install via het het menu hoeft toch niet 30+ minuten te duren ?
Ik zie wel data staan, onder andere mc. Als ik make config doe, kan ik standaard opties aangevinkt laten, en op ok drukken, maar dan gebeurd er niets zo te zien.
Zal wel te maken hebben dat die ports nog steeds niet geinstalleerd zijn.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Je kunt opzich wel portstree updaten, maar dan moet je eerst alle services installeren die je wilt installeren, zodat je daar geen conflicten mee krijgt. Pas daarna zelf kloten met ports updaten naar nieuwe versie en daarna geen ZFSguru services meer installeren.

Met portupgrade (/usr/ports/ports-mgmt/portupgrade) of portmaster kun je vrij eenvoudig je geïsntalleerde packages updaten naar de huidige versie in de portstree die actief is in /usr/ports. Om te zien wat voor packages je kúnt updaten, kun je dit command uitvoeren:

pkg_version -vL =

Dit geeft alleen packages weer die geupdate kunnen worden, zoals:
code:
1
lua-5.1.4_6                         <   needs updating (port has 5.1.5_5)


Je doet dan een simpele 'portupgrade lua' om die te upgraden, mits je portupgrade geïnstalleerd hebt.

@jaconv: 'make config' laat alleen de opties zien. 'make install clean' is om hem te installeren.
@Dadona: uiteraard ;)
Je kunt om een port te vinden bijvoorbeeld doen: whereis mc

[ Voor 15% gewijzigd door Verwijderd op 11-02-2013 19:47 ]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Ook nog iets op te merken over het tweede commando? :+

De CSL/OT kroeg !


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Allemaal dependicys van andere modules. Ik leek gmake nodig te hebben, dat maar geinstalleerd, maar er wordt nog steeds geklaagd over versies:

Stop in /usr/ports/ devel/gmake .
*** [built-depends] error code 1

Stop in/usr/ports/misc/mc.
*** [ install] error code 1

Dit wordt niet echt simpel gemaakt voor een freebsd beginner zo.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Dat is waarschijnlijk omdat je dus de verkeerde ports tree hebt. die moet je dus NIET updaten... en ook niet via portsnap binnenhalen.

Enige dat goed werkt is de versie in de ZFSguru services.

Heb je al geupdate, dan heb je een probleem... (persoonlijk vind ik dat de portsnap utility er gewoon uit moet, maar dat terzijde...)

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Ik heb geinstalleerd: services -install - zfsguru - freebsd portstree

Als ik dan kijk wat geinstalleerd lijkt tE zijn: services - manage - freebsd portstree - system version 9.1-005

Dat is ook de versie van freebsd/zfsguru die draait.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Hmm, dat zou goed moeten gaan... Geen Portsnap of iets uitgevoerd?

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21-12 22:20
Nee, alleen die normale install.
Ik zal morgen de log files gaan doorleze waar precies over geklaagd wordt, wellicht is het dan duidelijk waar de issues zitten.
Eerst weer 2.2 tb copy via de pc gestart, die moet 10 uur draaien of zo, morgen weer een dag.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Oké, met het risico om opnieuw af te gaan... Installeer eens 'screen':
code:
1
2
3
cd /usr/ports/sysutils/screen
make
make install

Vervolgens kun je met 'screen -S een_naam_geven' een screen starten. Daarin kun je een 'cp' commando uitvoeren. Kies voor 'ctrl+a' en dan 'd' om de screen te verlaten. Als je daarna 'screen -r een_naam_geven' kiest kom je weer terug en zie je dat het 'cp' commando nog altijd loopt.

De CSL/OT kroeg !


Verwijderd

Leren van andere mensen is niet 'afgaan' hoor, ik heb ook geleerd door middel van trial-and-error. Screen is inderdaad heel nuttig. Maar je hebt het niet persé nodig. Je kunt ook tijdens dat een cp commando draait op control-T drukken op status-update te krijgen.

Maar vooral handig is control-Z waarmee je het commando op pauze zet en terug naar de shell terugkeert. Je kunt dan vervolgens bg typen om het commando weer te laten draaien maar dan op de achtergrond. Met fg keer je weer terug naar het commando/proces. Met jobs zie je welke taken in de achtergrond draaien.

Dit is natuurlijk wel off-topic. Toch denk ik dat deze informatie goed aansluit op de doelgroep in dit topic en waar je zoal tegen kan aanlopen. Maar mocht je nou verder in deze wereld willen duiken, wil ik hier ook graag verwijzen naar de goede documentatie van FreeBSD in allerlei talen: http://www.freebsd.org/doc/nl/books/handbook

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Normaal niet, maar drie commando's en dan dit... Maar goed, ik weet van mijzelf dat ik er sowieso niet super sterk in ben. Voor mij zijn allerlei boeken nog altijd handig, ik heb ook een aantal oldschool boeken. Iets met papier enzo (Absolute FreeBSD door Michael W. Lucas - goed snel geschreven). Het handboek heb ik er zojuist aan toegevoegd. :)
Eigenlijk moet er ook maar eens een mooi BSD topic komen. :)

De CSL/OT kroeg !


  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
Dadona schreef op maandag 11 februari 2013 @ 21:24:
Oké, met het risico om opnieuw af te gaan... Installeer eens 'screen':
code:
1
2
3
cd /usr/ports/sysutils/screen
make
make install

Vervolgens kun je met 'screen -S een_naam_geven' een screen starten. Daarin kun je een 'cp' commando uitvoeren. Kies voor 'ctrl+a' en dan 'd' om de screen te verlaten. Als je daarna 'screen -r een_naam_geven' kiest kom je weer terug en zie je dat het 'cp' commando nog altijd loopt.
Heb je ook al eens naar tmux gekeken? Deze kan windows verticaal en horizontaal splitsen en gebruikt een BSD licentie ;)

Mijn /etc/tmux.conf ziet er zo uit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
set-option -g status-bg blue
set-option -g status-fg white

# Terminal emulator window titles
set -g set-titles on
set -g set-titles-string "#T"

# Use Ctrl-a instead of Ctrl-b
#unbind C-b
#set -g prefix C-a

#urxvt tab like window switching (-n: no prior escape seq)
bind -n S-down new-window
bind -n S-left prev
bind -n S-right next
#bind -n C-left swap-window -t -1
#bind -n C-right swap-window -t +1

# Use Ctrl-h and Ctrl-v to split a window into two panes
bind -n C-h split-window -h
bind -n C-v split-window -v

# Detach with Ctrl+j
bind-key -n C-j detach

# Start window numbering at 1
set -g base-index 1

setw -g aggressive-resize on

# Highlight active window
set-window-option -g window-status-current-bg red


Met Shift+down maak je een nieuw window, met Shift+left en Shift+right schakel je tussen windows, met Ctrl+v en Ctrl+h splits je een window in 2 panes en met Ctrl+j detach je tmux. (In een terminal typ je dan "tmux attach" om weer te attachen) Met Ctrl+d sluit je een pane of window en met Ctrl+b o kun je schakelen tussen panes.

  • sloth
  • Registratie: Januari 2010
  • Niet online
Heeft iemand benchmarks van een RAIDZ met WDC Red drives?
Meer bepaald 4 3TB WDC Red's in RAIDZ zou ik erg interessant vinden :)
Pagina: 1 ... 120 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.