Acties:
  • 0 Henk 'm!

  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 22-01 21:17
om even terug te komen op smart tools.
ter documentatie om je disks te checken:

open een terminal in openindiana of ssh..

code:
1
smartctl -a /dev/rdsk/DISKID


DISKID haal je uit je zpool status c3etc..

NAME STATE READ WRITE CKSUM
WAREHOUSE ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c3t2d0p0 ONLINE 0 0 0
c3t0d0p0 ONLINE 0 0 0
c3t1d0p0 ONLINE 0 0 0
c3t3d0s2 ONLINE 0 0 0

:)

je ziet dan ook gelijk serienummers van je schijven. die laat hij bij mij niet zien namelijk met m'n hba

[ Voor 9% gewijzigd door DARKLORD op 25-05-2011 21:55 ]


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
@ DARKLORD
Thx, handige info :).


Hmm ik moet toch eens ff wat meer documentatie doorlezen wanneer ik een nieuw OS gebruik, ik zag vandaag dat de /tmp folder standaard in een dynamische ramdisk zit bij solaris. 8.5GB standaard toekennen aan /tmp in het ram is toch wel vrij veel :P.
Wel handig om uit /tmp te benchen trouwens >:)

Voor mensen wie het een beetje willen tunen:
http://wikis.sun.com/disp...M+disks+in+the+Solaris+OS

Acties:
  • 0 Henk 'm!

  • YaNightmare
  • Registratie: Augustus 2006
  • Laatst online: 15:12
Even een update, lange dag gister dus helaas niet zo ver gekomen als dat ik wou met het opzetten van de server :(

Ik heb wel het baseOS werken en mijn uiteindelijke pool, ik ben nu alleen een beetje aan het kijken naar tests om te zien of alles werkt zoals het moet, ik zie dat er geschreven word naar de L2ARC en naar de SLOG als ik een write test doe, echter gister was ik met dd in de weer en dit resulteerde erin dat zolang hij aan het writen is mijn systeem amper reageerd :S

in andere woorden, met een dd naar mijn zpool van 20Gb (bs =1M) kan ik niet tegelijkertijd inloggen met SSH, ook word de data in batches weggeschreven lijkt wel (lijkt mij ok).

Heeft iemand hier een command voor iozone of iets anders wat misschien een betere test is ? ik heb al een paar kleine dingen gedaan, maar ik heb graag een command van iemand hier op het forum welke hij/zij ook heeft gebruikt zodat ik kan vergelijken of de resultaten een beetje ok zijn en in lijn met andere mensen hier.

Ter info:
pool: tank
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1 ONLINE 0 0 0
ad6 ONLINE 0 0 0
ad8 ONLINE 0 0 0
ad10 ONLINE 0 0 0
ad12 ONLINE 0 0 0
ad14 ONLINE 0 0 0
logs
ad4p4 ONLINE 0 0 0
cache
ad4p3 ONLINE 0 0 0

errors: No known data errors

pool: zroot
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
gptid/562f0694-86dd-11e0-bb65-20cf30c13295 ONLINE 0 0 0

errors: No known data errors


PS, ad4p1&p2 = zroot (eigenlijk p2, p1 = boot).
ik denk dat misschien het vele dataverkeer ervoor zorgt dat mijn OS wat traag word gezien de cache en log op dezelfde SSD staan als het OS.

DD test van 20 Gb = ~220MB/s write

[ Voor 5% gewijzigd door YaNightmare op 26-05-2011 10:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je draait in IDE mode, niet in AHCI mode. Heb je ahci_load="YES" in je /boot/loader.conf ?

Acties:
  • 0 Henk 'm!

  • YaNightmare
  • Registratie: Augustus 2006
  • Laatst online: 15:12
Zucht, nee, staat daar niet in, kan ik het gewoon toevoegen en rebooten zonder dat de boel over de miep gaat ?

EDIT:
Stomme vraag, ad -> ada dus dat word feest, tips om de pool weer goed te krijgen ? misschien een paar handige "to know" commands ?

gok dat / wel goed gaat omdat die via een ID geladen word

[ Voor 47% gewijzigd door YaNightmare op 26-05-2011 18:56 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Als in je fstab geen device nodes staan, zoals ik altijd aanraad, heb je daar geen problemen mee. Ipv GPTID zou ik altijd de GPT naam gebruiken, zo'n ID is minder fijn dan een naam als "systeemdisk". Dat is nu juist waarom GPT zo tof is.

Acties:
  • 0 Henk 'm!

  • YaNightmare
  • Registratie: Augustus 2006
  • Laatst online: 15:12
mijn fstab is leeg verder.

dus ik moet labels aanmaken voor de ad disks, kan ik dan de zpool weer importeren oid of moet ik hem destroyen en opnieuw aanmaken ? (hopelijk niet, staat inmiddels al weer 500gb aan data op).

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
In jouw geval zou ik het even zo laten, achteraf de GPT partitie aanpassen is gevaarlijk voor de bestaande data. Heb je dat ahci al geprobeerd? Dat is namelijk veel belangrijker, voor de performance in elk geval. :)

Acties:
  • 0 Henk 'm!

  • YaNightmare
  • Registratie: Augustus 2006
  • Laatst online: 15:12
nog niet, ga hem nu toevoegen en rebooten ... :) fingers crossed

PS, ik heb gezocht maar kon nergens vinden hoe ik die mooie labels kon aanmaken (jij had het over dev/gpt/labelnaam

ik zie oa tunefs en glabel, maar die zijn volgens mij niet voor zfs partities, gpart heb ik labels ingegeven maar die zie ik achteraf niet terug ...


EDIT:
Pfew .... das allemaal goed gegaan:

pool: tank
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
logs
gptid/547ba226-8709-11e0-bc82-20cf30c13295 ONLINE 0 0 0
cache
gptid/2bd3dfba-8709-11e0-bc82-20cf30c13295 ONLINE 0 0 0

errors: No known data errors

pool: zroot
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
ada0p2 ONLINE 0 0 0

errors: No known data errors

[ Voor 65% gewijzigd door YaNightmare op 26-05-2011 19:15 ]


Acties:
  • 0 Henk 'm!

  • MadMike261
  • Registratie: Januari 2011
  • Laatst online: 25-11-2021
raymonvdm schreef op woensdag 25 mei 2011 @ 13:19:
[...]


Gewenste os is ESXi 4 en er zijn meer mensen met deze setup dacht ik gezien te hebben. >:)
Klopt, lijkt erg op wat onder andere ik heb.
Je moet je alleen wel goed bewust zijn dat nic niet word ondersteund door ESXi. Ik was het vergeten en moest toen weer paar dagen wachten erop 8)7
Persoonlijk heb ik een intel pcie (weet zo even niet meer welke). Deze wel even goed kijken op hardware ondersteuning!
In pricewatch zijn er een aantal, maar ik d8 (weet niet zeker) dat ze niet allemaal werden ondersteund.

Bij mij was het bouwen, esxi cd erin, vloeken, nic bestellen, nic erin en gaan.
Hij doorloopt de install niet goed zonder nic en kapt hem af.

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik heb vandaag nog 4 x 2TB F4 gekocht wat het totaal op 6 brengt. Wat dat betreft ben ik dus klaar voor een ZFS setup. Echter heb ik niet genoeg SATA poorten om alle 6 de disken op kwijt te kunnen. Ik moet dus nog even klooien met mn LSI/Promise sata hba om te zien of dat gaat werken onder ESXi.

De promise ziet maar een disk in ESXi
De LSI laat laat ESXi hangen bij het booten. (is hier ook non-raid software voor?)

Als ik dan later weer geld heb kunnen we cpu/mem/mb/kast/voeding vervangen om een i5 processor ESXi machine te maken.

[ Voor 14% gewijzigd door raymonvdm op 27-05-2011 01:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Overweeg een Intel SASUC8i of SASUC4i met IT-mode firmware. Of gewoon een nieuw mobo met 6 volwaardige SATA/600 poorten. Alle nieuwe chipsets hebben 6x SATA.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Het is zover, de website van ZFSGuru is ermee gestopt zonder dat de ontwikkelaar in zicht is. Omdat nu een aantal pagina's in de admin pagina's van gebruikers van ZFSGuru niet meer bereikbaar zijn (die zoeken contact met zfsguru.com) moet je iets aanpassen om daar weer bij te kunnen.
De instructies staan hier.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 11-09 22:16
Ik keek regelmatig of de ZFSguru dev weer iets van zich liet horen en merkte gister ook dat de site offline is.

Net nu ik van plan was om morgen te beginnen met een upgrade van mijn NAS met ZFSguru.
Tenminste, als mijn schijven vandaag of morgen nog arriveren. :(

Ik hoop dat de community de ontwikkeling oppakt, want het was een mooi project.

Acties:
  • 0 Henk 'm!
Je dacht er toch niet serieus over om zo'n verlaten en onafgemaakt project in te zetten zonder te kijken of het doorontwikkeld werd :P lijkt me niet verstandig :D

Even niets...


Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 11-09 22:16
Het gaat mij om FreeBSD. Dit OS heeft in mijn ogen toch een aantal voordelen t.o.v. Openindiana, Nexenta, etc.
De webinterface van ZFSguru maakt de installatie wel een stuk makkelijker, omdat ik van plan ben het OS root-on-ZFS te intalleren.

Maar zolang mijn schijven niet binnen zijn kan ik ook niets uitproberen.
Heb ze drie dagen geleden besteld en heeft al twee dagen de status:
'Uw opdracht bevindt zich in de verzendafdeling' 8)7

Dit wordt mijn configuratie:
#ProductPrijsSubtotaal
1Asrock SATA3 Card€ 14,50€ 14,50
1Intel Gigabit CT Desktop Adapter€ 22,78€ 22,78
6Samsung EcoGreen F4EG HD204UI, 2TB€ 60,-€ 360,-
1Samsung SpinPoint T166 HD403LJ, 400GB€ 0,-€ 0,-
1Lancool PC-K58 Zwart€ 64,90€ 64,90
2Kingston HyperX KHX6400D2K2/4G€ 58,74€ 117,48
1Gigabyte GA-MA78GM-S2H€ 0,-€ 0,-
1AMD Athlon X2 4450e€ 0,-€ 0,-
1Lian Li EX-332N€ 20,28€ 20,28

Ik wacht alleen nog op vier van de zes 2TB schijven. Dan kan ik gaan stoeien/testen met FreeBSD en ZFS.
Nog een vraag: wat kan ik het beste allemaal testen voordat er echte data op gaat?

[ Voor 86% gewijzigd door Kriss1981 op 27-05-2011 14:29 ]


Acties:
  • 0 Henk 'm!

  • leuk_he
  • Registratie: Augustus 2000
  • Laatst online: 15-07 15:35

leuk_he

1. Controleer de kabel!

Kriss27 schreef op vrijdag 27 mei 2011 @ 14:19:

Nog een vraag: wat kan ik het beste allemaal testen voordat er echte data op gaat?
Aangenomen dat je toch nog een backup hebt (?!) is niks zo'n goede benchmakr dan je echte data erop.

Aangezien je zraid draait lijkt het met wel handig dat je identificeerd wat er gebeurd als er een schijf sneuvelt.

Trek een schijf los (als hij uit staat.... je hoeft de goeden niet te verzoeken), kijk of je een mailtje krijgt en of je in de gui kunt vast stellen welke schijf gefaald is. (niets is dodelijker dan niet kunnen vaststellen welke schijf gefaald is.... Zelfde verhaal met bootdisk, als je die loshaalt, kun jij nog bij je data komen? (en weet je hoe...)

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Inmiddels is de zfsguru pagina weer in de lucht net als de persoonlijke pagina van sub.mesa.
echter nog steeds geen bericht van Jason zelf.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Hoop dat er snel duidelijkheid komt over ZFSguru; zou mooi zijn als dat project wordt doorontwikkeld, als alternatief voor FreeNAS waar de nodige nadelen aan kleven. Aangezien ZFSguru op normaal FreeBSD is gebaseerd ben je denk ik wel minder afhankelijk van de verdere ontwikkeling, zeker als je het prima vindt om met de shell te werken. Maargoed die web-interface is ook nog lang niet af, dus ik hoop dat het niet einde verhaal is.

Acties:
  • 0 Henk 'm!
FreeNAS zou toch bij FreeNAS 9 toch weer met een Full install komen? Dan heb je die nadelen niet echt meer...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ben benieuwd; tot nu toe vind ik FreeNAS 8 niet super veel verbeterd. Het is in feite incompatible met FreeBSD. Als ze dat veranderen lijkt me dat een grote aanwinst. Echter als FreeNAS 9 duidt op FreeBSD 9.x dan kan dat nog tot september duren; er is nog geen RELENG_9 branch gemaakt dus 9.0 zal pas op zijn vroegst in de nazomer/herft komen. Misschien zelfs wel later.

Zelf kijk ik erg uit naar de dag dat ZFS v28 naar RELENG_8 report wordt, dan heb je 8-STABLE met ZFS v28 als stabiel en bruikbaar platform. 9.0 zitten nu nog wel wat probleempjes in, laatst nog compileerde het geeneens. :(

Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Tussen Freenas 8 en Freenas 9 moeten nog meerdere versies uitkomen.
Het is de bedoeling om uiteindelijk ongeveer gelijk te lopen met FreeBSD qua development.
Men wil echter voor Freenas een beperkte FreeBSD omgeving blijven gebruiken maar dus wel met ondersteuning voor third party PBI packages, het ondersteunen van de PBI packages heeft erg hoge prioriteit.

Inmiddels is er ook een nieuw forum gelanceerd, al met al is het niet heel erg slecht wat IX systems inmiddels heeft bereikt echter ben ik wel van mening dat FreeNas 8.0 release niet de titel stabiel verdient.
Op de roadmap wordt echter geen melding gemaakt van plannen om een beter ZFS platform te bieden met bijvoorbeeld ZFS on root, maar we zullen aan het einde van de zomer wel zien hoe het met FreeBSD, FreeNAS en ZFS staat.

Op het moment dat ZFS v28 voor FreeBSD 8.x beschikbaar is ga ik ook de switch maken vanaf Open Indiana want ik vind persoonlijk de Open Indiana community te klein, het vinden van informatie is soms lastig.

[ Voor 27% gewijzigd door dutch_warrior op 27-05-2011 22:56 ]


Acties:
  • 0 Henk 'm!

  • RedHead
  • Registratie: Februari 2001
  • Laatst online: 02-09 23:59
Obscurax schreef op woensdag 25 mei 2011 @ 10:37:
Ik heb ook 2 afzonderlijke machines, vind het makkelijker op te zetten en scheelt toch in kosten tov een deftige ESXi server. Ik moet nog even het stroomverbruik meten, dat zal nog meevallen denk ik aangezien de onderdelen toch wat energievriendelijk zijn.

Puur NAS:
OpenIndiana 148 + napp-it

Intel Xeon L3406
Supermicro X8SIL-F
Kingston KVR1333D3E9SK2/8G
Hitachi Deskstar 5K3000 2TB x6 (raidz2)
WD Scorpio Blue WD1600BEVT x2 (boot mirror)
Intel SASUC8I
Corsair VX450
en aan het wachten op Norco RPC-3216

<cut>
Ben erg nieuwsgierig naar het stroom verbruik van de puur NAS doos.

Deze setup is natuurlijk ook goed voor de Napp-it All-in-One
http://www.napp-it.org/doc/downloads/all-in-one.pdf

Heb je setup al? Kan je al wat meten?

Acties:
  • 0 Henk 'm!

  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

Idle verbruikt die +- 40 watt na spindown van de disks.
Met alle disks up +- 60 watt. Piek verbruik moet ik nog meten.
(zonder fans)

De kast is vroeger dan verwacht binnegekomen :D, daarnet even alles gemonteerd.
Man wat een herrie maakt die kast haha, ik kan hem horen in de kamer ernaast met de deur dicht.

Dan maar alle fans losgekoppeld en de case open laten staan tot de nieuwe er zijn.
Dit is in bestelling:
Nexus 80mm PWM Real Silent Case Fan SP802512H-03PWM x4
Scythe mini-KAZE 60mm SY602012L x2

En zo blijven we bezig :), tijd voor bier

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
80mm fans zou ik proberen te vermijden. 120mm fans zijn veel beter, bijvoorbeeld de Gentle Typhoon is erg goed:
pricewatch: Scythe Gentle Typhoon D1225C12B1AP-11, 120mm

60mm en 40mm fans zijn vrijwel altijd zeer luidruchtig; die draaien echt niet op 900rpm!

[ Voor 14% gewijzigd door Verwijderd op 28-05-2011 21:36 ]


Acties:
  • 0 Henk 'm!

Verwijderd

na wat gespeeld te hebben met oa freenas vanmiddag weer openindiana erop gezet.
en er gebeuren ineens allemaal vreemde dingen.. enfin, er is iets met de disks partities en ik weet er te weinig van om dat ff op te lossen.
ik had een poging gedaan om de disks te labelen.. zal wel verkeerd gegaan zijn ergens.

ik zie nu dit :

AVAILABLE DISK SELECTIONS:
0. c1t0d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@0,0
1. c1t1d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@1,0
2. c1t2d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@2,0
3. c1t3d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@3,0
4. c1t4d0 <ATA-SAMSUNGHD204UI-0001 cyl 60797 alt 2 hd 255 sec 252>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@4,0
5. c1t5d0 <ATA-SAMSUNGHD204UI-0001 cyl 60797 alt 2 hd 255 sec 252>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@5,0
6. c1t6d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@6,0
7. c1t7d0 <ATA-SAMSUNGHD204UI-0001 cyl 60797 alt 2 hd 255 sec 252>
/pci@0,0/pci8086,41@1/pci1000,3140@0/sd@7,0
8. c3d0 <ð¦äþäþÀ(Hãþ®8À
äþð¦äþäþàH0"ãþõ cyl 3889 alt 2 hd 255 sec 63>
/pci@0,0/pci-ide@1f,5/ide@0/cmdk@0,0
9. c4d0 <drive type unknown>
/pci@0,0/pci-ide@1f,5/ide@1/cmdk@0,0
Specify disk (enter its number): 0

disk 4 / 5 en 7 daar klopt iets niet zo te zien (en disk 8 is de rpool met een hele vreemde naam.)

hoe verwijder ik alle shit en zet eea 'terug naar af :?

Acties:
  • 0 Henk 'm!

  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

Verwijderd schreef op zaterdag 28 mei 2011 @ 21:35:
80mm fans zou ik proberen te vermijden. 120mm fans zijn veel beter, bijvoorbeeld de Gentle Typhoon is erg goed:
pricewatch: Scythe Gentle Typhoon D1225C12B1AP-11, 120mm

60mm en 40mm fans zijn vrijwel altijd zeer luidruchtig; die draaien echt niet op 900rpm!
Maar 120mm fans passen niet op het tussenstuk, en er is slechts plaats voor 60mm fans achteraan.
Anders had ik zeker 120mm fans gebruikt.

Volkomen stil hoeft het niet te zijn, het staat niet in een leefruimte maar ik wil de buren niet lastigvallen :+

[ Voor 71% gewijzigd door Obscurax op 28-05-2011 21:39 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Obscurax schreef op zaterdag 28 mei 2011 @ 21:26:
Idle verbruikt die +- 40 watt na spindown van de disks.
Met alle disks up +- 60 watt. Piek verbruik moet ik nog meten.
(zonder fans)

, tijd voor bier
netjes..
dus hij (rpc-3216) maakt standaard idd behoorlijk lawaai.. dan kloppen de verhalen wel.

[ Voor 12% gewijzigd door Verwijderd op 28-05-2011 21:39 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@borroz: weet je zeker dat je kabels goed zitten? Kun je met SMART de UDMA CRC Error Count controleren? Allemaal 0? Anders kan dit door foutieve kabels komen. Ongeacht de inhoud van de disks (inclusief labeling) zou de detectie van de schijf zelf niet beïnvloed mogen worden.

@obscurax: besef ook dat high-rpm fans best veel energie kunnen trekken. Zo gebruikt een klein lullig 60mm fannetje al gauw 1,7 watt; de helft van een Samsung F4 2TB schijf:
http://www.endpcnoise.com/e/images/60_mm_fan.jpg

[ Voor 29% gewijzigd door Verwijderd op 28-05-2011 21:43 ]


Acties:
  • 0 Henk 'm!

  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

Verwijderd schreef op zaterdag 28 mei 2011 @ 21:39:
[...]


netjes..
dus hij (rpc-3216) maakt standaard idd behoorlijk lawaai.. dan kloppen de verhalen wel.
Ja luider dan mijn stofzuiger :(

@ cipher

Ja dat besef ik. Maar het zal zeker beter zijn dan de standaardfans!
de 60mm's: 19,99 dB(A) @ 2500 rpm, 0,84 Watt
de 80mm': 16.2 dB(A) @ 1000 RPM, 2.04W

Is toch al +-10 Watt extra :'(

[ Voor 28% gewijzigd door Obscurax op 28-05-2011 21:55 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Daarom dat ik zo blij ben met mijn 100% fan-less NAS. :)

Maar dan moet je wel enige concessies doen, bijvoorbeeld aan de hoeveelheid hardeschijven en de manier montage. Hardeschijven tegen elkaar aan zetten is niet te doen.

Echter, heb je al eens geprobeerd alle fans uit te doen en temperaturen te gaan meten?

[ Voor 69% gewijzigd door Verwijderd op 28-05-2011 21:59 ]


Acties:
  • 0 Henk 'm!

  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

Eenmaal er 16 disks inzitten, zal er toch enige koeling vereist zijn veronderstel ik.
Dus ik ben al voorbereid op de toekomst. Nu kan ik eventueel 2 80mm ipv 4 gebruiken.

Nu staan er geen fans aan, maar de kast is open. Temps zijn tussen de 37 en 42 graden.

[ Voor 86% gewijzigd door Obscurax op 28-05-2011 22:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 28 mei 2011 @ 21:58:
Daarom dat ik zo blij ben met mijn 100% fan-less NAS. :)

Maar dan moet je wel enige concessies doen, bijvoorbeeld aan de hoeveelheid hardeschijven en de manier montage. Hardeschijven tegen elkaar aan zetten is niet te doen.

Echter, heb je al eens geprobeerd alle fans uit te doen en temperaturen te gaan meten?
hoe krijg je dat voor elkaar ... alles in een bad olie :9

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
4W disks hoef je niet te koelen als je een centimeter ruimte tussenlaat, constante temperatuur en geen temperatuurverschillen in de hardeschijf zelf (metaal) is de beste omgeving die je je schijven kunt geven. Een ventilator die één kant van de HDD goed koelt maar de andere kant minder goed betekent een imbalans waardoor je een 'twisting force' binnen het metaal krijgt, althans zo heb ik ooit gelezen en ik kan de theorie erachter best goed begrijpen cq. voorstellen.

Chipsets zijn tegenwoordig altijd al passief gekoeld, dan houd je over CPU en voeding. CPU heb ik een 65W quadcore maar met een beest van een koeler die toch meestal idle draait werkt dat prima. Stressed zit ik op 58 graden wat hoog is maar niet te hoog dat ik er problemen van zou krijgen. En 30 minuten stressed komt nooit voor tenzij ik software aan het compileren ben; lekker belangrijk. :P

Dan de voeding, zo'n 400W passief gekoelde voeding werkt voor mij prima. Kan er alleen niet heel veel disks aan koppelen maar voor mij genoeg (10 HDDs + 6 SSDs). Dan nog twee LSI 1068E controllers die ook een passief heatsinkje hebben, maar nauwelijks stroom vreten.

Et voila; een 100% passief gekoelde NAS, zonder echt dure componenten. Alleen de voeding is iets duurder dan een normale; maar ik dacht dat ik hem voor 120 euro had wat ik een prima prijs vind. Ook erg zuinig met tegen de (opgegeven) 90% efficiency.

Acties:
  • 0 Henk 'm!

Verwijderd

* auto topic cleaner :)

[ Voor 124% gewijzigd door Verwijderd op 29-05-2011 12:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
UltraDMA CRC Error Rate 199 0 68 157 00000000028Ch

Dat is dus niet 0, dus je hebt of nu of in het verleden kabelproblemen gehad.

Overigens dit is geen manier om SMART uit te lezen; gebruik gewoon smartmontools. Dat kan gewoon onder Solaris, Linux of BSD hoef je echt niet terug naar DOS voor te gaan. Logisch ook dat die alleen IDE disks ziet en geen SCSI/SAS.

Probeer eens smartmontools onder Solaris aan de praat te krijgen? En dan gewoon met commando:
smartctl -A /dev/...

Dan krijg je alle rotzooi niet te zien maar gewoon de SMART attributes waar het allemaal om draait.

[ Voor 14% gewijzigd door Verwijderd op 28-05-2011 22:29 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Probeer eens smartmontools onder Solaris aan de praat te krijgen? En dan gewoon met commando:
smartctl -A /dev/...

Dan krijg je alle rotzooi niet te zien maar gewoon de SMART attributes waar het allemaal om draait.
en dat is weer niet zo eenvoudig .. ga wel een of ander live cd tje zoeken dat gaat sneller dan iets werkend krijgen onder OI .. :'(

in de bios staat een instelling ' pci latency ' en die staat op 64 .. kan die nog van invloed zijn op de werking van die intelkaart ?

[ Voor 15% gewijzigd door Verwijderd op 28-05-2011 22:50 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
PCI latency timer heeft helemaal niets te maken met SMART of smartmontools. Gaat ook over ouderwets PCI en niet over PCI-express (3GIO). PCI hoor je ook niet op een moderne computer te gebruiken; ouderwetse rommel.

Wat is het probleem met smartmontools onder Solaris gebruiken?
http://cafenate.wordpress...tmontools-on-opensolaris/

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik heb vanavond met succes mn LSI SAS3041E raidcontroller voorzien van een firmware upgrade. Maar hiervoor heb ik een IR Firmware moeten gebruiken omdat het een IR controller zou zijn. Kan ik deze ook omzetten naar IT modus zoals sommige mensen dit gedaan hebben met een Intel 8 poorts ?

Ik wil deze dan gebruiken voor 4 x 2TB Samsung F4 in mn ESxi machine mits ESXi dan wel kan booten... De andere 2 kan ik dan op het moederbord aansluiten

Waarom moet een controller eigenlijk omgezet worden naar een IT firmware zoals bij de Intel SASUCI8i ? Is dit alleen maar om te zorgen dat hij geen raid meer doet?

[ Voor 21% gewijzigd door raymonvdm op 28-05-2011 23:19 ]


Acties:
  • 0 Henk 'm!

  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

@ borroz, werkt dit:
smartctl -a -d scsi -T permissive /dev/rdsk/c1t0d0
c1t0d0 vervangen door drive

Acties:
  • 0 Henk 'm!

Verwijderd

* auto topic cleaner

[ Voor 98% gewijzigd door Verwijderd op 29-05-2011 12:47 ]


Acties:
  • 0 Henk 'm!

  • Splendid
  • Registratie: April 2005
  • Laatst online: 10-09 13:54
Niet helemaal het juiste forum, maar hier zitten nou eenmaal de meeste mensen die Solaris gebruiken.

Ik wil graag een paar services starten bij het starten van mijn server. Hiervoor moet ik een python commando uitvoeren, dit kan prima via de cronjob op en bepaalde tijd. Echter wil ik dat dit altijd wordt uitgevoerd bij het opstarten. Na wat zoeken vond ik @reboot. Echter geeft dit een error zodra ik dit gebruik:

code:
1
2
3
@reboot python /data/server/sickbeard/SickBeard.py 
crontab: error on previous line; unexpected character found in line.
crontab: errors detected in input, no crontab file generated.


Iemand enige idee hoe dit werken te krijgen onder Nexenta (solaris)?

Acties:
  • 0 Henk 'm!
Splendid schreef op zondag 29 mei 2011 @ 12:02:
Niet helemaal het juiste forum, maar hier zitten nou eenmaal de meeste mensen die Solaris gebruiken.

Ik wil graag een paar services starten bij het starten van mijn server. Hiervoor moet ik een python commando uitvoeren, dit kan prima via de cronjob op en bepaalde tijd. Echter wil ik dat dit altijd wordt uitgevoerd bij het opstarten. Na wat zoeken vond ik @reboot. Echter geeft dit een error zodra ik dit gebruik:

code:
1
2
3
@reboot python /data/server/sickbeard/SickBeard.py 
crontab: error on previous line; unexpected character found in line.
crontab: errors detected in input, no crontab file generated.


Iemand enige idee hoe dit werken te krijgen onder Nexenta (solaris)?
Een eigen init scriptje schrijven en deze vervolgens linken in je /etc/rc0.d map voor boot en in je /etc/rc2.d voor shutdown. Let wel op dat je init script een start en stop argument kan gebruiken:

C: /etc/init.d/samba
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
#!/bin/sh

case $1 in

  start)
    /usr/sbin/smbd -D
    /usr/sbin/winbindd -D
    /usr/sbin/nmbd -D
  ;;

  stop)
     pkill smbd
     pkill nmbd
  ;;

  *)
     echo "usage: `basename $0` {start|stop}"
  ;;
esac

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 28 mei 2011 @ 21:41:
@borroz: weet je zeker dat je kabels goed zitten? Kun je met SMART de UDMA CRC Error Count controleren? Allemaal 0? Anders kan dit door foutieve kabels komen. Ongeacht de inhoud van de disks (inclusief labeling) zou de detectie van de schijf zelf niet beïnvloed mogen worden.
* het lijkt er idd op dat 1 kabeltje 'ineens' defect is 8)7
* toch de intel RAID Controller SASUC8I overleden ... aaaaaaaaaaaargh heb ik weer :(


pffffffffff .. alles weer uit elkaar en stukje voor stukje opbouwen en testen .. eindelijk de boosdoener gevonden.. een slecht gesoldeerde stata connector op het mobo. 8)

[ Voor 32% gewijzigd door Verwijderd op 31-05-2011 17:46 ]


Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik heb gisteren toch succesvol mn LSI3041E kunnen flashen van IR naar IT Firmware. Ik heb hem getest op een P6T en daar zie ik in windows gewoon 3 x 2TB aan de controller hangen (ik mis het 4e sata kabeltje |:( ) De bios van de controller werkt niet meer dus ik kan geen arrays meer aanmaken dus dat lijkt me goed.

Ik ga nu op zoek naar een 2e controller of een Intel SAS8i

[ Voor 8% gewijzigd door raymonvdm op 29-05-2011 17:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

raymonvdm schreef op zondag 29 mei 2011 @ 17:45:
Ik heb gisteren toch succesvol mn LSI3041E kunnen flashen van IR naar IT Firmware. Ik heb hem getest op een P6T en daar zie ik in windows gewoon 3 x 2TB aan de controller hangen (ik mis het 4e sata kabeltje |:( ) De bios van de controller werkt niet meer dus ik kan geen arrays meer aanmaken dus dat lijkt me goed.

Ik ga nu op zoek naar een 2e controller of een Intel SAS8i
mooi .. download ff freenas en kijk of je een array aan kan maken zou ik zeggen 8)

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Kleine probleempje in de config het kaartje werkt niet goed voor mn ESXi server i.c.m met een Intel 3000AH server er zijn meer mensen die problemen hebben daarom i.c.m met FreeBSD en een overschot aan hardware drivers. Blijkbaar doet ESXi dit nu dus ook.

Het idee voor nu:

We laten ESXi voor wat het is een bouwen een losse <goedkope> NAS

Wat ik al heb voor de NAS

Intel E2180 processor
LSI 3041E Controller met 4 poorten
6 x 2TB Samsung Spinpoint F4
1 x 60GB laptop diskje

Ik zoek nu dus een bordje + cpu + mem voor ik hoopte 100 euro die ik kan inrichten als ZFS storage omdat ik een moederbord/controller/cpu/geheugen voor de ESXi nog te duur vind.

Is er een best-buy ?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Goedkoop AMD Micro-ATX setup met 8GiB DDR3 ECC lijkt me een redelijke all-round setup. Maar 100 euro gaat natuurlijk niet lukken voor mobo+cpu+koeler+ram. Voor 8GiB DDR3 betaal je al 75 pleuro, maar ECC is vrij goedkoop:
pricewatch: ICIDU Value DDR3,1333-8GB KIT

Dan een mobo+cpu en je zit 140 euro dus ongeveer rond de 200 euro moet nog wel lukken.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
ICIDU geheugen, kies je Kingston geheugen dan is de prijs toch een stukje hoger (net onder de 100 euro). Of begint ICIDU nu toch wel een wat serieuzere speler op de markt te worden?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!
ICIDU is gewoon rebranded OEM geheugen...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Het is gewoon goedkoop DDR3 ECC geheugen; pas begin deze maand toegevoegd aan de PW. Ik volg al een tijd ECC prijzen en voorheen waren die bijna 2x dat van normaal DDR3. Met AMD kun je nu heel goedkoop voor ECC gaan en voor een ZFS NAS zou ik dat zeker doen; kun je de circel compleet maken en heb je een uitmuntende bescherming voor je data. Zodra de data in de handen van je NAS is raak je die gewoon nooit meer kwijt, tenzij er zich 'rampen' voordoen. Echt belangrijke data moet je nog steeds backuppen, maar met een RAID-Z2 is je data bijna onverwoestbaar.

Geheugen is de laatste schakel in je computersysteem wat nog niet goed beveiligd is tegen corruptie. ECC helpt daar geweldig bij. Doe wel voordat je de server in gebruik neemt een 24 uurs of 48 uurs memtest; waarbij je let of er geen ECC fouten zich voordoen. Dan is je geheugen goed en áls er dan eens een bitflip voordoet heb je ECC om dat op te vangen. Dan kan je NAS eigenlijk niet meer stuk, vanuit het oogpunt van dataveiligheid.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Ik stel ECC niet ter discussie, hooguit ICIDU. Ik heb zelf al tijden het geheugen van Kingston in mijn wensenlijst staan. (En mijn nas en server hebben al ECC geheugen, juist om hetgeen je net beschreef.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik heb nu de LSI 3041E kaart in een Asus servertje geprikt en die draaid op dit moment zonder problemen freenas. Het is een P4 met 2GB geheugen en 7.9TB aan storage nu dan.

Ik ga eens kijken wat dit aan stroom vreet en een kastje er omheen kopen waar 7 disken + in kunnen en dan zie ik nog wel even hoe of wat verder.

Voordeel is wel dat ik nu al 25mb/sec haal met een CIFS transfer

code:
1
2
3
4
5
6
freenas# dd if=/dev/zero of=/mnt/data/testfile34.bin bs=1M count=4096
4096+0 records in
4096+0 records out
4294967296 bytes transferred in 50.253758 secs (85465594 bytes/sec)

81MB/Sec ?


code:
1
2
3
4
5
6
freenas# dd if=/mnt/data/testfile34.bin of=/dev/null bs=1M
4096+0 records in
4096+0 records out
4294967296 bytes transferred in 29.829762 secs (143982620 bytes/sec)

137MB/Sec ?


Jammeer dat er geen mb/s bij staat. Nu moet ik rekenen :'(

[ Voor 46% gewijzigd door raymonvdm op 29-05-2011 23:47 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dadona schreef op zondag 29 mei 2011 @ 23:08:
Ik stel ECC niet ter discussie, hooguit ICIDU. Ik heb zelf al tijden het geheugen van Kingston in mijn wensenlijst staan.
Ach alle DRAM wordt in een paar grote foundries gemaakt, dus het komt allemaal uit dezelfde fabriek. Als je goed kijkt naar het plaatje zie je ook het logo van Micron op de DRAM chips; zo werkt het voor alle merken.

Je moet pas goed opletten als er heatsinks op de DRAM chips zitten. Dan is het vaak ouderwets geheugen wat op hogere voltages draait en dus extra gekoeld moet worden. Dat is pas rotzooi. Het beste is het nieuwste geheugen uit de nieuwste foundries op de nieuwste procédé's. Ik vermoed dat DRAM nu rond de 45nm zit; dat soort specs wat in feite de belangrijkste spec is krijg je nooit te weten; dat houden ze graag voor zich.

Dus ik ben niet zo brand loyal. Kingston is ook een hoerenloper wat DRAM betreft; de ene keer Hynix de andere keer Micron en dan weer Samsung. Dus nee zo brand loyal hoef je niet te zijn wat mij betreft. ;)

@raymonvdm: je moet met minimaal 8 keer je RAM testen voor nauwkeurige resultaten. En een P4 is ongeschikt voor ZFS vanwege 32-bit; en de gigabit loopt vast ook over PCI wat ook knudde is. Maar om even te testen voor de lol is het prima natuurlijk. :P

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Verwijderd schreef op zondag 29 mei 2011 @ 23:36:
[...]

Ach alle DRAM wordt in een paar grote foundries gemaakt, dus het komt allemaal uit dezelfde fabriek. Als je goed kijkt naar het plaatje zie je ook het logo van Micron op de DRAM chips; zo werkt het voor alle merken.

Je moet pas goed opletten als er heatsinks op de DRAM chips zitten. Dan is het vaak ouderwets geheugen wat op hogere voltages draait en dus extra gekoeld moet worden. Dat is pas rotzooi. Het beste is het nieuwste geheugen uit de nieuwste foundries op de nieuwste procédé's. Ik vermoed dat DRAM nu rond de 45nm zit; dat soort specs wat in feite de belangrijkste spec is krijg je nooit te weten; dat houden ze graag voor zich.

Dus ik ben niet zo brand loyal. Kingston is ook een hoerenloper wat DRAM betreft; de ene keer Hynix de andere keer Micron en dan weer Samsung. Dus nee zo brand loyal hoef je niet te zijn wat mij betreft. ;)

@raymonvdm: je moet met minimaal 8 keer je RAM testen voor nauwkeurige resultaten. En een P4 is ongeschikt voor ZFS vanwege 32-bit; en de gigabit loopt vast ook over PCI wat ook knudde is. Maar om even te testen voor de lol is het prima natuurlijk. :P
Geen idee wat ik aan het doen ben dus laten we het maar testen noemen :p Maar i k gok dat dit hem dan wordt

code:
1
2
3
4
5
6
freenas# dd if=/dev/zero of=/mnt/data/testfile34.bin bs=1M count=20480
20480+0 records in
20480+0 records out
21474836480 bytes transferred in 265.691635 secs (80826167 bytes/sec)

77,28MB/Sec


versus

code:
1
2
3
4
5
6
freenas# dd if=/mnt/data/testfile34.bin of=/dev/null bs=1M
20480+0 records in
20480+0 records out
21474836480 bytes transferred in 158.249389 secs (135702492 bytes/sec)

129MB/Sec ?


Overigens ben ik niet heel bekend met het AMD platform wat voor processor moet ik dan aan denken ?

[ Voor 17% gewijzigd door raymonvdm op 29-05-2011 23:59 ]


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Verwijderd schreef op zondag 29 mei 2011 @ 23:36:
[...]

Dus ik ben niet zo brand loyal. Kingston is ook een hoerenloper wat DRAM betreft; de ene keer Hynix de andere keer Micron en dan weer Samsung. Dus nee zo brand loyal hoef je niet te zijn wat mij betreft. ;)
Tsja, moeten ze alleen nog wel even 8GB dimms gaan uitbrengen. :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!
Die zijn er wel, alleen Registered :) UDIMM gaat niet hoger (naar mijn weten)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
FireDrunk schreef op maandag 30 mei 2011 @ 00:11:
Die zijn er wel, alleen Registered :) UDIMM gaat niet hoger (naar mijn weten)
Zijn er wel, maar nog duur. De Zacate bordjes met twee DIMM sloten ondersteunen in principe 16GiB DRAM.

Zie hier voor de PW: http://tweakers.net/price...1vQ321EnVtRe2xyIuey3Ot9Q0

Maar waarom heb je dat nodig? 8GiB met 2 DIMM slots of 16GiB met 4 DIMM slots; lijkt me prima voor een ZFS server? Voor 150 euro heb je dan 16GiB DDR3 én ECC; best goed te doen zou ik zeggen!

En voor raymond: AMD cpu kun je redelijk goedkoop doen; maar ik zou dan bij de 45W TDP blijven. Bijvoorbeeld deze: pricewatch: AMD Athlon II X2 250E

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Verwijderd schreef op maandag 30 mei 2011 @ 00:23:
[...]

Zijn er wel, maar nog duur. De Zacate bordjes met twee DIMM sloten ondersteunen in principe 16GiB DRAM.

Zie hier voor de PW: http://tweakers.net/price...1vQ321EnVtRe2xyIuey3Ot9Q0

Maar waarom heb je dat nodig? 8GiB met 2 DIMM slots of 16GiB met 4 DIMM slots; lijkt me prima voor een ZFS server? Voor 150 euro heb je dan 16GiB DDR3 én ECC; best goed te doen zou ik zeggen!

En voor raymond: AMD cpu kun je redelijk goedkoop doen; maar ik zou dan bij de 45W TDP blijven. Bijvoorbeeld deze: pricewatch: AMD Athlon II X2 250E
Ik heb de X2 240E want de 250E staat niet in het lijstje zal weinig verschil maken behalve de snelheid. Nu nog een bordje met 6+ sata poorten.

Acties:
  • 0 Henk 'm!
pricewatch: MSI 880GM-E41

Zo uit het Nieuwe Zuinige Server topic...

Even niets...


Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik denk laat ik eens openindiana proberen maar die hangt al bij boot van de cdrom Schiet niet op zo hij lijkt ook de 64 bit variant te willen installeren.

Ben ondertussen ook de Nexenta iso aan het branden :p

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
@CiPHER
Nee, FireDrunk heeft gelijk. Die 8GB dimms uit de pricewatch hebben allemaal de verkeerde specs. Klik maar eens door naar de specificaties door de producent, allemaal 'reg'. Wel jammer dat standaard moederborden dat registered deel niet kunnen negeren of juist de gang laten gaan.

En waarvoor nodig, als we de stelregel hanteren dat per TB er één GB aan ram nodig is, dan stopt de teller bij consumentenborden zo ongeveer bij 12 tot 14TB. Inderdaad, voor de meesten zal dat gewoon goed gaan, maar wil je er echt een server van maken die ook zaken als email, backups en wat al niet meer wil afhandelen dan begint het toch krapper te worden.
Voor meer moet je dan toch gaan kijken naar server moederborden, waardoor je een duurdere opstelling krijgt. Helaas heeft AMD consumentenborden met zes geheugenbanken, ook Bulldozer lijkt die niet te hebben. Zit je meteen met een Opteron. Bij Intel zit je ook vast aan een Xeon.

Overigens is een 45W TDP cpu niet zo heel verschillend van de 'non-e' variant. Je kunt een non-e variant ook undervolten. Het verschil zal niet zo heel erg groot zijn, helemaal als de computer vooral in idle hangt.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
8GiB UDIMMs zijn er wel, maar erg zeldzaam. De PW-link die ik heb gegeven hebben inderdaad allemaal verkeerde specs en zijn allemaal registered. Maar Zacate bordjes ondersteunen geen ECC of Registered maar volgens de handleiding wel 8GiB per DIMM.

Maar ik snap het probleem niet; bij dat bordje van 60 euro kun je gewoon 4 reepjes UDIMM ECC van ICIDU bijvoorbeeld dan heb je 16GiB ECC DDR3 voor 150 euro. Alleen als je meer wilt heb je 6 geheugenbanken nodig, maar 16GiB voor een home ZFS NAS is echt prima hoor.

Overigens nog een kleine waarschuwing: niet alle AMD bordjes ondersteunen ECC; je BIOS moet dat ook ondersteunen. De meeste Asus bordjes doen dat bij MSI weet ik het niet zo 1-2-3. Ik zou dat even goed checken voordat je er een koopt. Of dat nu ATX of Micro-ATX is maakt niet uit in principe ook goedkope bordjes kunnen ECC ondersteunen.

Qua CPUs: de TDP is niet zo spannend als wel dat je een nieuwere chip krijgt die idle veel zuiniger is dan de oudere chips van AMD. Under-volten leidt ook juist tot een hoger stroomverbruik, omdat naar mijn weten Cool'N'Quiet dan niet meer werkt en je welliswaar een lager stressed stroomverbruik hebt maar het gaat juist om het idle verbruik en zonder CnQ is dat flink hoger. Dus juist niet under-volten is mijn advies.

[ Voor 15% gewijzigd door Verwijderd op 30-05-2011 00:56 ]


Acties:
  • 0 Henk 'm!
CnQ == automatisch undervolten en terugklokken... Niet meer en niet minder...

Even niets...


Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik kom nu op de volgende config

wenslijst: NAS

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Dat ze het ondersteunen wil niet zeggen dat het geheugen er daadwerkelijk is, soms is iets ook future ready ;)
Het probleem is dat jij redeneert vanuit ZFS voor een NAS, dat de computer maar één taak heeft, data leveren. Maar ik wil (ook) dat mijn server met email, backup, .. kan profiteren van de veilige opslag. Maar dat heeft ook geheugen nodig, wat dus afgaat van die 16GB. (Mijn huidige server zou dan ruimte hebben voor 12TB, voor mij vooralsnog zat, maar voor anderen mogelijk toch te krap.)
MSI is een no-go (geen gezien met), Asus (doorgaans) een go en Biostar wisselt, qua ECC ondersteuning.

En wat de CPU heb je het mis. Zoals FireDrunk al zegt, CnQ zorgt dat het voltage past bij de kloksnelheid. Mijn server heeft CnQ uitstaan (met opzet ;) ) en ik heb handmatig het voltage voor idle (met lagere multiplier) en in load (met maximale multiplier) ingesteld. Ik kom daarmee lager dan CnQ komt, omdat CnQ nogal conservatief is. Bij een 45W TDP zijn die voltages wat lager gezet dan bij de CPUs met een hogere TDP. Echter, met handmatig ondervolten kom ik lager dan wat CnQ bij een 45W TDP CPU doet. (Zo uit mijn hoofd is dat 1V in idle.) Het enige dat ik nog nooit heb kunnen testen is of een vergelijkbare 'e' versie daadwerkelijk lager kan dan een 'non-e' versie. Dan heb ik het dus over een voltage van onder de 0.8V, waar ik met een 'non-e' kan komen. Maar met handmatig ondervolten (bij een 65W) kom je sowieso onder de CnQ voltages bij een 45W TDP CPU.
Overigens zit het echte verschil niet in idle, maar juist in load. Zeker rond de 0.8V dan ga je echt tienden tellen.

[ Voor 3% gewijzigd door Dadona op 30-05-2011 01:15 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
FireDrunk schreef op maandag 30 mei 2011 @ 01:00:
CnQ == automatisch undervolten en terugklokken... Niet meer en niet minder...
Mijn punt was dat handmatig under-volten betekent dat CnQ niet meer werkt. Dan draai je een static voltage en static frequency.
Prima alleen geheugen staat er dubbel in en processor is de 65W TDP variant; voor een paar euro meer heb je de 45W 'e' variant.
Dadona schreef op maandag 30 mei 2011 @ 01:10:
Dat ze het ondersteunen wil niet zeggen dat het geheugen er daadwerkelijk is, soms is iets ook future ready ;)
Point well taken; ik kan nu zo snel geen 8GiB UDIMMs vinden; maar ik dacht die wel gezien te hebben op andere fora. Anyway; als ze er al zijn, zijn ze extreem duur relatief aan normale 4GiB DIMMs, dus ik denk dat we het daar voorlopig mee moeten doen.
Het probleem is dat jij redeneert vanuit ZFS voor een NAS, dat de computer maar één taak heeft, data leveren. Maar ik wil (ook) dat mijn server met email, backup, .. kan profiteren van de veilige opslag.
Een emailserver zou iets van 32MB gebruiken; wat scheelt dat op een server die 16GiB heeft? Ik vermoed echter dat je doelt op een VM en dus een multi-OS systeem wilt maken wat per definitie heel veel geheugen verspilt en inflexibel deelt. Als je bij één OS/kernel blijft dan heb je dat probleem niet en kun je honderden services draaien op slechts 1GiB, en de rest allemaal aan ZFS geven.
En wat de CPU heb je het mis. Zoals FireDrunk al zegt, CnQ zorgt dat het voltage past bij de kloksnelheid. Mijn server heeft CnQ uitstaan (met opzet ;) ) en ik heb handmatig het voltage voor idle (met lagere multiplier) en in load (met maximale multiplier) ingesteld. Ik kom daarmee lager dan CnQ komt, omdat CnQ nogal conservatief is.
Je komt alleen lager voltage dan CnQ door de frequency flink te verlagen beneden de maximale frequency. Dan heb je dus gewoon een flink tragere processor. Het mooie van CnQ is nu juist dat je alleen een lager voltage draait als je processor (grotendeels) idle is en dat je CPU dus wel meer power heeft op het moment dat je het nodig hebt.

In jouw geval offer je dat op en zit je misschien nét iets onder default CnQ stroomverbruik in idle, ten koste van een heleboel performance. Ik zie het nut daar niet van. Bij een NAS wil je wel CPU power hebben op het moment dat je er om vraagt, maar de 99% dat je NAS idle is moet de CPU vrijwel niets gebruiken. CnQ is daar ideaal voor en ik denk niet dat handmatig undervolten daarvoor een beter resultaat levert; integendeel.

Wat ik me nog wel kan voorstellen is dat je CnQ zou kunnen tunen zodat hij nóg lagere voltages bij de lagere frequencies gebruikt, zonder dat je CnQ daarvoor uit hoeft te schakelen. Voor zover ik weet is dat echter niet mogelijk met de huidige CPUs. Correct me if i'm wrong. :)
Overigens zit het echte verschil niet in idle, maar juist in load. Zeker rond de 0.8V dan ga je echt tienden tellen.
Dat heeft dus alleen nut als je CPU vaak stressed draait, niet bij een NAS die 99,8% idle is maar op het moment dat de CPU moet werken je ook de performance wilt hebben. Als dat laatste niet het geval is, zal de CPU ook langer stressed draaien en dus minder snel naar idle terug kunnen gaan. Dus ik zie voor een NAS hier echt geen nut in.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Verwijderd schreef op maandag 30 mei 2011 @ 01:28:
[...]
Je komt alleen lager voltage dan CnQ door de frequency flink te verlagen beneden de maximale frequency. Dan heb je dus gewoon een flink tragere processor. Het mooie van CnQ is nu juist dat je alleen een lager voltage draait als je processor (grotendeels) idle is en dat je CPU dus wel meer power heeft op het moment dat je het nodig hebt.

In jouw geval offer je dat op en zit je misschien nét iets onder default CnQ stroomverbruik in idle, ten koste van een heleboel performance.
Nee, ik doe precies hetzelfde als CnQ, alleen mogelijk had je dat niet door omdat ik over multipliers sprak. Het zijn de multipliers die omlaag gaan in idle, waardoor je het voltage (verder) kan verlagen. De multiplier is één van de twee factoren die de klokfrequentie bepalen, de tweede is de bus frequency / interne klokfrequentie (de factor die je moet aanpassen wil je met een gelockte CPU overklokken). Het resultaat is de (externe) klokfrequentie van de CPU waar jij het over hebt.
Ik heb CnQ uitgezet omdat ik controle wil hebben over het moment van terugschakelen van de multipliers en op welk voltage de CPU moet draaien bij een bepaalde multiplier. Daarnaast kan ik instellen hoe snel de multiplier omlaag moet. Ik heb dus de multiplier niet vaststaan, dus net als met CnQ past de CPU in mijn computer voortdurend de multipliers aan de load aan en kiest vervolgens het bijpassende voltage, dat ik lager heb gezet dan CnQ zou doen. Dus mijn computer is op ieder moment even snel als die met CnQ zou zijn, alleen is het voltage wel lager in vergelijking met CnQ. :)
Dat heeft dus alleen nut als je CPU vaak stressed draait, niet bij een NAS die 99,8% idle is maar op het moment dat de CPU moet werken je ook de performance wilt hebben. Als dat laatste niet het geval is, zal de CPU ook langer stressed draaien en dus minder snel naar idle terug kunnen gaan. Dus ik zie voor een NAS hier echt geen nut in.
Als jij werkelijk uitgaat van een NAS die 99,8% in idle staat, dan moet je je ook afvragen of een 45W TDP CPU nodig is. TDP slaat op de warmteafgift in load en heeft niets met idle te maken (en er is ook geen directe relatie met energieverbruik, de TDPs zijn voor een hele serie en alleen indicatief, een 45W CPU verbruikt geen 45W in load). In idle verbruiken een (getunede) 'e' en 'non-e' versie zo goed als hetzelfde, als het al niet hetzelfde is. In load zit het verschil als je het gewoon bij CnQ laat, maar ga je handmatig te werk dan kun je zo goed als zeker hetzelfde bereiken. Maar als het toch voor die 0,2% van de tijd is, dan maakt het niet eens zoveel uit, dan zou een 'e' editie zichzelf mogelijk niet eens terugverdienen.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dadona schreef op maandag 30 mei 2011 @ 08:11:
[...]
Nee, ik doe precies hetzelfde als CnQ, alleen mogelijk had je dat niet door omdat ik over multipliers sprak.
Dus jij zegt dat met CnQ uitgeschakeld je realtime de frequency (multiplier * bus) en voltage in kunt stellen, die dus variabel is aan de load ipv statisch? Dat is zeker nieuw voor mij; under-volten ken ik alleen dat CnQ uitgeschakeld wordt en je een statische frequency (multiplier * bus) draait met een statisch voltage; en dus niet iets wat zich aanpast aan de load maar continu op dezelfde setting draait ongeacht load.

Als jij zegt dat je in feite hetzelfde kunt doen als CnQ doet maar dan met handmatige controle over de steps en voltages die daarbij horen, dan begrijp ik je punt heel goed. Ik dacht alleen dat dit niet mogelijk was. Kun je meer informatie geven hierover? Ben zeker ook geïnteresseerd. Ik neem aan dat dit een softwarematige feature is? powerd onder FreeBSD vereist dat CnQ ingeschakeld is; anders heeft het totaal geen controle over de frequency (en gekoppelde voltages).
Als jij werkelijk uitgaat van een NAS die 99,8% in idle staat, dan moet je je ook afvragen of een 45W TDP CPU nodig is. TDP slaat op de warmteafgift in load en heeft niets met idle te maken
Deels gelijk, en ik begrijp je punt zeker!

Echter om te beginnen is TDP een thermische specificatie; geen electrische! Het heeft niet direct te maken met het stroomverbruik onder load. TDP is meer een specificatie voor de koeling, die berekend moet zijn op een continu warmteafgifte van een bepaald niveau. Dat is natuurlijk heel sterk gekoppeld aan het (maximale) energieverbruik, maar het subtiele verschil zit hem erin dat TDP kan afwijken van Pmax, het maximale stroomverbruik van een chip. Denk bijvoorbeeld aan lager geklokte chips die wel degelijk minder energie produceren/vragen onder load maar wel dezelfde TDP krijgen. En het feit dat AMD en Intel de TDP anders berekenen. AMD gebruikt dan ook ACP (Average CPU Power) om het stroomverbruik aan te duidelijk, alhoewel TDP nog steeds de gangbare spec is.

Je hebt wel helemaal gelijk dat TDP niets zegt over idle stroomverbruik. Een 95W TDP chip kan een lager idle stroomverbruik hebben dan een 45W TDP chip, dat is bij AMD in de praktijk ook echt zo! Maar het gaat hier niet zozeer om de TDP als wel dat je een nieuwere chip wilt met een nieuwer procédé/stepping. AMD haalt namelijk regelmatig het idle stroomverbruik omlaag bij nieuwere steppings, en als je twee chips hebt die dezelfde specs hebben maar een met 45W TDP en de ander met 65W TDP, dan kun je er vanuit gaan dat de 45W TDP chip simpelweg een nieuwere chip is met een beter procédé. Dat geeft ook een redelijke kans dat het idle verbruik ook lager ligt, ook al is dat een beetje gokken lijkt me dat voor 2 euro meerprijs best de moeite waard.

Bij een NAS is het als het goed is zo dat zelfs tijdens gebruik je maar kleine piekjes hebt waarop je NAS op volledige snelheid werkt. Alleen bij dingen als compileren draait je CPU voor langere periode op 100%. Bij normaal gebruik wil je dus wel een sterke/snelle CPU hebben die best wat energie mag slurpen, maar is het idle verbruik absoluut het meest belangrijk. Een 125W TDP chip die 5% zuiniger is in idle kan overall dus zuiniger zijn dan een 45W TDP chip.

Echter zijn er ook nog andere overwegingen, zoals het feit dat je met koeling wel rekening moet houden op 100% continu load warmteproductie. Als je passief wilt koelen is 45W TDP een stuk fijner dan 65W TDP. Zeker in mijn situatie met een 65W TDP quadcore was 45W wel fijner geweest, ik heb een vrij dure koeler moeten kopen met iets van 8 of 12 heatpipes uit mijn hoofd; een flink beest dus. Dat had goedkoper gekund als hij 45W was. Desalniettemin draait hij idle erg koel (onder de 30 graden) en daar ben ik erg blij mee!

We willen hetzelfde denk ik: een superzuinige NAS maar wel met voldoende power en geen problemen met de koeling mocht je toch een keer je CPU vol gas laten geven. Hopelijk kunnen we onze ervaringen hierbij delen die denk ik vrij waardevol zijn. Over dat CnQ-achtig undervolten ben ik in elk geval reuze geïnteresseerd. :)

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Keuzes,Keuzes,Keuzes blijft toch lastig

NAS
wenslijst: NAS

ESXi met NAS functie
wenslijst: ESXi Server

Overigens ben ik nog niet helemaal zeker van de behuizing want een behuizing waar 9 disken in rubbers kunnen hangen lijkt me ook wel wat eigenlijk. Al zie ik net dat die coolermaster dingen ook rubbers lijken te hebben.

[ Voor 30% gewijzigd door raymonvdm op 30-05-2011 09:24 ]


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Verwijderd schreef op maandag 30 mei 2011 @ 09:07:
[...]

Dus jij zegt dat met CnQ uitgeschakeld je realtime de frequency (multiplier * bus) en voltage in kunt stellen, die dus variabel is aan de load ipv statisch?
Als jij zegt dat je in feite hetzelfde kunt doen als CnQ doet maar dan met handmatige controle over de steps en voltages die daarbij horen, dan begrijp ik je punt heel goed. Ik dacht alleen dat dit niet mogelijk was. Kun je meer informatie geven hierover? Ben zeker ook geïnteresseerd. Ik neem aan dat dit een softwarematige feature is? powerd onder FreeBSD vereist dat CnQ ingeschakeld is; anders heeft het totaal geen controle over de frequency (en gekoppelde voltages).
Onder FreeBSD ben ik bang dat dit nog wel eens een lastig verhaal kan zijn. (Het is één van de redenen waarom ik tegen een definitieve overstap van Linux naar BSD zit aan te hikken. Virtualisatie is de andere, ik zit dan vast aan Virtualbox.) Onder Linux kun je k10stat inzetten. Onder Windows k10stat en PhenomMsrTweaker. (Het gaat daarbij dus om de AM3 processoren.)
Echter om te beginnen is TDP een thermische specificatie; geen electrische! ... En het feit dat AMD en Intel de TDP anders berekenen. AMD gebruikt dan ook ACP (Average CPU Power) om het stroomverbruik aan te duidelijk, alhoewel TDP nog steeds de gangbare spec is.
Hmm, blijkbaar schreef ik het te cryptisch, dit is precies wat ik aan probeerde te geven. Misschien had ik wat luier moeten zijn en moeten verwijzen naar een tekst die ik eerder heb opgesteld :P Overigens gaat het bij mijn weten bij AMD om max en ging het bij Intel een tijd om gemiddelde hitteafgift, hoewel dat bij Intel nu ook wel hetzelfde is als met AMD. Hoe dan ook, ik gebruik het alleen om een inschatting te krijgen hoe een generatie eruit ziet, meer kun je er toch niet uithalen.
TDP als wel dat je een nieuwere chip wilt met een nieuwer procédé/stepping. AMD haalt namelijk regelmatig het idle stroomverbruik omlaag bij nieuwere steppings, en als je twee chips hebt die dezelfde specs hebben maar een met 45W TDP en de ander met 65W TDP, dan kun je er vanuit gaan dat de 45W TDP chip simpelweg een nieuwere chip is met een beter procédé. Dat geeft ook een redelijke kans dat het idle verbruik ook lager ligt, ook al is dat een beetje gokken lijkt me dat voor 2 euro meerprijs best de moeite waard.
Stepping en procedé zijn iets anders. De stepping is anders (de nieuwere heeft de lagere TDP), maar het procedé is gewoon hetzelfde. In het geval van de Athlon II 2xx(e) is het in beide gevallen 45nm.
Dat staat verder los van dat je doorgaans wel bij wordt van een kleiner procedé (bij SSDs ben ik daar nu even wat minder blij mee).
Echter zijn er ook nog andere overwegingen, zoals het feit dat je met koeling wel rekening moet houden op 100% continu load warmteproductie. Als je passief wilt koelen is 45W TDP een stuk fijner dan 65W TDP. Zeker in mijn situatie met een 65W TDP quadcore was 45W wel fijner geweest, ik heb een vrij dure koeler moeten kopen met iets van 8 of 12 heatpipes uit mijn hoofd; een flink beest dus. Dat had goedkoper gekund als hij 45W was.
Mijn hele punt is juist dat ik met ondervolten hetzelfde kan bereiken, nog beter zelfs. Waar de processor bouwer een marge moet inbouwen, zoek ik de limiet van de specifieke processor die voor mij ligt, inclusief de crash als het toch te laag was.
We willen hetzelfde denk ik: een superzuinige NAS maar wel met voldoende power en geen problemen met de koeling mocht je toch een keer je CPU vol gas laten geven. Hopelijk kunnen we onze ervaringen hierbij delen die denk ik vrij waardevol zijn. Over dat CnQ-achtig undervolten ben ik in elk geval reuze geïnteresseerd. :)
Als je NAS vervangt door computer dan ben ik het helemaal eens. Daarom ben ik (mede) verantwoordelijk voor wat topics in die richting. ;)
[Ervaringen] Energy Efficient Computing
Linux en zuinigheid
Als ik over ruim een maand FreeBSD als host ga installeren dan wil ik mij eens bezig houden met het verbruik van FreeBSD. Ik ben bang dat ik daar nog van ga schrikken. Dus dan zal er vast wel een soortgelijk topic voor BSD komen.

Anyway, ZFS is gaaf, fantastisch, alleen moeten we meer geheugenbanken krijgen op energie efficiente moederborden. Terug naar het mooie ZFS :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 14:42
CiPHER: Ik heb nu reepjes van 4GB Kingston DDR3-ECC geheugen (pricewatch: Kingston KTA-MP1066K4/16G). Kan het kwaad om hier wat van die goedkope ICIDU reepjes van 4GB per stuk mee te mixen of zou je dat afraden?

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik ben nog bezig met een check/check dubbel check maar ondersteund de MSI 880GM-E41 wel ECC geheugen ?

Ik kan het namelijk niet vinden op de MSI website
http://global.msi.eu/inde...no=&cat3_no=&prod_no=2069

[ Voor 41% gewijzigd door raymonvdm op 30-05-2011 13:50 ]


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Mixen van geheugen kan op zich wel, maar ik zou wel in paartjes mixen.
Bij mijn weten heeft MSI geen moederborden waarop de ECC functionaliteit werkt (ECC, unbuffered, geheugen op zich werkt er wel in). Je zal dan toch echt bij Asus of eventueel Biostar moeten kijken. Overigens heb je lang niet altijd iets aan de officiele website. Als er ECC staat wil dat niet zeggen dat de ECC functionaliteit ook werkt. Daarnaast heb ik een moederbord waarvan Biostar lijkt te ontkennen dat ECC werkt. Na een rondje fora aflopen bleek dat het moederbord daadwerkelijk ECC aankon (was ook nog iets vreemds met bios versies, maar goed, het werkt).

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 02-09 13:10
raymonvdm schreef op maandag 30 mei 2011 @ 13:49:
Ik ben nog bezig met een check/check dubbel check maar ondersteund de MSI 880GM-E41 wel ECC geheugen ?

Ik kan het namelijk niet vinden op de MSI website
http://global.msi.eu/inde...no=&cat3_no=&prod_no=2069
Ik ben altijd van mening; als het er niet tussen staat heb je weinig kans. Op internet kan ik ook weinig vinden over ECC support op de 880GM chipset. Ben dus bang dat het niet gaat werken :)

bl44t


Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Nog een beperkende factor in het maken van keuzes dus :?

Is er niet een best-buy van iemand ik ben het "Nieuwe zuinige server" topic al aan het doorworstelen ?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
@YaaD, de chipset op zich is bij mijn weten niet de beperking. Zo vraag ik mij af of Asus daar niet gewoon een moederbord van heeft waar ECC gewoon op werkt.

@raymonvdm
Nee, dat is ook de verkeerde :+ (ESXi, ZFS, zuinige server, ...) Maar ik snap nu eerlijk gezegd niet meer wat je nu zoekt. Een computer met hardware passthrough onder ESXi, met ECC geheugen, ...? Of wil je daar ook een NAS bij voor ZFS? In het eerste geval dan moet je een duurdere, echte server samenstelling neerzetten met een Xeon om ECC te behouden. In het tweede geval dan kun je voor de veiligere route gaan met een Asus, of je kiest voor een Biostar TA790GX A3+ waarvan ik zeker weet dat die ECC aankan. Helaas is de voorradigheid daarvan toch inmiddels wat minder. Ben je in voor een gok, dan kun je ook een andere Biostar pakken. (In het ergste geval heb je geen ECC.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 02-09 13:10
Vaak zijn dat enterprise oplossingen/moederborden en het moederbord wat Raymond koos is dat niet.
Op de site van MSI is helaas geen lijst te vinden van supported memory.

Ik begrijp het ook niet helemaal... Ik kijk in je wenslijst en zie daar twee systemen staan. Ik ben eigenlijk wel benieuwd wat je nu precies zoekt.

In je Esxi server heb je een controller zitten terwijl je met 6x2TB prima uit de voeten kan om mee te beginnen.
Is het geen idee om beide te combineren in combinatie met een leuk OS en een stukje virtualisatie? Scheelt je ook nog stroomverbruik gecombineerd met een prima opslag oplossing :)

bl44t


Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Ik wilde een ESXi machine met daarop een NAS als virtuele machine maar de simpele opzet met de hardware die ik al heb mislukt i.v.m met hardware problemen. (moederbord/controller/esxi issue)

Toen was het idee ik bouw voor nu een losse NAS en later ga ik verder om een ESXi host te bouwen (of ik behoud de huidige ESXi host en heb een losse NAS) Ik wil in iedergeval zo snel mogelijk mn 6 x 2TB gaan gebruiken voor storage en het budget is laag 8) omdat ik na de disken niet nog even 800 euro over heb voor een ESXi oplossing.

Dat NAS bouwen ben ik dus op papier aan begonnen met advies uit het ZFS topic qua hardware en de twee wishlisten zijn daaruit het resultaat.

NAS
wenslijst: NAS

ESXi
wenslijst: ESXi Server

[ Voor 24% gewijzigd door raymonvdm op 30-05-2011 15:41 ]


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Heb je de performance nodig? Zo niet, dan kun je ook voor FreeBSD met VirtualBox gaan. FreeBSD met ZFS als host en VirtualBox voor de virtuele machines.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 02-09 13:10
Ikzelf ga voor installatie van Ubuntu server 11.04 met VirtualBox. Daar draai ik 1 machine Windows XP op (Couchpatato,Sickbeard) en de andere FreeNAS met 6x2TB.

Dit alles wordt dan door het hele huis geserveerd voor streaming. Ik probeer nog een omweg te bedenken om er voor te zorgen dat ik de XP machine niet nodig heb. Zo kan ik een enkele laag gebruiken in plaats van 2

Misschien ook iets voor jou, als het budget wat beperkt is. ZFS heeft geen hardware controllers nodig dus dat scheelt al gauw wat centen.

bl44t


Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Dadona schreef op maandag 30 mei 2011 @ 15:55:
Heb je de performance nodig? Zo niet, dan kun je ook voor FreeBSD met VirtualBox gaan. FreeBSD met ZFS als host en VirtualBox voor de virtuele machines.
Wat voor oplossing zou je kiezen zonder vt-d en FreeBSD. Ik heb tot nu toe op alle machines Ubuntu draaien en een Citrix Xen host op een HP server. Voorheen had ik een Ubuntu server met VMserver2.0 met daarin een Windows XP VM voor RDP/test doeleinden. Als ik op zoek ga naar nieuwe hardware wil ik voor nu wel de juiste keuzes maken.

Goed voorbeeld doet goed volgen :*)


@Yaad wat voor hardware gebruik je daarbij ? Ik heb al 6 x 2TB en daar komt nog een OS disk bij. Ik heb dus nogal wat SATA poorten nodig. Voordeel van ESXi wat ik nu heb is dat ik een disk uit een oude server gewoon aan ESXi kan knopen en booten met een VM (VM van physical disk zoals ik nu doe)

Als test heb ik nu de 2TB disken aan een oude P4 hangen met de LSI 3041E controller en dan haal 25MB/Sec en dat lijkt wel wat en daarom dan misschien toch een losse nas machine met Nexente of Openindiana (FreeNAS lijkt ongeschikt te zijn)

[ Voor 30% gewijzigd door raymonvdm op 30-05-2011 16:07 ]


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Ik zou met je huidige hardware uitproberen of je met VirtualBox voldoende prestaties krijgt. Als dat het geval is dan zou ik zeker voor FreeBSD als basis kiezen. Tot nu toe heeft niemand mij weten te overtuigen dat ik met ESXi niet (een deel van) de zekerheid van ZFS kwijtraak. Zeker als ik een controller middels VT-d door zou sturen. Om die reden laat ik ESXi dan liever links liggen. Het is een stuk goedkoper, ik kan goedkoop ECC inzetten, ik heb data zekerheid en ik heb rust aan mijn hoofd. Ik weet dat ik terug kan vallen op de maximale community dankzij een standaard omgeving. (Geen ESXi met passthrough met een controller, ...)
Dit zou deels veranderen als iemand mij kan bewijzen dat ESXi echt niets doet met de controller, maar eigenlijk geloof ik dat pas als er geen compatiblity list zou bestaan.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 02-09 13:10
raymonvdm schreef op maandag 30 mei 2011 @ 16:03:


@Yaad wat voor hardware gebruik je daarbij ? Ik heb al 6 x 2TB en daar komt nog een OS disk bij. Ik heb dus nogal wat SATA poorten nodig. Voordeel van ESXi wat ik nu heb is dat ik een disk uit een oude server gewoon aan ESXi kan knopen en booten met een VM (VM van physical disk zoals ik nu doe)

Als test heb ik nu de 2TB disken aan een oude P4 hangen met de LSI 3041E controller en dan haal 25MB/Sec en dat lijkt wel wat en daarom dan misschien toch een losse nas machine met Nexente of Openindiana (FreeNAS lijkt ongeschikt te zijn)
Ik gebruik een i3 530 met een Zotac h55 bordje. deze heeft standaard 6 SATA 300 poorten en die voldoen voor mij prima. Ik ook heb 6x2TB schijven, dus qua performance zou dat goed moeten gaan. 8GB geheugen is net wat te laag maar een lagere performance neem ik dan voor lief :) Ik heb een Mtron MLC SSD van 16GB aan een externe behuizing gehangen en daar komt ook de Ubuntu installatie op. Ik kies Ubuntu omdat het gratis is en ik de verwachting heb hier de meeste informatie over kan vinden.

ESXi is iets wat voor mij niet echt een optie is; alsmede ik ervoor moet betalen en ik eerst een virtuele laag wil opzetten en dan kan ik altijd nog kijken of ik het wat vind.

Wat is voor jou de reden om geen FreeNAS te nemen? Als basic NAS heb je niet meer nodig dan dat eigenlijk, tenzij je echt graag voor uitbreidbaarheid en dergelijke gaat.

25MB p/s is wel erg schamel zeg... de bottleneck in dit geval lijkt wel bij het systeem te liggen dan.

bl44t


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Jammer dat dit ZFS topic nu zo'n beetje gekaapt is door talloze hardware-gerelateerde "wat zal ik eens in mijn NAS bouwproject stoppen"-posts. Dacht dat daar wel andere topics voor waren. Ik ga hier afhaken iig.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
u_nix_we_all schreef op maandag 30 mei 2011 @ 17:04:
Jammer dat dit ZFS topic nu zo'n beetje gekaapt is door talloze hardware-gerelateerde "wat zal ik eens in mijn NAS bouwproject stoppen"-posts.
Ben het wel met je eens. Aan de andere kant: zoiets gebeurt snel; er is veel overlap met andere topics zoals zuinige servers en DIY RAID NAS topic. Ook gebeurt het veelvuldig dat ZFS-gerelateerde vragen juist in het DIY RAID NAS topic worden gesteld, ook al geef ik regelmatig links naar dit topic.

Dus de grote vraag: wat stel je zelf voor om die situatie te verbeteren? Dit topic alleen voor ZFS vragen en voor ZFS NAS een ander topic? Je snapt het dilemma: voor iemand die een ZFS NAS wilt bouwen moet hij dan in verschillende topics over hetzelfde project gaan posten en dus ook redundant de achtergrond info geven.

Afgezien daarvan zijn er wel genoeg posts die niet in dit topic thuishoren. Vind het wel jammer dat je gelijk afhaakt; je kunt zelf ook proberen het de goeie richting op te krijgen door ZFS-gerelateerde informatie te vragen of te geven. Ik sta in elk geval open voor suggesties om de kwaliteit van dit topic te verbeteren.

Acties:
  • 0 Henk 'm!

  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Zijn "mijn" hardware vragen niet een logisch gevolg van het warme gevoel wat ZFS mij geeft dankzij dit topic ?

Ik kan mn vragen niet echt kwijt in alle 3 de topics omdat ze met allemaal raakvlakken hebben. :'( En zonder hardware kan ik ook nog niet heel veel met ZFS doen :D


@YaaD ESXi is een gratis hypervisor deze kun je dus gewoon downloaden en een gratis key aanvragen.

Ik heb op dit moment Nexenta geintalleerd met Napp-it om te proberen. Ik ben van Ubuntu afgestapt door het gebrek aan ZFS ondersteuning.

Met Nexenta haal ik nu 30MB/S via CIFS met schrijven en 35MB/S met lezen. Is niet veel maar het is wel stabiel iets wat met FreeNAS niet lukte. Nu nog uitzoeken hoe napp-it / zfs / cifs precies ingesteld moet worden.

[ Voor 50% gewijzigd door raymonvdm op 31-05-2011 00:04 ]


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Hhehehe, leuke info BackLash :P.
Als er een FreeBSD stable is met zfs v28 toch eens zoiets proberen :).

Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 11-09 22:16
Het is mij niet duidelijk wat dit nu precies inhoud. Betekent dit dat je FreeNAS op een volledige FreeBSD kunt installeren? Kan ik zo een root-on-zfs FreeNAS install creëren?

Ik heb eindelijk al mijn spullen binnen, dus kan komend weekend mijn vernieuwde NAS installeren.
Was eerst van plan om ZFSguru te gebruiken, maar begin nu te twijfelen om misschien toch FreeNAS te proberen, als het nu toch mogelijk is om een ZFS-only systeem te creëren met FreeNAS.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Even de instructies doorgenomen maar het volgt de normale UFS installatieprocedure, dus geen root-on-zfs helaas. Wel fijn dat je FreeNAS kunt draaien met een volledige FreeBSD installatie, want dat is toch een van de grootste nadelen van FreeNAS in mijn ogen.

Wellicht dat je de ZFSguru installatieprocedure kan gebruiken (die erg makkelijk is) en daarna alsnog de FreeNAS GUI installeren? Dat lijkt me wel geinig om eens te proberen. :)

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 19:38
Misschien interessant voor hier, kort artikeltje op Computable: Nexenta ziet meer interesse in open dataopslag

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Wel aardig artikel, leuk dat ZFS een beetje terein wint, zelfs in het Microsoft-getrouwe Nederland. Echter, ik zou Nexenta geen 'open dataopslagsysteem' noemen, zoals het artikel stelt. Het blijft een gesloten distributie met beperkingen, in tegenstelling tot de vele open source distributies. Wel kun je de support verwachten waar veel bedrijven en organisaties behoefte aan hebben, dus je hebt keuze tussen een gesloten en open oplossing.

Ik hoop alleen dat de open source oplossingen wat beter worden uitgewerkt en een beter alternatief vormt voor beginnende gebruikers zonder UNIX-achtergrond.

Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 18:42

Snow_King

Konijn is stoer!

Nexenta is door het gebruik van ZFS een stuk 'opener' dan een ander opslagsysteem dan je bij bedrijven tegen komt.

Een EMC/NetApp of Dell disk kan je niet in een ander systeem stoppen en je data vanaf lezen, dat kan bij een Nexenta systeem zonder problemen, dat noem ik toch al een aardig 'open' systeem.

Acties:
  • 0 Henk 'm!

Verwijderd

In vergelijking met andere storage partijen, zoals NetApp en EMC is Nexenta heel open. Het verschil met de volledig open versie is dat er een interface omheen zit en je support kan krijgen op het moment dat het nodig is.

Ik zelf zou zeggen, Nexenta is voor storage wat redhat is voor Linux. Daarnaast wordt vanuit Nexenta veel gefund in de ontwikkeling van Illumos en maakt het een significant deel uit van de ZFS groep (o.a ook Oracle)

Dingen die Nexenta levert zijn oa plugins voor hypervisors en HA clustering, iets waar je als bedrijf zijnde gewoon support op wilt hebben.

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Verwijderd schreef op dinsdag 31 mei 2011 @ 10:11:

Ik zelf zou zeggen, Nexenta is voor storage wat redhat is voor Linux. Daarnaast wordt vanuit Nexenta veel gefund in de ontwikkeling van Illumos en maakt het een significant deel uit van de ZFS groep (o.a ook Oracle)

Dingen die Nexenta levert zijn oa plugins voor hypervisors en HA clustering, iets waar je als bedrijf zijnde gewoon support op wilt hebben.
Of Nexenta nog zo gelukkig is in de ZFS groep is de vraag, er wordt gezegd dat er mogelijk een fork gaat komen in de ZFS code zelf, en dat zou beteken dat je op een bepaald moment niet meer van Oracle's zfs naar Nexenta/openindiana/Illumos je pools kunt migreren.

De plug-in die beschikbaar zijn bij Nexenta komen meestal weer van andere bedrijven, zo is de HA-plugin rechtstreeks van RSF afkomstig.

Ja, daar ben ik weer. Gister in niet zo'n goede bui, en toen was ik het na een bladzijde of 2 over dimmetjes lezen wel ff zat.
Hardwarediscussies zijn niet te vermijden, maar als het over hardware gaat wat helemaal niet gerelateerd is aan ZFS, mag dat best ergens anders IMHO. :P

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Skinkie
  • Registratie: Juni 2001
  • Laatst online: 09-06-2020

Skinkie

Op naar de 500

Is er nu eigenlijk al een 'native' distributed oplossing voor ZFS. En dan bedoel ik eigenlijk geen clustre over ZFS, maar een mogelijkheid dat je op een willekeurige node van het netwerk een zfs create kan doen, en dat het op iedere node beschikbaar is, tegen een zekere redundantie.

Steun Elkaar, Kopieer Nederlands Waar!


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Skinkie schreef op dinsdag 31 mei 2011 @ 12:10:
Is er nu eigenlijk al een 'native' distributed oplossing voor ZFS. En dan bedoel ik eigenlijk geen clustre over ZFS, maar een mogelijkheid dat je op een willekeurige node van het netwerk een zfs create kan doen, en dat het op iedere node beschikbaar is, tegen een zekere redundantie.
Dat kan alleen als al je diskpools vanaf beide geclusterde machines bereikbaar zijn. In de praktijk betekent dit dat je beperkt bent tot de lengte van je shared SAS/SCSI/SATA? bus.
Er loopt ergens een pilot van een active-active metrocluster (over 15KM) maar die gebruiken AoE, zodat je blockdevices over ethernet benaderbaar zijn. Nadeel daarvan is dat eigenlijk aleen de AoE-implementatie van CORAID de nodige performance levert, en je dus met (gesloten) CORAID hardware moet werken.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Skinkie
  • Registratie: Juni 2001
  • Laatst online: 09-06-2020

Skinkie

Op naar de 500

u_nix_we_all schreef op dinsdag 31 mei 2011 @ 12:15:
Dat kan alleen als al je diskpools vanaf beide geclusterde machines bereikbaar zijn. In de praktijk betekent dit dat je beperkt bent tot de lengte van je shared SAS/SCSI/SATA? bus.
Er loopt ergens een pilot van een active-active metrocluster (over 15KM) maar die gebruiken AoE, zodat je blockdevices over ethernet benaderbaar zijn. Nadeel daarvan is dat eigenlijk aleen de AoE-implementatie van CORAID de nodige performance levert, en je dus met (gesloten) CORAID hardware moet werken.
Nee het punt is dus juist dat je een gedeeld ZFS-bestandssysteem wilt. Kijk het ophangen van iSCSI devices onder 1 systeem kan ik ook wel bedenken. Maar dat zorgt nogsteeds voor die ene single point of entry en die ene single point of failure. Ik ben juist benieuwd hoe je ZFS vanaf meerdere systemen kunt exporteren.

Steun Elkaar, Kopieer Nederlands Waar!


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ZFS is een local filesystem, geen clustered filesystem zoals Lustre. Onder FreeBSD kun je eens kijken naar HAST (High-Availability Storage) maar zoals u_nix_we_all beschrijft bestaat/kan denk ik niet:
http://wiki.freebsd.org/HAST
Pagina: 1 ... 7 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.