• Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Wat betreft het falen en dus rma van hdd's.
Als ik de google studie goed begrijp zijn er twee fenomenen.
maandagochtend exemplaren en een maximale leeftijd/gebruik.

Maandagochtend exemplaren zijn er uit te vissen door in korte tijd de schijf maximaal te gebruiken, zowel lezen als schrijven. Zodra deze schijven Scan Errors, reallocation counts, offline reallocation count of probational count laten zien => RMA.
Komen ze door deze test blijven ze wel goed.
Dan is het wachten op hoe lang gaan de schijven mee en ik verwacht buiten een slechte serie dat alle hedendaagse schijven langer dan 3 jaar meegaan. Rood groen blauw oranje of garantietermijn zal daar niet zoveel verschil uitmaken. Als het een slechte serie is laten we dan hopen dat met mijn gebruik de schijf binnen de garantie termijn stuk gaat.
Als na 2,5 jaar een groene uitvalt zit je waarschijnlijk toch al te denken aan de volgende serie schijven omdat je naar de volgende pc aan het uitkijken bent. Of er moet weer een overstroming zijn en exorbitante prijzen worden gevraagd.

Wat betreft uit het doosje halen, in deze review wordt gezegd dat ze redelijk te openen zijn en hopelijk kan ik het met de juiste tools helemaal zonder beschadigingen doen. productreview: Western Digital Elements Desktop 2TB Zwart review door Xthemes.us

Over de financiën, Ik ga de doosjes gebruiken om de schijven die ik vervang in te stopen om deze her en der neer te zetten als verwegistan backups.
Ook kan ik deze gebruiken ipv een extra sas/sata controller te moeten kopen. Dus ik "bespaar" dus de aankoop van externe behuizing of controller.
Garantie en financiën, red nu €16 meer plus verzendkosten bij rma (+ mijn tijd) denk ik dat die €20 €30 extra die je dan in het derde jaar per schijf extra kwijt bent als tegemoetkoming gebruik voor een nieuwe hdd.
Liever had ik ook 5 jaar garantie op de green maar ja.... het is niet anders.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Misschien interessant, doe met de informatie wat je wilt:
pricewatch: Toshiba DT01ABA300, 3TB

Staat nu op iBood voor 110€ (6€ verzending, tot 4 stuks).

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
thnx Is inderdaad een nette prijs.
Maar ik wacht even op de geen btw dagen van de medimarkt.
Al weet ik niet 100% zeker of ik de btw korting kan regelen van verschillende kanten wordt gezegd van niet :'(

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ik vind die Toshiba's eigenlijk helemaal niet zuinig... 5.6W actief en 4.7W idle?
En dat terwijl een WD green iets van 2.8W idle doet? Is nogal een verschil...

Even niets...


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Mafketel schreef op zondag 20 januari 2013 @ 13:05:
thnx Is inderdaad een nette prijs.
Maar ik wacht even op de geen btw dagen van de medimarkt.
Al weet ik niet 100% zeker of ik de btw korting kan regelen van verschillende kanten wordt gezegd van niet :'(
Als er BTW dagen zijn, doen HDD's niet mee. Dit valt onder accessoires.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Al gefixed, kwam wel 2.2 non-contiguous tegen op een 840GB partitie.
Het werkt weer, dus ik ga er niet meer aanzitten.

[ Voor 98% gewijzigd door Dennisik op 20-01-2013 16:40 ]


  • koekkoek
  • Registratie: November 2005
  • Laatst online: 24-04-2023
Ik wil ook een zelfbouw NAS gaan maken om mijn Synology DS710+ te vervangen.

Deze wordt vervangen omdat de CPU power me toch te gelimiteerd is en niet alles meer goed bij kan benen. Zelf bouw is een stuk goedkoper en flexibeler en ik kan ook meteen meer disken kwijt in plaats van een extra dure DX510 erbij te kopen.

Ik heb zelf die bij elkaar gezocht, iemand nog op of aanmerkingen?

#ProductPrijsSubtotaal
1Intel Pentium G860 Boxed€ 55,95€ 55,95
1Asus P8H77-M€ 82,40€ 82,40
1Fractal Design Define Mini€ 82,-€ 82,-
1Corsair Vengeance CML4GX3M2A1600C9 Low Profile€ 23,50€ 23,50
1Seasonic G-Serie 360Watt€ 59,95€ 59,95
Bekijk collectie
Importeer producten
Totaal€ 303,80


Drives heb ik al en deze worden gewoon overgezet, waaronder een JBOD SSD voor OS en download om vervolgens te unpacken naar een raid volume.

Zal de pentium G860 snel genoeg zijn om met een UPC 120Mbit op volle snelheid te kunnen downloaden? repairen en unpacken en tegelijkertijd streamen naar me media player zonder te haperen of te moeten inleveren op snelheid? Of kan ik dan toch net een stapje omhoog gaan en voor de I3 3220T gaan?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
NA 3 maanden RMA krijg ik dan toch en vervanger voor mijn dode HD204UI: Seagate barracuda 2TB. Niet zo'n grote fan van Seagate maar het is beter dan niets. Misschien toch maar meteen 2 extra barracuda's shelven om mijn overgebleven samsungs te vervangen :).

Raid opties:
- 1x HGST 7k4000, 3x Seagate .14, 3x HD204UI in 1 R5/R6 group.
- HGST en Seagates in 1 R5 group en de samsungs in een 3disk R5 group.

Verschil zit hem in de Samsungs die 5400RPM zijn, de Seagate en HGST disken 7200.


... offff: met de nieuwe disken als migratietool naar ZFS gaan? :P

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
@dannyreiser, neem 8GB dimms dan kan je maklijker uitbreiden. Bovendien kost geheugen niet zoveel meer tegenwoordig.
Dat Asus bord staat niet bekend als de meest zuinige volgens mij...

Die G860 is snel zat voor 120Mbit UPC.

Even niets...


  • koekkoek
  • Registratie: November 2005
  • Laatst online: 24-04-2023
FireDrunk schreef op dinsdag 22 januari 2013 @ 07:30:
@dannyreiser, neem 8GB dimms dan kan je maklijker uitbreiden. Bovendien kost geheugen niet zoveel meer tegenwoordig.
Dat Asus bord staat niet bekend als de meest zuinige volgens mij...

Die G860 is snel zat voor 120Mbit UPC.
Welk bord adviseer je mij dan die ook energiezuinig is, hij moet minimaal 6 SATA poorten hebben.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
In ITX formaat zijn die er niet volgens mij, dus dan moet je naar mATX.
Daar heb je heel veel keuze...

Even niets...


  • koekkoek
  • Registratie: November 2005
  • Laatst online: 24-04-2023
FireDrunk schreef op dinsdag 22 januari 2013 @ 08:01:
In ITX formaat zijn die er niet volgens mij, dus dan moet je naar mATX.
Daar heb je heel veel keuze...
Dat valt nog best mee qua keuze, niet veel hebben 6 sata poorten, maar ik lees dat Intel over het algemeen erg energie zuining is, dus dan is dit een betere keuze?

pricewatch: Intel Desktop Board DH61BEB3


Maar ben een beetje bang voor de Marvell controller, ik heb enige tijd geleden er wat over gelezen dat er problemen zijn met de performance van de marvell. Of geldt dit alleen voor bepaalde chipsets?


Dit lijkt me ook een erg mooie bordje, weet alleen niet wat de prestaties zijn op energie gebied.
pricewatch: ASRock Z77 Pro4-M

[ Voor 36% gewijzigd door koekkoek op 22-01-2013 09:08 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Z77 is sowieso minder zuinig.

Je kan kijken naar een H77, of een B75 bord. Deze hebben zonder extra controllers al 6*SATA.

pricewatch: MSI B75MA-P45

Deze bijvoorbeeld.

Even niets...


  • koekkoek
  • Registratie: November 2005
  • Laatst online: 24-04-2023
FireDrunk schreef op dinsdag 22 januari 2013 @ 09:16:
Z77 is sowieso minder zuinig.

Je kan kijken naar een H77, of een B75 bord. Deze hebben zonder extra controllers al 6*SATA.

pricewatch: MSI B75MA-P45

Deze bijvoorbeeld.
pricewatch: ASRock B75 Pro3-M

Deze heeft 8 SATA poorten waarvan 1 Intel SATA-600, deze zou ideal zijn.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Die ASmedia controller is nog niet helemaal bewezen onder een platform als FreeBSD volgens mij.
Maar dat is vooral icm ZFS. Als AHCI / SATA controller werkt hij naar ik gehoord heb wel prima.

De volledige werking icm ZFS moet nog bevestigd worden volgens mij.

Maar verder is het inderdaad een prima keuze.

[ Voor 8% gewijzigd door FireDrunk op 22-01-2013 09:33 ]

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op dinsdag 22 januari 2013 @ 09:33:
Die ASmedia controller is nog niet helemaal bewezen onder een platform als FreeBSD volgens mij.
Maar dat is vooral icm ZFS. Als AHCI / SATA controller werkt hij naar ik gehoord heb wel prima.

De volledige werking icm ZFS moet nog bevestigd worden volgens mij.

Maar verder is het inderdaad een prima keuze.
Klopt, werkt als AHCI/SATA controlle sec onder FreeBSD, de disks tbv de ZFS pool heb ik bij de build waar de Asrock B75 Pro3-m in zit aan de Intel SATA aansluitingen gehangen (ZFSguru server voor iemand anders). In de week testen verliep alles gladjes en ik heb sinds de plaatsing, een week of 6 geleden, niets gehoord over problemen etc.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Onder OS'en als FreeBSD is een Intel controller toch de betere keuze als je problemen wilt vermijden. Sowieso zijn de meeste 3rd-party controllers maar voorzien van een beperkte PCI-e 1x bus waardoor ze zelden de beloofde snelheden halen en hebben ze ook last van hogere latency. Voor een HDD niet zo belangrijk maar met het oog op de toekomst voor SSD's wel.

Echter is het vooral het potentieel op issues en het extra belasten van het systeem in mijn ogen belangrijk om voor een moederbord te kiezen met enkel SATA-poorten voorzien door de Intel-controller, of dat nu SATA-300 of SATA-600 is maakt voor een HDD toch niets uit, enkel voor SSD's hun max throughput.

Verwijderd

Ik ben helemaal voor échte controllers zoals de chipset controller, maar die ASMedia chip op het ASrock B75 bordje is best wel nuttig hoor. Ik gebruik hem momenteel voor L2ARC SSDs en daarvoor is de beperkte bandbreedte geen probleem. De controller doet het ook prima zonder problemen tot duver; ook nooit gehoord van FreeBSD gebruikers met ASmedia chip. Het werkt gewoon via de AHCI driver dus ook geen vage driver issues. Kortom, die chip is best wel bruikbaar voor een ZFS NAS wat mij betreft.

Het enige is dat Intel zuiniger is. Intel verbruikt 0,0W als je DIPM inschakelt. De ASmedia chip kan dat niet en blijft 0,3 watt verbruiken al zit er niets op aangesloten, tenzij je de chip in het BIOS uitschakelt. Dat is het grootste nadeel wat ik kan bedenken; net iets minder zuinig dan Intel. De lagere performance is voor L2ARC onbelangrijk.

  • koekkoek
  • Registratie: November 2005
  • Laatst online: 24-04-2023
Ik zal hem gewoon gebruiken als AHCI/SATA controller en zal geen gebruik maken van ZFS.
Er zal 1 SSD inkomen en de rest gewoon SATA2 HDD's.

Dit is dus een prima bordje of toch verstandinger om voor een intel only controller te gaan, dus bijvoorbeeld 5x sata2 en 1x sata3.

Zoals de : pricewatch: Gigabyte GA-B75M-D3V


Btw, kan ik gewoon 1 raid volume maken als ik een aantal disken op de Intel SATA2 controller en een aantal op de ASMedia SATA3 controller aansluit, aangezien het 2 aparte controllers zijn? Lijkt me niet.

[ Voor 25% gewijzigd door koekkoek op 22-01-2013 13:01 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Nee dat kan niet, maar met welke Engine wil je RAID maken? Met de onboard?

Die werkt niet onder FreeBSD...

Even niets...


  • koekkoek
  • Registratie: November 2005
  • Laatst online: 24-04-2023
Ja via onboard, ik heb ook nooit gezegd dat ik FreeBSD draai/wil gaan draaien.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Sterker nog, die werkt alleen onder Windows, en zelfs daar wil je er eigenlijk ver van blijven...

Even niets...


Verwijderd

@dannyreuser: Windows gebaseerd OS verandert alles en beperkt je opties. Je wilt in elk geval NIET de drivers van ASMedia gebruiken. Dit betekent in feite dat deze controller nutteloos is geworden; enkel de Intel controller kun je dan voor een RAID array gebruiken. ASMedia zul je apart moeten gebruiken en door de mindere kwaliteit RAID-drivers wil je dat eigenlijk niet. Bedenk verder dat onboard RAID5 wat je misschien wilt gebruiken een héél eind verwijderd staat van de veiligheid die een ZFS-volume kan bieden.

@FireDrunk: net als Linux kan ook FreeBSD overweg met metadata van RAID arrays. Van hardware RAID maar vooral software RAID zoals Intel / Silicon Image / Promise enzovoorts. FreeBSD heeft dit ondergebracht in de 'pseudoRAID' ofwel 'FakeRAID' driver die 'geom_raid' heet. Die wordt standaard overigens niet geladen, alleen een tijd was dat zo maar dat is teruggedraaid na klachten van gebruikers.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ik snap dat ze er mee 'overweg' kunnen, voor eventuele reconstructie en zo.

Maar of je het wil om daadwerkelijk mee te draaien :+

Even niets...


Verwijderd

Waarom niet? Dat maakt dualboot mogelijk. Zo heb ik ook twee SSDs in RAID0 op mijn gamesysteem met zowel Linux als Windows op de Intel onboard RAID in dual boot. Dat werkt out of the box als je eerst Windows dan Linux installeert. Je gebruikt dan dus dezelfde RAID array met twee verschillende RAID engines (die onder Linux met Intel RAID drivers en onder Linux met Linux software RAID).

Bij BSD zie ik minder nut in het delen van onboard RAID over meerdere operating systems, maar toch fijn dat het kan als je het nodig hebt.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Dat vind ik toch eng... Stel je update een keer de driver en er word zomaar even een feature toegevoegd...
Je boot in BSD, en spontaan, floep, alles kwijt...

Ik zou persoonijk het risico niet willen lopen, maar ja, het is inderdaad fijn dat het kan...

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Algemene vraag over nas4free en zfsguru.
Moet ik ze zien als een schil om freebsd heen, welke de bediening simpeler maakt ?

Ik heb nu als test beide geinstalleerd gehad, en zfsguru werkt voor mij wat logisher, althans ik wordt netjes door de intallatie gewezen en krijg een systeem wat draait op een mirror van 2 stuks 320 GB hdd's met zfs pool erop.

Bij nas4free krijg ik een install op 1 van de 2 hdd's en dan lijk ik nog de optie te hebben deze disk weer te gebruiken(wellicht andere partitie) en er ook weer een mirror van te maken met ufs file systeem.
Dit is wat onduidelijk voor een beginner zoals ik mezelf zie.

Dan nog een vraag: bij zfsguru zie ik bijvoorbeeld link aggregatie nog niet als mogelijkheid. Is dat wel handmatig te configureren misschien ? ( als zfsguru alleen een gui is zou dat mogelijk moeten zijn wellicht)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

FireDrunk schreef op dinsdag 22 januari 2013 @ 16:02:
Dat vind ik toch eng... Stel je update een keer de driver en er word zomaar even een feature toegevoegd...
Je boot in BSD, en spontaan, floep, alles kwijt..
Nou die kans acht ik erg klein. RAID metadata heeft meestal een identifier, zodat geom_raid kan zien of het compatible is of niet. Als dat niet werkt, wordt geom_raid niet geattached en krijg je een foutmelding tijdens de boot. Dat is bijvoorbeeld als je de Intel MatrixRAID feature gebruikt met zowel RAID1 als een RAID0 volume met twee disks, bijvoorbeeld. Die 'extentie' van de firmware wordt nog niet ondersteund. Ook tijdens RAID-migraties zoals Intel kan, zal BSD die array niet slikken. Eerst de migratie afmaken onder Windows.

Dus volgens mij is het vrij veilig in gebruik. De meeste klachten komen over dat disks opeens niet meer geformatteerd kunnen worden omdat er RAID metadata op zit. Om die reden is de geom_raid driver niet standaard opgenomen in de kernel; je moet het zelf enablen.

Merk op dat geom_raid en vergelijkbare functionaliteit onder Linux heel nuttig is bij RAID recovery. Je kunt zo zaken als disk order en stripesize uit de metadata vissen, wat recovery natuurlijk een stuk makkelijker/sneller maakt omdat je niet alle combinaties hoeft te proberen.
jacovn schreef op donderdag 24 januari 2013 @ 21:55:
Algemene vraag over nas4free en zfsguru.
Moet ik ze zien als een schil om freebsd heen, welke de bediening simpeler maakt ?
Ja en nee. Beide zijn inderdaad schillen rond het échte besturingssysteem heen; FreeBSD.

NAS4Free is wat FreeNAS vroeger was, alleen dan met nieuwere FreeBSD versie. Erg mature, maar op veel vlakken naar mijn mening wel een verouderd ontwerp. Zo is ZFS in NAS4Free niet écht goed geïntegreerd. Het is erbij geklust. NAS4Free doet traditionele software RAID met UFS filesystem wel goed. Zelf denk ik dat een rewrite beter is, maar dat is het huidige FreeNAS dus; wat eigenlijk een nieuw project is van de nieuwe eigenaar: iX Systems.

ZFSguru is helemaal rond ZFS gebouwd en dat maakt bepaalde dingen mogelijk zoals booten van ZFS pool en natuurlijk dat je niets anders dan ZFS gebruikt dus geen legacy UFS-filesystems meer. ZFSguru is van alle NAS-platforms het minst uitontwikkeld, maar heeft desondanks toch veel harten veroverd door zijn duidelijke interface en unieke features.

Wat zijn de grote verschillen? NAS4Free heeft een goede embedded distributie zodat je je OS op USB-stick kunt installeren en je disks laten downspinnen. Bij ZFSguru kan dit ook, maar dan heb je wel regelmatig writes naar je USB stick. De echte embedded distributie is er nog niet.

Ik raad aan dat je beide uitprobeert en gebruikt wat je het fijnst vindt. Je kunt later altijd switchen van het ene ZFS-platform naar het andere. Dat doen ook veel mensen, en dat maakt het mogelijk om te switchen van A naar B als je een probleem hebt met A of als B in korte tijd veel beter is geworden. Kortom, keus genoeg en dat is fijn. :)
Dan nog een vraag: bij zfsguru zie ik bijvoorbeeld link aggregatie nog niet als mogelijkheid. Is dat wel handmatig te configureren misschien ? ( als zfsguru alleen een gui is zou dat mogelijk moeten zijn wellicht)
Zeker, en ook vrij makkelijk eigenlijk: ZFSguru: Link aggregation

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Dat is mooi. ZFSguru zit qua gui en setup veel logisher in elkaar voor mij.
Enige bezwaar voor mij lijkt te zijn dat de ontwikkeling voor het grootste deel bij 1 persoon ligt. Ik lees wel dat jij (CiPHER) ook meewerkt, maar wat je doet is me nog niet helemaal duidelijk.
Ik gebruik nu unraid, en dat wordt door 1 persoon gedaan, als die te weinig van zich laat horen begint de community te piepen. Maar goed, dat is een heel ander systeem, en met zijn 32 bit os zijn daar ook andere problemen..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Nog een raag, ik heb bij mijn ibm ServeRAID m1015 kaart ook een: ServeRAID M1000 Series Advanced Feature Key gekregen.
Ik heb de kaart naar IT mode geflashed, kan ik die feature key gewoon laten zitten, of gaat die problemen opleveren ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Die key heeft geen zin in IT mode. Die enabled RAID5, maar in IT-mode heb je helemaal geen RAID.

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Zfsguru geninstalleerd
2x een hdd zero write opgestart met & teken aan het einde, en dat leek te werken, maar de webgui doet het niet meer na een tijdje :( Op de console zie ik nog 1 dd taak lopen.
Kan ik op de console een check doen of de webserver nog goed loopt ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Dat is een ' feature' van ZFSGuru.. Het hangt als het moet wachten op je OS.

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
FireDrunk schreef op vrijdag 25 januari 2013 @ 11:47:
Dat is een ' feature' van ZFSGuru.. Het hangt als het moet wachten op je OS.
& teken achter een commando zou toch betekenen dat het in de achtergrond opgestart wordt ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Klopt maar als dat commando in de weg zit voor opvolgende commando's van zfsguru gaat het hangen...

Even niets...


Verwijderd

De meeste zaken in ZFSguru die lang duren worden inmiddels op de achtergrond uitgevoerd, maar voor zero-write en random-write geldt dit nog niet. Je kunt natuurlijk wel dat script op de command line uitvoeren met een & erachter. Dat werkt denk ik het beste in de SSH shell.

Maar nogmaals: zero writen heb je normaal nooit nodig. Die functionaliteit wordt over het algemeen maar heel zelden gebruikt. Het is ook een paardenmiddel om bijvoorbeeld de RAID metadata of ZFS filesystem data te verwijderen/overschrijven.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
De web interface is er weer, dus de format zal klaar zijn. Smart waardes ok, dus disk lijkt goed.
Op 1 hdd heb ik 35325 cable errors, die hdd krijg ik ook niet in een pool.
Ik zal de kabel vervangen, maar hoe reset ik die error counter ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Die kun je niet resetten. Blijft eeuwig zo. Je kunt wel zien of de waarde nog verder toeneemt ja of nee. 35 duizend errors betekent natuurlijk dat je kabel enorm rot was en daar moet je ooit gezeik/problemen mee hebben gehad.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
De ibm 1015 werd te warm, ik twijfel of het wel een echte kabelfout is. Ze worden nu gekoeld, en deze format ging goed,dus het zou nu betrouwbaar moeten zijn.
Ik zal de kabel echter vervange, heb nog wel een extra foreward breakout liggen.
Het is DA4, ik neem aan p4 op de 1 e m1015 controller. Dat is wel juist een langere van 100 cm, misschien is dat ook wel het probleem.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Hm in dat geval zouden de UDMA CRC Errors ook aan de kant van de IBM M1015 kunnen liggen. Normaal is dat extreem zeldzaam, maar oververhitting van de controllerchip zou denk ik wel voor zo'n effect kunnen zorgen. In dat geval is het niet de schuld van de kabel. Dus je kunt ook kijken of na een scrub ofzo die UDMA CRC Error Count gelijk blijft nu je je IBM M1015 beter koelt. Dan hoef je wellicht niet je kabels te vervangen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Toch blijf ik het vreemd vinden dat mensen last hebben van een warme M1015. Hebben jullie dan helemaal geen casefans? Want ik had er in mijn oude kast maar 1 (12CM) die op een laag toerental draaide, en verder niets.

(tegenwoordig ben ik met mijn Define XL voorzien van veeeel meer casefans :+ )

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Case is een cooler master stacker stc-01 (de eerste cm stacker case als ik het goed heb)
Daarin zitten 4 stuks norco 5 in 3 HDR-5-v2 racks in. Die hebben noctua NFP12 fans (4 x dus)
Dan zit er een NFP12 in de achterkant, en de seasonic x760 voeding, en ook een noctua nf-r8 in de bovenkant. De ventilatie openingen in de zijkanten heb ik afgeplakt met dempingsmateriaal.

De m1015's zitten naast elkaar in 2 pci-e 8x slots op een supermicro x9scm-f moederbord.
De slot brackets zijn allemaal geventileerd, dus bij de kaarten in de buurt zou er airflow kunnen zijn.
De m1015 die in het 1e slot zit zit met zijn koel lichaam bijna tegen de 2e m1015 en daartussen is de airflow minder makkelijk dan er om heen. Er moet nog een 3e naast, dus ik ga voor geforceerde airflow.

Ik heb nog wel case fans liggen van een define xl, die heb ik ook, en alles vervangen. Laat maar weten als je interesse hebt.

[ Voor 7% gewijzigd door jacovn op 26-01-2013 11:25 . Reden: Typefout ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • B2
  • Registratie: April 2000
  • Laatst online: 06:55

B2

wa' seggie?

FireDrunk schreef op zaterdag 26 januari 2013 @ 09:30:
Toch blijf ik het vreemd vinden dat mensen last hebben van een warme M1015. Hebben jullie dan helemaal geen casefans? Want ik had er in mijn oude kast maar 1 (12CM) die op een laag toerental draaide, en verder niets.

(tegenwoordig ben ik met mijn Define XL voorzien van veeeel meer casefans :+ )
Sterker nog, ik heb 4 casefans. Maar zoals ik al eerder in dit of een ander topic aangaf, mijn M1015's verbruiken ook om en nabij de 15W. De koelblokjes worden echt loei heet.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Hmm, zou dat dan toch met ASPM te maken hebben?

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 06:55

B2

wa' seggie?

FireDrunk schreef op zaterdag 26 januari 2013 @ 12:42:
Hmm, zou dat dan toch met ASPM te maken hebben?
Staat bij mij gewoon aan. Dus nee, volgens mij kan dat het niet zijn.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

aangezien ik ga verhuizen, en mijn broer mijn oude server overneemt, moet ik een nieuwe server voor mezelf bouwen.

Wat ga ik er mee doen?
- Media server
- Backup
- FTP
- ZFS
- VM's

#ProductPrijsSubtotaal
1Intel Pentium G860 Boxed€ 54,95€ 54,95
1ASRock B75 Pro3-M€ 57,10€ 57,10
8Western Digital Green WD30EZRX, 3TB€ 117,95€ 943,60
1Codegen 4U-500€ 64,50€ 64,50
2Corsair Vengeance CMZ16GX3M2A1600C10€ 74,-€ 148,-
1Supermicro AOC-SASLP-MV8€ 102,89€ 102,89
1XFX Pro 550W€ 52,40€ 52,40
1Samsung 840 series SSD 250GB€ 149,89€ 149,89
Bekijk collectie
Importeer producten
Totaal€ 1.573,33


graag had ik wat feedback over de keuze van Sata-kaartjes, wat is de goedkoopste keuze voor zoveel mogelijk (+3TB) disks met ZFS te gebruiken?

ook weet ik niet of ik voor een intel SSD moet kiezen voor de betrouwbaarheid, of dat een crucial m4 of samsung 840 even goed zijn voor een ZFS opstelling..

ook over de kast twijfel ik hard, ik heb nu gekozen voor een codegen omdat de prijs zeer gunstig is, maar ik heb ook oog naar een Norcotek case met plaats voor 16-24 hotswap drives.. maar ik vraag me af hoelang Sata nog zal bestaan, en of ik die kast nog enkele generaties Drives kan gebruiken...?

\\ Baloo \\ Mijn iRacing profiel


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

MikeVM schreef op maandag 28 januari 2013 @ 12:11:
aangezien ik ga verhuizen, en mijn broer mijn oude server overneemt, moet ik een nieuwe server voor mezelf bouwen.

Wat ga ik er mee doen?
- Media server
- Backup
- FTP
- ZFS
- VM's

..SNIP..

graag had ik wat feedback over de keuze van Sata-kaartjes, wat is de goedkoopste keuze voor zoveel mogelijk (+3TB) disks met ZFS te gebruiken?
Welke OS had je in gedachten. De AOC-SASLP-MV8 heeft namelijk een Marvel controller en die schijnt het niet zo goed te doen onder bijv. FreeBSD (ZFSguru).

Veiligere keuzes zijn:

SuperMicro USAS-L8i (LSI 1068E)
SuperMicro USAS2-L8e (LSI SAS 2008 = 6Gbps; e versie s zonder RAID)
Intel SASUC8i (LSI 1068E; flash naar IT firmware nodig)
LSI 9211-8i (LSI SAS2008; flash naar IT firmware nodig)
IBM M1015 (LSI SAS 2008; flash naar IT firmware nodig)
ook weet ik niet of ik voor een intel SSD moet kiezen voor de betrouwbaarheid, of dat een crucial m4 of samsung 840 even goed zijn voor een ZFS opstelling..
Afhankelijk van wat je er mee wilt.
FireDrunk heeft een absolute voorkeur voor de Intel 320 serie als LOG device (ivm de condensator 'backup batterij'). Constantin Gonzalez heeft een posting op zijn blog mbt ZFS en SSD's.
[/quote]
ook over de kast twijfel ik hard, ik heb nu gekozen voor een codegen omdat de prijs zeer gunstig is, maar ik heb ook oog naar een Norcotek case met plaats voor 16-24 hotswap drives.. maar ik vraag me af hoelang Sata nog zal bestaan, en of ik die kast nog enkele generaties Drives kan gebruiken...?
Tja, da's een lastige. SATA gaat al weer even mee, mijn gok is dat het voorlopig nog niet afgeschreven zal worden. De wisseling van PATA naar SATA was een flinke stap vooruit mbt kabel spaghetti (en natuurlijk doorvoer snelheid). Een evt wisseling zal enkel zijn ivm snelheids winst, maar op dit moment bereiken hdd's, door de beugel genomen, zo'n 150 a 175 MB/sec max. terwijl SATA-600 theoretisch dus 600 MB/sec kan halen.

[ Voor 39% gewijzigd door Pantagruel op 28-01-2013 16:23 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Voor SSD's gaan we in de komende jaren naar Sata Express. Dat is SATA via PCIe.
Voordat een Harddisk de de 6Gbps aantikt moeten we nog wel even verder zijn, dus die standaard zal nog wel even blijven.

Bovendien zitten de bussen achter de sata controllers veeeel eerder vol... Een PCIe 2.0 6Gbps HBA (zoals de M1015) kan maximaal 2GB/s (of was het nou 4GB/s?) verstoken over de PCIe lane.
Als je daar dus 24 schijven aan hangt, hoeven die schijven maar een bus van een paar honderd Megabit te hebben om daaraan te voldoen... 6Gbps is dus zeker toekomst vast.

Waar je rekening mee moet houden, zijn je lastige eisen. ZFS en Virtualisatie gaan absoluut neit zomaar hand in hand. Bedenk je dat je veel geheugen nodig hebt, en dat VT-d eigenlijk een must is.

Een VM met een PCI device doorgegeven via VT-d heeft 100% memory reservering dus memory overcommitment zit er ook niet meer in voor die VM.

Een ZFS machine wil graag 16GB geheugen, en bij heel veel schijven is meer altijd beter.

Als je dus een virtualisatiebak maakt met ZFS is 32GB geheugen eigenlijk de minimum, en liever zelfs nog meer.

Wil je meer dan 32GB geheugen, moet je al naar socket 2011, C32, of G34. En dat zijn dure sockets met duur geheugen.

Even niets...


Verwijderd

@MikeVM: qua SSD raad ik je aan te wachten op de Crucial M500. Zou niet lang meer duren voordat deze beschikbaar is en deze schijf heeft net als de Intel 320 power-safe capacitors en diverse andere beveiligingen die het een potentiëel heel veilige SSD maken. De prestaties liggen ook ver boven die van de Intel 320. Ik verwacht dat dit een heel populaire SSD wordt en dus ook goed betaalbaar na een initiëel hoge introductieprijs. Kortom, misschien nog even wachten met die SSD...
FireDrunk schreef op maandag 28 januari 2013 @ 17:25:
Bovendien zitten de bussen achter de sata controllers veeeel eerder vol... Een PCIe 2.0 6Gbps HBA (zoals de M1015) kan maximaal 2GB/s (of was het nou 4GB/s?) verstoken over de PCIe lane.
4GB/s (500MB/s per lane). En dan full-duplex dus eigenlijk 4GB/s lezen en 4GB/s schrijven dus 8GB/s datarate. In extreme (laboratorium) gevallen, uiteraard. Maar dat full duplex vergeten mensen nog wel eens. Soms kan dat wel degelijk uitmaken. Normaliter gaat die controller ook per 8 schijven, zonder expanders e.d. Dus dan kom je neer op 500MB/s per schijf aan (full-duplex) bandbreedte; lijkt mij niet slecht.
Een VM met een PCI device doorgegeven via VT-d heeft 100% memory reservering dus memory overcommitment zit er ook niet meer in voor die VM.
Ik dacht wat gelezen te hebben over BHyVe dat PCI passthrough bij hen anders werkt en voordelen heeft waardoor bovenstaande niet zou kloppen. Maar dat zien we wel zodra BHyVe iets volwassener is, en ook non-BSD guests kan booten.

Edit: niet echt een antwoord maar hier wat extra info over BHyVe PCI Passthrough.

[ Voor 23% gewijzigd door Verwijderd op 28-01-2013 17:49 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Het kan dat BHyVe dat doet, maar dan gebruiken ze zeer waarschijnlijk geen VT-d.

Intel's VT-d (en AMD's IOMMU/ AMD-Vi) maken gebruik van DMA remapping, waardoor de guest direct in het memory van de Host mag lezen en schrijven, als dit niet 1 aaneengesloten geheugenblok zou zijn, en het dynamisch te assignen en te shrinken zou zijn, krijg je security issues.

Want de VM kan dan dus in het geheugen van andere guests kijken.

Als BHyVe het anders geimplementeerd heeft, (wat prima kan) is het dus zo dat vanwege security de host er nog altijd tussen zit als er een geheugen request gedaan word.

Dit is dus altijd trager dan de VT-d / IOMMU implementaties van Intel en AMD.

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

OS weet ik nog niet. ik zit nu op Ubuntu, en heb graag een XP bij de hand voor sommige programmas,
ZFS zou ik eventueel onder een BSD draaien..

ik heb in mijn huidige server een LSI LSI SAS3081E-R-SGL steken, is het de moeite om die over te nemen, en een goedkopere in de plaats te hangen?

is die LSI up te graden naar +3TB compatiblility?

- Wachten op de M500 is moeilijk, aangezien ik vrijdag al verhuis, en 14 februari ik naar nederland ga, en dus perfect goedkoop kan shoppen.

hoelang schatten jullie dat Sata nog zal bestaan, ik hoop toch wel nog 7 jaar ofzo, in dat geval wil ik wel investeren in een Norco, als ik binnen 4 jaar al moet gaan upgraden vind ik het niet zo een goed idee..

[ Voor 17% gewijzigd door MikeVM op 28-01-2013 21:34 ]

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

In dat geval zou ik deze: pricewatch: Intel 320 120GB halen. Die heeft nog een redelijke GB/euro verhouding; want ik vind ze erg duur voor wat ze hedendaags bieden. Zoals je kunt zien waren ze in het verleden goedkoper.

En pas op met 'exotische' controllers. Mijn advies is om een goed bekende controller die zeker weten in IT mode firmware kan draaien. IBM M1015 is zo slecht nog niet, al zeggen sommigen dat deze warm kan worden, dat moet ik zelf nog testen. Soms kun je met afwijkende controllers tegen beperkingen oplopen. Bovendien zijn de bekende alternatieve goed betaalbaar. 100 euro voor een goede 8-poorts HBA vind ik een redelijke prijs.

[ Voor 42% gewijzigd door Verwijderd op 28-01-2013 21:43 ]


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op maandag 28 januari 2013 @ 21:40:
In dat geval zou ik deze: pricewatch: Intel 320 120GB halen. Die heeft nog een redelijke GB/euro verhouding; want ik vind ze erg duur voor wat ze hedendaags bieden. Zoals je kunt zien waren ze in het verleden goedkoper.

En pas op met 'exotische' controllers. Mijn advies is om een goed bekende controller die zeker weten in IT mode firmware kan draaien. IBM M1015 is zo slecht nog niet, al zeggen sommigen dat deze warm kan worden, dat moet ik zelf nog testen. Soms kun je met afwijkende controllers tegen beperkingen oplopen. Bovendien zijn de bekende alternatieve goed betaalbaar. 100 euro voor een goede 8-poorts HBA vind ik een redelijke prijs.
^^ Met Cipher.

Wat dat betreft is het beter bij 'tried and tested' te blijven. Ik heb zelf goede ervaring met de M1015, het enige gepruts was het re-flashen naar IT mode en daar zijn voldoende goede how-to's voor te vinden. Voor rondom de €100,- krijg je een rebatched LSI SAS2008 die het onder de meeste 'ZFS aware' OS doet (o.a. ZFSguru/OpenIndiana/Solaris Express 11/Linux).

Mbt het warm worden. Zelf geen last van / ervaring mee, maar een wel gemikte langzaam draaiende fan doet wonderen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Verwijderd schreef op vrijdag 25 januari 2013 @ 22:26:
Die kun je niet resetten. Blijft eeuwig zo. Je kunt wel zien of de waarde nog verder toeneemt ja of nee. 35 duizend errors betekent natuurlijk dat je kabel enorm rot was en daar moet je ooit gezeik/problemen mee hebben gehad.
Ik heb de kabel (denk ik) vervangen,een zero write geprobeerd, en nu ise de status:

199 UDMA_CRC_Error_Count 0x000a 167 167 000 - 70277

Ik denk toch dat deze hdd niet helemaal lekker is.
De grote vraag is nu, hoe vind ik welke fysieke hdd dit is ?

In de advanced tab kan ik niet naar de advanced settings kijken:


Information about disk da4

It appears that either the controller or the queried disk does not properly support detailed disk information via the camcontrol identify command.


Kan ik nog ergens achterhalen wat bijvoorbeeld het serienummer is welke door freebsd als DA4 gebruikt wordt ?

In de kernel log zie ik wel wat informatie:

DA4 at mps0 bus 0 scbus0 target 5 lun 0

Al de hdds zitten op 2 stuks m1015. Op 1 controller zitten meer dan 4 drives, target 5 klinkt een beetje als de 2e hdd op de 2e poort. (0-3) op poort 1, en (4-7) op de 2e poort.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Op serienummer... Even met smartctl het serienummer ophalen.

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Dat zou dan: Smartctl -i /dev/ad4 moeten zijn, maar ik krijg een error 127

Ben maar begonnen sata data stekkers los te koppelen en weer te booten. Bij de 1e raak gelukkig.
Die hangt nu aan de intel onboard sata poort en doet weer een full write. Kijken of er nu weer cable errors bijkomen.. Als dat zo is kan hij mee met het exemplaar wat tikt. De leverancier wil hem controleren en ter reparatie aanbieden. Maar zien wat dat wordt, en de ervaring wellicht in de shop survey posten.
Ik kreeg bij mijn doa 4. tB te horen dat ik binnen 8 dagen had moeten reageren voor doa, en dat het nu een garantie afhandeling wordt.
Wel logish, maar ik zat een week bij mijn vrouw in het ziekenhuis i.v.m. de bevalling van onze dochter, dus dat ging even voor..

Full 0 write done.
Geen cable errors erbij, dan is het toch mijn 1 meter lange SFF 8087 naar sata breakout kabel geweest. Moet die maar terug naar de leverancier. Nog wel even de m1015 op die poort testen met een oude 500GB hdd denk ik, om die uit te sluiten.

[ Voor 96% gewijzigd door jacovn op 30-01-2013 21:28 . Reden: Aanvuling format uitslag ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • inSane666
  • Registratie: Juli 2010
  • Laatst online: 22-06-2022
Ik heb nood aan een NAS, en mijn huidige desktop is aan vervanging toe. Beide zullen samen aan of uit staan, dus wil ik ze graag in 1 toestel combineren. Het ZFSGuru promo-team hier op tweakers heeft mij tot FreeBSD-ZFSGuru bekeerd. Geen dedup of comprimeren, wel encryptie en virtualbox (Daarom een cpu/mobo met VT-d en AES-Ni).

Hieronder het 'einddoel', ik zal starten met een pool van 6 schijven (raid-z2), in een tweede stap een SSD toevoegen (het mobo heeft 6+2 sata kanalen dus heb dan de sata controller nog niet nodig) en daarna een tweede pool van 6 schijven raid-z2.

#ProductPrijsSubtotaal
1Intel Core i5 3570 Boxed€ 181,20€ 181,20
1MSI Z77A-GD65€ 142,01€ 142,01
12Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 113,90€ 1.366,80
1Fractal Design Define XL USB 3.0 Black Pearl€ 138,46€ 138,46
1Corsair Vengeance CML32GX3M4A1600C10€ 149,95€ 149,95
1XFX ProSeries 750W XXX Edition€ 91,50€ 91,50
1Intel 320 120GB€ 163,40€ 163,40
Bekijk collectie
Importeer producten
Totaal€ 2.233,32


1)Kan het geheugen ook in stappen of beter onmiddellijk alle dimms vullen? CPU zegt DDR3-1333/1600, mobo veel sneller maar heeft dus geen zin?
2)Is de volgende 'oudere' combinatie misschien beter geschikt (omdat deze gelijklopend is: Sandy intel met VT-d en AES-Ni maar een mobo met mogelijkheid tot 128 RAM), of zal 32RAM en Ivy volstaan, of wachten op een Ivy bridge bord met meer dan 4 dimm sloten?

#ProductPrijsSubtotaal
1Intel Core i7 3820 Boxed€ 262,-€ 262,-
1MSI X79A-GD65 (8D)€ 234,50€ 234,50
Bekijk collectie
Importeer producten
Totaal€ 496,50


3)met http://www.extreme.outervision.com/PSUEngine kom ik op 543W. Een seasonic g 650 is amper te vinden in Belgie, is de XFX een goede vervanger?
4)Ik ben nog op zoek naar een geschikte CPU cooler, sommige exemplaren zijn te groot om ook alle dimms te vullen.
5)alle verdere suggesties en opmerkingen meer dan welkom!

Verwijderd

Pantagruel schreef op maandag 28 januari 2013 @ 23:36:
[...]


^^ Met Cipher.

Wat dat betreft is het beter bij 'tried and tested' te blijven. Ik heb zelf goede ervaring met de M1015, het enige gepruts was het re-flashen naar IT mode en daar zijn voldoende goede how-to's voor te vinden. Voor rondom de €100,- krijg je een rebatched LSI SAS2008 die het onder de meeste 'ZFS aware' OS doet (o.a. ZFSguru/OpenIndiana/Solaris Express 11/Linux).

Mbt het warm worden. Zelf geen last van / ervaring mee, maar een wel gemikte langzaam draaiende fan doet wonderen.
ik heb er 1 in V & A staan voor 90,- :9

[ Voor 6% gewijzigd door Verwijderd op 29-01-2013 18:12 ]


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Ik heb een 400 Watt Fortron voeding die 17 disks kan opspinnen dus wat dat betreft lijkt me het advies van the mask prima :).

  • inSane666
  • Registratie: Juli 2010
  • Laatst online: 22-06-2022
Ok, danku voor de info. Ik heb er een heel klein schepje bijgedaan: de 450 is modulair en komt met 6 sata kabels (360 met 4), hoef ik al niet meer op zoek naar 2 extra kabels

#ProductPrijsSubtotaal
1Intel Core i5 3570 Boxed€ 181,20€ 181,20
1MSI Z77A-GD65€ 142,01€ 142,01
12Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 113,90€ 1.366,80
1Fractal Design Define XL USB 3.0 Black Pearl€ 138,46€ 138,46
1Corsair Vengeance CML32GX3M4A1600C10€ 149,95€ 149,95
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 114,99€ 114,99
1Seasonic G-Serie 450Watt€ 78,99€ 78,99
1Intel 320 120GB€ 163,40€ 163,40
Bekijk collectie
Importeer producten
Totaal€ 2.335,80

Verwijderd

Bedenk je wel dat dat MSI bordje erg duur is en dat de PCI-express slots niet volledig te gebruiken zijn. De specificaties van de fabrikant laten er weinig over los, maar volgens mij kun je hooguit in 8x/4x/4x draaien als je alle drie slots gebruikt. Dus je deelt 16 lanes die je CPU biedt over 48 lanes van je PCI-express poorten, de x1 slots nog niet meegerekend. Houd hier rekening mee!

ASrock B75 is zo slecht nog niet, en minder dan de helft van de prijs van jouw MSI Z77 bord. Valt te overwegen dus: pricewatch: ASRock B75 Pro3-M

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
ZIjn er al mensen die getallen hebben over andere B75 borden? Of is de ASRock gewoon echt de zunigste?

Even niets...


Verwijderd

Hij ondersteunt undervolting, dat doen maar weinig bordjes. Ik kan hem vergelijken met een MSI Z77 micro-ATX bord (Z77-MA uit mijn hoofd). Maar ik denk dat de lage prijs van ASrock en de extra ASmedia chip nog best veel waarde bieden voor zijn prijs. Natuurlijk heb ik ook liever MSI, maar die doet weer geen undervolting en heeft een hogere prijs.

Iemand zei ooit: MSI is zuiniger, maar ASrock kan undervolten; uiteindelijk kom je met dat laatste dus zuiniger uit, maar moet je wel goed testen op stabiliteit.

In elk geval; een kaal modern socket 1155 platform moet rond de 10 watt idle kunnen komen. Veel luxere bordjes gaan daar dik overheen met allerlei extra chips en features en onzuinige VRM met heel veel fasen. Dat wil je juist niet voor een 24/7 NAS die 99% idle zal zijn.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ik zit namelijk te twijfelen om een MSI B75MA-P45 te nemen, maar Undervolten scheelt volgens mij niet zo heel veel hoor... Mux had het er toch over dat die dingen idle toch al uber zuinig zijn...

Of mis ik weer eens wat :+

Er zijn trouwens echt bar weinig goede reviews over borden met een B75 chipset...

Ik zou hopen op een goede roundup :(

Waarom doet Tweakers die nou niet, neem een PicoPSU, een SSD een stel goedkope CPU's en test wat raak :D

[ Voor 34% gewijzigd door FireDrunk op 29-01-2013 20:46 ]

Even niets...


Verwijderd

Zie Stroomverbruik Processor+Moederbord+Geheugen

Ik ging van 12,0 naar 8,5 watt door te undervolten. Dat is dus 3,5W zuiniger maar ook bijna 30% als je het zo bekijkt. Dit is wel op een extreem kaal systeem en met PicoPSU. Wel aan het stopcontact gemeten (Energy Check 3000) dus niet DC maar AC. Ik ben daar toch erg tevreden mee, met een redelijk high-end quadcore chip en ook nog eens onder FreeBSD/ZFSguru getest, terwijl vaak onder Windows wordt getest waarbij de vendor drivers al die stroombesparingstechnieken wel ondersteunen maar onder alternatieve operating systems dit niet vanzelfsprekend is. Zelfs onder Linux (ASPM). Grappig was ook dat de 9.1-004/beta7 build van ZFSguru zuiniger was Ubuntu, idle in elk geval. Dat was in het verleden wel anders!

  • BXL
  • Registratie: Mei 2012
  • Laatst online: 21-12 07:19

BXL

Net dit in bestelling gezet:

#ProductPrijsSubtotaal
1Intel Core i3 3220T Boxed€ 110,10€ 110,10
1ASRock H77 Pro4-M€ 69,45€ 69,45
6Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 113,90€ 683,40
1Cooler Master Silencio 550€ 64,70€ 64,70
2Corsair CMV16GX3M2A1600C11€ 65,-€ 130,-
1be quiet! Straight Power E9 450W€ 74,85€ 74,85
Bekijk collectie
Importeer producten
Totaal€ 1.132,50


Gaat als vervanging dienen voor mijn NAS. De schijven gaan in RaidZ2 draaien. Ik wil eigenlijk ook gaan virtualiseren, ik heb in een VM al e.a. geprobeerd met ZFSGuru 0.2-beta8 en vritualbox(Jaja virtualiseren in een VM ;) ), maar kreeg het niet voorelkaar om meerdere processoren toe te kennen aan de virtualbox, ook leek 64-bit niet te lukken. Mijn vraag is of iemand ervaring heeft met het virtualiseren met virtualbox onder ZFSGuru en of het mogelijk is meerdere procs toe te kennen aan een virtualbox en of het mogelijk is 64-bit te draaien.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Als ik deze site mag geloven:
http://www.ocinside.de/go..._asrock_h77_pro4_mvp.html

Doet de ATX versie van dat bord met een magere voeding (Cooler Master M600) al 16W idle.

Erg goed dus :D

Even niets...


  • BXL
  • Registratie: Mei 2012
  • Laatst online: 21-12 07:19

BXL

Ik hoop dat de micro atx het net zo goed doet en i.c.m. de be quiet! Straight Power E9 450W en de 3220T niet veel meer gaat trekken dan mijn huidige nas.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Hmm, de ASRock H77 Pro4-M doet 16W idle met een Cooler Master M600 las ik niet. Misschien is dat een goed alternatief voor die B75? Heeft iets meer PCIe lanes volgens mij...

Met een PicoPSU moet dat vast wel laag te krijgen zijn :D

Even niets...


  • analog_
  • Registratie: Januari 2004
  • Niet online
Ik heb die H77 omdat er inderdaad meer PCI-e lanes opzitten. Bordje heeft evenveel underclock functionaliteit als zijn b75 broertje. Ik gebruik er twee in combo met G860 processors.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Kijk, dat is goed nieuws. Wat verbruikt ie? En werkt VT-d? :)

[ Voor 17% gewijzigd door FireDrunk op 29-01-2013 22:51 ]

Even niets...


  • Ventieldopje
  • Registratie: December 2005
  • Laatst online: 23:56

Ventieldopje

I'm not your pal, mate!

Na een paar jaar tevreden gebruik te hebben gemaakt van mijn Western Digital Sharespace heb ik nu maar besloten eens een keer zelf een NAS samen te stellen. Dit om toch weer een klein zuinig linux bakje te hebben staan dat naast trouw mijn data opslaat ook makkelijk software op te installeren is zonder dat je normaal gesproken je NAS moet rooten of zoals bij Netgear en Qnap een "package" systeem moet gaan gebruiken.

Momenteel gebruik ik om online backups te maken de software van KPN Online Backup welke dmv. fup een onbeperkte opslag aan backups bied. Aangezien de meeste backups software (inclusief die van KPN) geen backups van netwerk shares ondersteunt zou ik graag de software op mijn nieuwe linux bakje willen draaien. Deze kan dan lekker aan blijven staan 's nachts en in alle rust zijn data overpompen over m'n 100mbit glasvezeltje, zonder al te veel stroom te verbruiken ... ik zie de boompjes buiten al groener worden :)

Nou zag ik wel dat er support was voor Linux maar dan alleen voor de server variant van het pakket, iets wat ik nog even na ga vragen aan hun. Mochten hun niet aan mijn wensen kunnen voldoen om de software onder linux te draaien dan ga ik op zoek naar een andere provider.

Eentje die ik op het oog heb is Crashplan met het Crashplan+ pakket welke oneindig opslag bied zonder fup, voor een nette prijs. Bovendien ondersteunen zij ook Linux. Heeft iemand ervaringen met die provider? Wat ik zo kan zien zijn ze érg goed bezig, ook hun website ziet er goed verzorgt uit zonder ook maar enige opdringerigheid :)

Voordat ik bij KPN de backups ging hosten helaas in zee gegaan met JustCloud ... voordat je daar weer eens van af bent en je geld terug hebt (heb mijn geld nog steeds niet terug :+). Vreselijk bedrijf en maakt alleen winst door mensen een abbo aan te smeren en vervolgens je je geld niet meer terug te geven en 100 mailtjes met smeekbedes te sturen om niet weg te gaan bij hun, blijven paaien met gratis upgrades enzo. |:(

Als OS ga ik waarschijnlijk Arch Linux draaien zonder GUI maar optioneel met X Server / GTK / PekWM (*box variant).

Dit is hem uiteindelijk geworden (de schijven komen uit mijn huidige Sharespace):

#ProductPrijsSubtotaal
1Asus C60M1-I€ 61,-€ 61,-
4Western Digital Caviar Green WD10EAVS, 1TB€ 0,-€ 0,-
1Fractal Design Node 304€ 85,70€ 85,70
1Kingston ValueRAM KVR1333D3S8N9K2/4G€ 23,95€ 23,95
1be quiet! System Power 7 300W€ 33,10€ 33,10
Bekijk collectie
Importeer producten
Totaal€ 203,75


Zodra de onderdelen binnen zijn

www.maartendeboer.net
1D X | 5Ds | Zeiss Milvus 25, 50, 85 f/1.4 | Zeiss Otus 55 f/1.4 | Canon 200 f/1.8 | Canon 200 f/2 | Canon 300 f/2.8


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Bedenk wel dat Crashplan niet snel is, ik hoor overal verhalen dat CrashPlan up en download richting de cloud best traag is...

Even niets...


  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

Je bedoelt van mij en Dadona ;)

Yep, zelfs m'n ADSL upload trekt hij af en toe niet vol, en da's maar 100kB/s.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Gheghe ja dat kan goed :D

Even niets...


  • Ventieldopje
  • Registratie: December 2005
  • Laatst online: 23:56

Ventieldopje

I'm not your pal, mate!

Dat is wel jammer ... ik heb hier namelijk 100/100 glasvezel liggen, lees ook op internet dat het te maken heeft met welke server je op komt te zitten (gebeurt random bij het aanmelden van je pc bij hun?).

Nou gaat het wel alleen op statische data en kan hij 24/7 backuppen wat mij betreft maar het moet geen maanden gaan duren oid ;) Het gaat voornamelijk om RAW bestanden (foto's) die niet wijzigen :)

Ik heb net even verder gekeken en het schijnt dat CeeJay Software (UK) een plan aanbied met Crashplan ProE maar dan met hun eigen cloud servers. Onbeperkt en gehost in de UK, betalen via PayPal.

http://www.ceejay.net/

Wat denken jullie? Mij lijkt het een goeie optie ... Crashplan PROe (met dashboard en 4 devices), UK hosting ... en met de trial haal ik nu ~ 25mbit/s :)

[ Voor 44% gewijzigd door Ventieldopje op 30-01-2013 00:37 ]

www.maartendeboer.net
1D X | 5Ds | Zeiss Milvus 25, 50, 85 f/1.4 | Zeiss Otus 55 f/1.4 | Canon 200 f/1.8 | Canon 200 f/2 | Canon 300 f/2.8


  • analog_
  • Registratie: Januari 2004
  • Niet online
FireDrunk schreef op dinsdag 29 januari 2013 @ 22:46:
Kijk, dat is goed nieuws. Wat verbruikt ie? En werkt VT-d? :)
G860 heeft geen VT-d helaas, ik kan wel zoeken naar de optie in de BIOS. Verbruik zal ik binnenkort weer eens meten, kan enkel cijfers geven van in bios, undervolted, zonder storage. Ik weet dat met twee SSDs en twee HDDs en een infiniband kaart het richting de 50W idle was.

edit:
In het bios staat onder north-bridge opties een read-only veld: VT-d support. In het venster van CPU settings wordt er gesproken van virtualization en vanderbilt technology. Dat zit dus denk ik wel goed.

Wat betreft verbruik ben ik er niet uitgekomen. Het lijkt hetzelfde als vorige keer maar nu zonder seagates, crucials of LSI. Mogelijk veroorzaakt door meting in BIOS ipv. full-blown OS met spindown?
analog_ schreef op vrijdag 07 december 2012 @ 02:26:
  • CPU:-150mV
  • IGP:-100mV
  • RAM:1.35V (ipv. 1.585V)
  • VTT: 0983V +1 standje
  • PCH: 0.854V +1 standje
  • PLL: 1.586V
  • VCCSA: 0.925V
#Product
1Intel Pentium G860 Boxed
1Asrock H77 Pro4-M
2Samsung Spinpoint F1 HD103UJ, 1TB
5Seagate Barracuda Green ST32000542AS, 2TB
1Corsair CMV16GX3M2A1333C9
1be quiet! Pure Power L7 300W
2Crucial m4 CT128M4SSD2 128GB
Bekijk collectie
Importeer producten


Daarnaast zit er nog het volgende in:
  • Voltaire HCA 500ex-d (fw: Mellanox MHGH-28-XTC)
  • IBM M1015 (fw: LSI9220-8i it)
Er worden enkel de 2TB disks in spindown gebracht, er blijven dus twee crucials en twee samsungs draaien. Dit komt neer op 58W volgens mijn meter. Dit lijkt mij nog best redelijk voor wat er aan extra kaarten en disks inzit.

[...]

[ Voor 77% gewijzigd door analog_ op 30-01-2013 02:27 ]


  • B2
  • Registratie: April 2000
  • Laatst online: 06:55

B2

wa' seggie?

BXL schreef op dinsdag 29 januari 2013 @ 21:31:
Net dit in bestelling gezet:

#ProductPrijsSubtotaal
1Intel Core i3 3220T Boxed€ 110,10€ 110,10
1ASRock H77 Pro4-M€ 69,45€ 69,45
6Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 113,90€ 683,40
1Cooler Master Silencio 550€ 64,70€ 64,70
2Corsair CMV16GX3M2A1600C11€ 65,-€ 130,-
1be quiet! Straight Power E9 450W€ 74,85€ 74,85
Bekijk collectie
Importeer producten
Totaal€ 1.132,50


Gaat als vervanging dienen voor mijn NAS. De schijven gaan in RaidZ2 draaien. Ik wil eigenlijk ook gaan virtualiseren, ik heb in een VM al e.a. geprobeerd met ZFSGuru 0.2-beta8 en vritualbox(Jaja virtualiseren in een VM ;) ), maar kreeg het niet voorelkaar om meerdere processoren toe te kennen aan de virtualbox, ook leek 64-bit niet te lukken. Mijn vraag is of iemand ervaring heeft met het virtualiseren met virtualbox onder ZFSGuru en of het mogelijk is meerdere procs toe te kennen aan een virtualbox en of het mogelijk is 64-bit te draaien.
Waarom doe je het dan niet andersom? Virtualiseer ZFSGuru. Is het wel het mooiste als je bv een M1015 voor storage middels VT-d doorgeeft. Heb je wel een andere processor nodig, de i5 3550 ofzo? In ieder geval ook een met VT-d ondersteuning. Volgens mij heeft dat H77 bord VT-d toch?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Inderdaad, BIOS (of UEFI) is niet echt een goed moment om te testen.
Een van de beste tests is een SSDtje met een kale Windows 8 installatie met alleen drivers voor de apparaten die er echt in zitten. (GPU, USB, Chipset).

Als dat niet lukt geeft niet hoor, ik denk dat ik dit setje gewoon ga aanschaffen :)

Oh, en natuurlijjk ook zonder extra randapparatuur/insteekkaarten/disks testen :+

[ Voor 11% gewijzigd door FireDrunk op 30-01-2013 09:35 ]

Even niets...


  • BXL
  • Registratie: Mei 2012
  • Laatst online: 21-12 07:19

BXL

Klopt de H77 heeft VT-d. Maar een van de doelen was om een low power nas/server te maken waarmee ik eventueel kon virtualiseren (heeft dus geen prio maar zou leuk zijn). De keuze voor dit moederbord was wel met een eventueele upgrade naar een proc met VT-d (xeon processor of de door jou genoemde i5) in het achterhoofd, mocht bij mij de wil om te virtualiseren groter worden ;). Ik was dus eigenlijk benieuwd of virtualiseren met virtualbox ook een optie was onder ZFSGuru.

  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

Ventieldopje schreef op woensdag 30 januari 2013 @ 00:09:
Dat is wel jammer ... ik heb hier namelijk 100/100 glasvezel liggen, lees ook op internet dat het te maken heeft met welke server je op komt te zitten (gebeurt random bij het aanmelden van je pc bij hun?).

Nou gaat het wel alleen op statische data en kan hij 24/7 backuppen wat mij betreft maar het moet geen maanden gaan duren oid ;) Het gaat voornamelijk om RAW bestanden (foto's) die niet wijzigen :)

Ik heb net even verder gekeken en het schijnt dat CeeJay Software (UK) een plan aanbied met Crashplan ProE maar dan met hun eigen cloud servers. Onbeperkt en gehost in de UK, betalen via PayPal.

http://www.ceejay.net/

Wat denken jullie? Mij lijkt het een goeie optie ... Crashplan PROe (met dashboard en 4 devices), UK hosting ... en met de trial haal ik nu ~ 25mbit/s :)
Je kunt ook een crashplan host in NL nemen, zoals probackup. Daar kun je dan een HDD naartoe sturen/brengen of anderszins waarschijnlijk ook aanzienlijk sneller backuppen dan naar de VS, waar alles eerst door een decryptor en PATRIOT-arrestatiescript moet worden gedrukt voordat het het land in mag ;)

  • B2
  • Registratie: April 2000
  • Laatst online: 06:55

B2

wa' seggie?

BXL schreef op woensdag 30 januari 2013 @ 11:15:
Klopt de H77 heeft VT-d. Maar een van de doelen was om een low power nas/server te maken waarmee ik eventueel kon virtualiseren (heeft dus geen prio maar zou leuk zijn). De keuze voor dit moederbord was wel met een eventueele upgrade naar een proc met VT-d (xeon processor of de door jou genoemde i5) in het achterhoofd, mocht bij mij de wil om te virtualiseren groter worden ;). Ik was dus eigenlijk benieuwd of virtualiseren met virtualbox ook een optie was onder ZFSGuru.
Met virtualbox heb ik geen ervaring, maar met KVM (Linux) kun je een prima low-power hypervisor maken. Ik ben zelf nu bezig met een hypervisor gebaseerd op een Supermicro X9SCM-F moederbord icm een Xeon 1230. Met ZFSGuru als guest. Het moederbord is niet het zuinigste, en er zit een 450W (gold) voeding in, maar toch doet deze combinatie zo'n 29-30W in idle. Met de Asrock moet je volgens mij lager kunnen komen. Qua CPU maakt het niet uit of je nou de i3 of de i5 neemt.

Maar dit is eigenlijk meer wat voor het Het grote DIY RAID NAS topic deel 3

[ Voor 4% gewijzigd door B2 op 30-01-2013 11:21 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Hoe heb je ZFSguru als guest onder KVM? Geef je de disks direct door aan de guest?
Ik heb namelijk erg veel problemen gehad met ZFS onder KVM... Please do tell more...

Even niets...


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Wauw, volgens mij hebben we nieuwe cheapo toppers :D

pricewatch: Intel Celeron G1610 Boxed


Zoiets:

#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 37,90€ 37,90
2ASRock H77 Pro4-M€ 69,45€ 138,90
2TP-Link TL-SG1008D€ 20,08€ 40,16
4Corsair Vengeance CML16GX3M2A1600C10€ 74,49€ 297,96
Bekijk collectie
Importeer producten
Totaal€ 514,92

[ Voor 82% gewijzigd door FireDrunk op 30-01-2013 12:56 ]

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 06:55

B2

wa' seggie?

FireDrunk schreef op woensdag 30 januari 2013 @ 11:30:
Hoe heb je ZFSguru als guest onder KVM? Geef je de disks direct door aan de guest?
Ik heb namelijk erg veel problemen gehad met ZFS onder KVM... Please do tell more...
Ik geef twee M1015's door dmv VT-d. Langere post volgt later :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ah, ik dacht dat je een vorm van RDM gebruikte :)

Even niets...


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
@firedrunk, er kunnen maar 4 modules in dat moederbord hoor :). De corsairs zijn 2 dimms van 8 GB.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
En er zitten 2 moederborden in het lijstje :)

Is voor een ESXi clustertje waar ik over zit te denken :)

#ProductPrijsSubtotaal
2Intel Celeron G1610 Boxed€ 37,90€ 75,80
2ASRock H77 Pro4-M€ 69,45€ 138,90
2TP-Link TL-SG1008D€ 20,08€ 40,16
4Corsair Vengeance CML16GX3M2A1600C10€ 74,49€ 297,96
2Mini-box picoPSU 80-WI-32V€ 56,95€ 113,90
Bekijk collectie
Importeer producten
Totaal€ 666,72


Zoiets dus.

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 06:55

B2

wa' seggie?

FireDrunk schreef op woensdag 30 januari 2013 @ 12:54:
Ah, ik dacht dat je een vorm van RDM gebruikte :)
Je kunt inderdaad wel raw logical volumes of partities doorgeven, op zich zag ik daar weinig problemen mee, maar je voegt wel een extra laag toe.

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Oh je hebt gelijk inderdaad :). Ik dacht, dat is wel veel geheugen, past dat in een bord met Socket 1155, want die kunnen toch maar 4 DIMMs aan, maar ik zie de fout.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ik had dan ook maar 1 CPU :)

Ik hoop dat deze setjes iets van 15W idle gaan doen :D (en zelfs onder ESXi)

[ Voor 58% gewijzigd door FireDrunk op 30-01-2013 13:28 ]

Even niets...


  • Duskwither
  • Registratie: Maart 2010
  • Laatst online: 21-12 11:24
Vanwaar de keuze voor de H77 Pro4-M, en niet de B75 Pro3-M? Als we het over el cheapo hebben scheelt dat toch weer 20 euro in jouw situatie.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Geen PCI en meer PCIe lanes, en ik verwacht iets zuiniger.

Even niets...


  • CooleSmurf
  • Registratie: Januari 2010
  • Laatst online: 20-12 21:09
Draai nu een maand of 6 Openindia met ZFS (8 * 3 TB RAID10). Openindia is direct op de server geinstalleerd. Deze server krijgt binnenkort een upgrade (Xenon processor) en ik wil graag de Openindia omgeving binnen vmWare draaien zodat ik de server ook voor andere taken/omgevingen kan gebruiken.
Nu ben ik erg tevreden met de Openindiana inrichting (zit veel werk in) en ik vraag me af of ik de huidige installatie integraal kan migreren naar vmWare.
Is dit mogelijk?

Verwijderd

B2 schreef op woensdag 30 januari 2013 @ 08:01:
Waarom doe je het dan niet andersom? Virtualiseer ZFSGuru. Is het wel het mooiste als je bv een M1015 voor storage middels VT-d doorgeeft. Heb je wel een andere processor nodig, de i5 3550 ofzo? In ieder geval ook een met VT-d ondersteuning. Volgens mij heeft dat H77 bord VT-d toch?
Ik vind juist je hoofdOS niet virtualiseren een enorm groot voordeel. In één klap afgelopen met:
  • Lagere performance door virtualisatie, je draait nu 100% native / bare metal
  • Driver issues in ESXi
  • Hogere power consumption doordat ESXi niet alle energiebesparingstechnieken ondersteunt. Dit kan soms erg oplopen; maar is het kleinst op Intel platforms omdat die niet zoveel op softwarematige technieken vertrouwt.
  • Verhaal dat je de chipset poorten - toch de beste SATA poorten die men ooit kán krijgen - niet kunt gebruiken omdat hier de ESXi disk op zit en je kunt alleen hele controllers wel of niet doorgeven met vt-d.
  • Je hebt dus vt-d compatible hardware nodig, inclusief BIOS die dit kan enablen.
  • In geval dat ESXi en FreeBSD een minder gelukkige combinatie zijn, voorkom je alle potentiële problemen tussen deze twee.
Ik vind bare metal draaien en virtualiseren op je ZFS OS dus eigenlijk een véél betere oplossing. Veel minder complexiteit, veel minder wat er mis kan gaan. Je draait gewoon native en virtualbox/qemu draait dan gewoon als applicatie op ZFSguru. Ik zou zeggen beter kan niet; voor ZFS in elk geval. Voor je gevirtualiseerde operating systems is VirtualBox voor licht gebruik wel prima, maar mist features versus ESXi. Ik denk dat VirtualBox voor veel gebruikers echter prima kan zijn.

Eigenlijk vraag ik me af waarom mensen niet vaker deze opstelling draaien, en waarom iedereen voor ESXi gaat. Vroeger dacht ik dat ESXi de mogelijkheid gaf om ook de monitor/videokaart en toetsenbord enzo aan één guest te geven en zo desktop + server te combineren. Maar zelfs dat is niet waar. Dus eigenlijk snap ik niet zo heel goed de charme van ESXi. Het is de meest complexe oplossing die ik alleen zou overwegen als de alternatieven onbeschikt blijken te zijn. Bare metal is altijd beter dan virtualised. Vooral voor je ZFS OS kan dat extra vervelend zijn, omdat die directe toegang tot hardware wilt hebben.
BXL schreef op dinsdag 29 januari 2013 @ 21:31:
Gaat als vervanging dienen voor mijn NAS. De schijven gaan in RaidZ2 draaien. Ik wil eigenlijk ook gaan virtualiseren, ik heb in een VM al e.a. geprobeerd met ZFSGuru 0.2-beta8 en vritualbox(Jaja virtualiseren in een VM ;) ), maar kreeg het niet voorelkaar om meerdere processoren toe te kennen aan de virtualbox, ook leek 64-bit niet te lukken. Mijn vraag is of iemand ervaring heeft met het virtualiseren met virtualbox onder ZFSGuru en of het mogelijk is meerdere procs toe te kennen aan een virtualbox en of het mogelijk is 64-bit te draaien.
Dat is zeker mogelijk; maar niet als je al gevirtualiseerd draait. Je kunt dus niet 'nesten' met 64-bit operating systems. Je kunt maar één keer een 64-bit OS virtualiseren via nested pages en vt-x. Daarna kun je alleen nog maar 32-bit OS virtualiseren. Kortom, dit probleem kom je alleen tegen als je virtualbox gebruikt binnen een virtualbox VM. De guest krijgt dan geen beschikking over nested pages en vt-x, voor zover ik begrijp. Zodra je dus ZFSguru echt hebt geïnstalleerd op een systeem kun je dus gewoon virtualbox gebruiken om 64-bit operating systems te draaien; meerdere ja, alleen niet nested (virtualbox in virtualbox in virtualbox).

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op woensdag 30 januari 2013 @ 16:57:
Eigenlijk vraag ik me af waarom mensen niet vaker deze opstelling draaien, en waarom iedereen voor ESXi gaat.
De populaire keuze.

Zelf kende ik 4 maanden geleden NIETS van virtualisatie en ik kwam via mijn opleiding in contact met VMware, Workstation in mijn geval. Echter was ik daar snel op uitgekeken en ben ik gaan zoeken naar alternatieven, op Wikipedia staat een mooi lijstje wat ondersteund is en dergelijke. Daar concludeerde ik door de technologische voordelen en de toepassing in de bedrijfswereld (waar mijn opleiding naar gericht is) leek me ESXi een goed begin om in het diepere water te springen. Dit had namelijk geen ander OS nodig (waar ik geen zak over wist) en is eigenlijk helemaal niet zo moeilijk.

Ondertussen heb ik me verdiept in FreeNAS, ZFS en een klein beetje in BSD, dus waarschijnlijk zal ik in de toekomst wél oplossingen zoals je aanraad uitproberen, zoals Virtualbox op een ZFS-supported OS. Maar dat zou ik 4 maanden geleden gewoon nooit gedaan hebben omdat ik FreeNAS, ZFS of Virtualbox nog niet eens kende.

  • BXL
  • Registratie: Mei 2012
  • Laatst online: 21-12 07:19

BXL

Dat is zeker mogelijk; maar niet als je al gevirtualiseerd draait. Je kunt dus niet 'nesten' met 64-bit operating systems. Je kunt maar één keer een 64-bit OS virtualiseren via nested pages en vt-x. Daarna kun je alleen nog maar 32-bit OS virtualiseren. Kortom, dit probleem kom je alleen tegen als je virtualbox gebruikt binnen een virtualbox VM. De guest krijgt dan geen beschikking over nested pages en vt-x, voor zover ik begrijp. Zodra je dus ZFSguru echt hebt geïnstalleerd op een systeem kun je dus gewoon virtualbox gebruiken om 64-bit operating systems te draaien; meerdere ja, alleen niet nested (virtualbox in virtualbox in virtualbox).
Bedankt CiPHER dat was eigenlijk percies het antwoord waar ik naar opzoek was :D

Ik had eigenlijk al het idee dat het kwam door het draaien van virtualbox binnen VMWare.

[ Voor 5% gewijzigd door BXL op 30-01-2013 17:17 ]


Verwijderd

@Phuncz: dank voor je reactie! Als ik het goed begrijp dus vooral een 'learning experience'. Dat is natuurlijk een heel goede reden om ESXi te gebruiken en zeker als je bedrijfsmatig die kant op gaat ligt het voor de hand dat je je op proprietary oplossingen richt in plaats van open source; aangezien in het bedrijfsleven open source vaak toch een onwennige combinatie is.

Virtualbox vind ik ook niet super, al gaat het wel vooruit en werkt het opzich prima. Waar ik zelf naar uit kijk is deftige Xen ondersteuning in FreeBSD. Met name Xen dom0 zodat je ZFSguru als hoofd OS hebt en met Xen hypervisor guest VMs kunt draaien. Theoretisch kan daarbij ook de videokaart worden doorgegeven zodat je desktop + server kunt combineren op één systeem. Ik weet niet of ik die complexiteit wel een goed idee vind, maar goede Xen ondersteuning zou voor veel mensen toch heel interessant kunnen zijn. Ook BHyVe heeft mogelijk een goede toekomst als dit de hypervisor of choice gaat worden onder BSD. Voorlopig boot die echter nog enkel FreeBSD. :P

Maar één ding is zeker: als je ZFS OS zonder virtualisatie draait, heb je potentiëel veel minder kans op problemen of beperkingen. Dus een oplossing waarbij het ZFS OS zelf niet gevirtualiseerd wordt en dus als hoofd OS draait, vind ik eigenlijk de beste setup. Maar dat is mijn mening/instelling/gevoel. Ik ben heel benieuwd hoe jullie daar over denken!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Verwijderd schreef op woensdag 30 januari 2013 @ 16:57:
[...]

Ik vind juist je hoofdOS niet virtualiseren een enorm groot voordeel. In één klap afgelopen met:
[list]• Lagere performance door virtualisatie, je draait nu 100% native / bare metal
ESXi is een bare-metal hypervisor, verschil is dus miniem.
• Driver issues in ESXi
Que? ik heb meer driver issues gezien in FreeBSD dan in ESXi :)
• Hogere power consumption doordat ESXi niet alle energiebesparingstechnieken ondersteunt. Dit kan soms erg oplopen; maar is het kleinst op Intel platforms omdat die niet zoveel op softwarematige technieken vertrouwt.
ESXi is zuiniger of even zuinig als FreeBSD hier. (laatste keer dat ik testte met 9.0 denk ik)
• Verhaal dat je de chipset poorten - toch de beste SATA poorten die men ooit kán krijgen - niet kunt gebruiken omdat hier de ESXi disk op zit en je kunt alleen hele controllers wel of niet doorgeven met vt-d.
• Je hebt dus vt-d compatible hardware nodig, inclusief BIOS die dit kan enablen.
• In geval dat ESXi en FreeBSD een minder gelukkige combinatie zijn, voorkom je alle potentiële problemen tussen deze twee.[/list]
Ik vind bare metal draaien en virtualiseren op je ZFS OS dus eigenlijk een véél betere oplossing. Veel minder complexiteit, veel minder wat er mis kan gaan. Je draait gewoon native en virtualbox/qemu draait dan gewoon als applicatie op ZFSguru. Ik zou zeggen beter kan niet; voor ZFS in elk geval. Voor je gevirtualiseerde operating systems is VirtualBox voor licht gebruik wel prima, maar mist features versus ESXi. Ik denk dat VirtualBox voor veel gebruikers echter prima kan zijn.

Eigenlijk vraag ik me af waarom mensen niet vaker deze opstelling draaien, en waarom iedereen voor ESXi gaat. Vroeger dacht ik dat ESXi de mogelijkheid gaf om ook de monitor/videokaart en toetsenbord enzo aan één guest te geven en zo desktop + server te combineren. Maar zelfs dat is niet waar. Dus eigenlijk snap ik niet zo heel goed de charme van ESXi. Het is de meest complexe oplossing die ik alleen zou overwegen als de alternatieven onbeschikt blijken te zijn. Bare metal is altijd beter dan virtualised. Vooral voor je ZFS OS kan dat extra vervelend zijn, omdat die directe toegang tot hardware wilt hebben.
Op zich wel eens met de rest, alleen is de beheerbaarheid van ESXi gewoon enorm veel beter.
Duidelijkere interface, makkelijker te configureren, makkelijker ISO's mounten en noem maar op.

Bovendien is de netwerk, IO, en CPU performance gewoon stukken beter dan die van VirtualBox.
[...]
Dat is zeker mogelijk; maar niet als je al gevirtualiseerd draait. Je kunt dus niet 'nesten' met 64-bt operating systems. Je kunt maar één keer een 64-bit OS virtualiseren via nested pages en vt-x. Daarna kun je alleen nog maar 32-bit OS virtualiseren. Kortom, dit probleem kom je alleen tegen als je virtualbox gebruikt binnen een virtualbox VM. De guest krijgt dan geen beschikking over nested pages en vt-x, voor zover ik begrijp. Zodra je dus ZFSguru echt hebt geïnstalleerd op een systeem kun je dus gewoon virtualbox gebruiken om 64-bit operating systems te draaien; meerdere ja, alleen niet nested (virtualbox in virtualbox in virtualbox).
Dat is niet waar volgens mij, dat ligt er aan welke CPU instructies je doorgeeft aan de VM.
Je kan ESXi ook onder ESXi draaien.. en daar zelfs weer een ESXi in draaien.

Dat heet bij VMWare Virtual HyperVisor. En dat vereist voor zover ik weet toch echt een 64-bit guest met VT-x ondersteuning.

Even niets...

Pagina: 1 ... 118 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.