Acties:
  • 0 Henk 'm!

Verwijderd

Dan wordt je netwerkadapter inderdaad niet herkend. Je kunt eens proberen om een nieuwere systeemversie te gebruiken. Boot je USB stick op een andere computer waarvan de netwerkadapter wel wordt herkend. Eenmaal geboot, kun je ZFSguru installeren op een 2e USB stick. Tijdens de eerste stap van de installatie kun je je versie kiezen. Kies de nieuwste versie van de 10.3 branch: 10.3.005.

Als je netwerkadapter dan wel wordt herkend, weet je dat je (minimaal) 10.3 nodig hebt en niet 10.2. Met de nieuw geinstalleerde USB stick kun je vervolgens ook weer booten en ook weer een installatie uitvoeren.

Acties:
  • 0 Henk 'm!

  • V9 Ghost
  • Registratie: Juni 2009
  • Laatst online: 14-09 15:35
Erg bedankt voor alle hulp.
Ik zal eens kijken of dat werkt en laat nog weten hoever ik kom.

Acties:
  • 0 Henk 'm!

  • jantje112
  • Registratie: Maart 2002
  • Laatst online: 24-09 20:38
Vandaag bezig geweest om de laatste versie van Rockstor te installeren. Xeon 1225 24gb ecc, (poweredge t20)

Helaas herkent de VM van rockstor de sas controller niet (h310 op p20 firmware IT) schijnt een bug te zijn in de laatste kernel releases :(

Iemand het hier wel draaien op esxi?

Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
jantje112 schreef op vrijdag 08 januari 2016 @ 09:53:
Vandaag bezig geweest om de laatste versie van Rockstor te installeren. Xeon 1225 24gb ecc, (poweredge t20)

Helaas herkent de VM van rockstor de sas controller niet (h310 op p20 firmware IT) schijnt een bug te zijn in de laatste kernel releases :(

Iemand het hier wel draaien op esxi?
Even iets anders, ik las overal dat de P20 FW niet heel stabiel is en dat je beter P19 kunt gebruiken.

https://www.google.nl/sea...O9mWsMgD#q=lsi+p20+issues

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • jantje112
  • Registratie: Maart 2002
  • Laatst online: 24-09 20:38
rikadoo schreef op vrijdag 08 januari 2016 @ 10:06:
[...]


Even iets anders, ik las overal dat de P20 FW niet heel stabiel is en dat je beter P19 kunt gebruiken.

https://www.google.nl/sea...O9mWsMgD#q=lsi+p20+issues
Heb ik gezien, echter is vanaf freenas 9.3.1 het wel de aangeraden firmware. vanaf de p20.0.0.4 schijnt het op zich ok te zijn.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
thibautb schreef op woensdag 06 januari 2016 @ 21:43:
[afbeelding]


En nee ik heb geen back up van mijn pool ;(

Ik ken ook niet zo veel van de software en "vak jargon" wat hier wordt gebruikt op freenas. Jullie kan ik nog wel verstaan dus verwacht niet dat ik al dingen heb gedaan die misschien normaal zijn voor sommigen van jullie...
Heb je al een update voor ons eigenlijk? Ik ben heel benieuwd naar je probleem of de oorzaak er van en of we het nog kunnen herstellen.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op donderdag 07 januari 2016 @ 19:34:
Dan wordt je netwerkadapter inderdaad niet herkend. Je kunt eens proberen om een nieuwere systeemversie te gebruiken. Boot je USB stick op een andere computer waarvan de netwerkadapter wel wordt herkend. Eenmaal geboot, kun je ZFSguru installeren op een 2e USB stick. Tijdens de eerste stap van de installatie kun je je versie kiezen. Kies de nieuwste versie van de 10.3 branch: 10.3.005.

Als je netwerkadapter dan wel wordt herkend, weet je dat je (minimaal) 10.3 nodig hebt en niet 10.2. Met de nieuw geinstalleerde USB stick kun je vervolgens ook weer booten en ook weer een installatie uitvoeren.
V9 Ghost schreef op donderdag 07 januari 2016 @ 19:45:
Erg bedankt voor alle hulp.
Ik zal eens kijken of dat werkt en laat nog weten hoever ik kom.
Jammer dat Gigabyte zo weinig info geeft over de gebruikte NIC, de website mompelt over een Intel GBe nic en de driver package die je kunt downloaden omvat een hele reeks netwerk controllers:
Intel(R) Network Connections Software Version 20.2 Release Notes
================================================================
June 25, 2015

This release includes software and drivers for Intel(R) PRO/100,
Intel(R) Gigabit, and Intel(R) 10GbE network adapters and integrated
network connections.
Als je hebt, wellicht ff en linux boot-cd/stick gebruiken en mbv lspci uitvinden welke Intel chip in gebruik is.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

Kun je toch gewoon onder BSD doen? pciconf -lv

En ik verwacht dat de adapter wel al werkt met 10.3. Ik heb ook een bordje (pricewatch: ASRock Q1900TM-ITX) met Marvell netwerkchip die alleen op 10.3 werkt.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
HyperBart schreef op vrijdag 08 januari 2016 @ 15:06:
[...]

Heb je al een update voor ons eigenlijk? Ik ben heel benieuwd naar je probleem of de oorzaak er van en of we het nog kunnen herstellen.
Mijn update is dat ik geen enkele manier vond met wzt hier gesugereerd werd. Ik had de pool opnieuw gemount en het bleef hetzelfde en aangezien de data er op zo veel was dat ik het in 8 maanden met 4tb limiet moest downloaden terug dus heb ik het opgegeven en 8/10 van mijn plex server te koop gezet hier op en dan heb ik met de rest van mijn onderdelen die ik nog rond heb liggen gewoon een windows machine gemaakt met 4 4tb schijven gewoon in jbod en laat ik het zo lopen.


Maar dus als er dus geintresseerde zijn ik heb nog een 4u 24 bay xcase met sas expander te koop voor 450€ incl psu.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
thibautb schreef op vrijdag 08 januari 2016 @ 16:15:
[...]


Mijn update is dat ik geen enkele manier vond met wzt hier gesugereerd werd. Ik had de pool opnieuw gemount en het bleef hetzelfde en aangezien de data er op zo veel was dat ik het in 8 maanden met 4tb limiet moest downloaden terug dus heb ik het opgegeven en 8/10 van mijn plex server te koop gezet hier op en dan heb ik met de rest van mijn onderdelen die ik nog rond heb liggen gewoon een windows machine gemaakt met 4 4tb schijven gewoon in jbod en laat ik het zo lopen.


Maar dus als er dus geintresseerde zijn ik heb nog een 4u 24 bay xcase met sas expander te koop voor 450€ incl psu.
Euh ok, das wel een heel drastische beslissing :o , jammer, want volgens mij was het niet zo onherstelbaar als het moest uitschijnen, ik gok dat CiPHER wel graag de problemen had willen zien of helpen oplossen, net zoals ik want je bent een van de eerste die echt een harde faal heeft met een filesystem wat we hier HEEL hard aanprijzen als robuust en met data-integriteit op kop.
We zijn bekend met verhalen dat de ZIL op een SLOG zetten die niet tegen powerfailures kan een pool onherstelbare schade kan opleveren, maar een powerfailure met een pool met een set reguliere disks nog niet.

Zie je het zitten om samen met ons er nog even naar te kijken?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Het idee is dat wat je file system betreft je met ZFS juist minder risico loopt op gedonder omdat door COW de integriteit van het file system altijd in orde blijft.

Als je nog niet alles hebt vernietigd, zou ik juist even contact zoeken met genoemde mensen die even kunnen mee kijken om te zien of er wat te redden is. Of gebruik dit topic gewoon even.

Gooi niet direct de handdoek in de ring zou ik zeggen, dat is zonde.

[ Voor 17% gewijzigd door Q op 08-01-2016 16:47 ]


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
HyperBart schreef op vrijdag 08 januari 2016 @ 16:35:
[...]

Euh ok, das wel een heel drastische beslissing :o , jammer, want volgens mij was het niet zo onherstelbaar als het moest uitschijnen, ik gok dat CiPHER wel graag de problemen had willen zien of helpen oplossen, net zoals ik want je bent een van de eerste die echt een harde faal heeft met een filesystem wat we hier HEEL hard aanprijzen als robuust en met data-integriteit op kop.
We zijn bekend met verhalen dat de ZIL op een SLOG zetten die niet tegen powerfailures kan een pool onherstelbare schade kan opleveren, maar een powerfailure met een pool met een set reguliere disks nog niet.


Zie je het zitten om samen met ons er nog even naar te kijken?
Ja, dit weekend nog wel. Maar ik heb al een deel verkocht wat ik maandag ga verzenden. Mij maakt het niet meer zo veel uit. Ik ben nog paar 17 en had heel die server met vakantie geld gekocht. Dus nu heb ik terug wat geld en ga dan een nieuw avontuur tegemoet. Genaamd een dji f550 drone :). Dus als jullie het wel interessant zouden vinden om even ernaar te kunnen kijken en jullie daarmee te helpen wil ik het zeker wel doen.

Het was een drastische beslissing maar nu niet dat ik er iets veel nood aan had. Het was gewoon een soort achievement om het te kunnen maken en te laten werken. Eerder iets voor als ik later ga werken dat ik dat op mijn cv kan zetten en het ook echt kan.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Maar zodra je even tegenslag krijgt geef je op? Ga je dat ook op je CV zetten ;)
Paar disks in een server gooien is niet zo'n probleem.

Het gaat er om wat je kunt als dingen fout gaan. Kun je dan de boel weer fixen.

[ Voor 46% gewijzigd door Q op 08-01-2016 17:04 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
Wat heb je al verkocht? Je disks toch nog niet? :o

Top, start die server eens terug op en doe eens:

zpool import -d /dev/disk

Geef de output daar eens van en als het commando terugkomt dat de pool geïmporteerd kan worden, probeer dat dan eens. Niet -f gebruiken tot je de de output er van gepost hebt.

Als dat niet werkt, probeer dan eens een paar disks van je "kapotte" pool in slots te steken waar nu je disks in steken van de pool die wel werkt, god mag weten dat je backend gefrituurd is.

Zoals CiPHER aangaf is het raar dat een pool opeens "weg" is en niet meer wordt weergegeven. Zelfs al heb je een pool van 24 disks en zijn er daar maar 1 of 2 van online, dan gaat ZFS nog altijd zeggen dat het stuk is tot alle disks met redundantie voldoende online zijn. Ik weet niet wat het gedrag is als er totaal geen disks meer zijn en kan het ook niet testen omdat ik zelf wat probleempjes heb met ZFS modules en het al dan niet automounten, dat terzijde.

Er zijn hier een paar oudgedienden die snel kunnen antwoorden en ik zou wel eens heel graag willen weten of een stroompanne in dit geval nu zo fataal is of was.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
HyperBart schreef op vrijdag 08 januari 2016 @ 17:02:
[...]


Wat heb je al verkocht? Je disks toch nog niet? :o

Top, start die server eens terug op en doe eens:

zpool import -d /dev/disk

Geef de output daar eens van en als het commando terugkomt dat de pool geïmporteerd kan worden, probeer dat dan eens. Niet -f gebruiken tot je de de output er van gepost hebt.

Als dat niet werkt, probeer dan eens een paar disks van je "kapotte" pool in slots te steken waar nu je disks in steken van de pool die wel werkt, god mag weten dat je backend gefrituurd is.

Zoals CiPHER aangaf is het raar dat een pool opeens "weg" is en niet meer wordt weergegeven. Zelfs al heb je een pool van 24 disks en zijn er daar maar 1 of 2 van online, dan gaat ZFS nog altijd zeggen dat het stuk is tot alle disks met redundantie voldoende online zijn. Ik weet niet wat het gedrag is als er totaal geen disks meer zijn en kan het ook niet testen omdat ik zelf wat probleempjes heb met ZFS modules en het al dan niet automounten, dat terzijde.

Er zijn hier een paar oudgedienden die snel kunnen antwoorden en ik zou wel eens heel graag willen weten of een stroompanne in dit geval nu zo fataal is of was.
Een deel van mijn disks wel aangezien ik kleiner opnieuw ging beginnen. Maar ik zal het straks eens doen. De disks zijn wel leesbaar aangezien als ik hem opstart er 15 virtual disks worden herkent en dat zijn alle disks die ik er in heb steken.

Ik heb ze wel allemaal nog hoor.

Acties:
  • 0 Henk 'm!

  • V9 Ghost
  • Registratie: Juni 2009
  • Laatst online: 14-09 15:35
Verwijderd schreef op donderdag 07 januari 2016 @ 19:34:
Dan wordt je netwerkadapter inderdaad niet herkend. Je kunt eens proberen om een nieuwere systeemversie te gebruiken. Boot je USB stick op een andere computer waarvan de netwerkadapter wel wordt herkend. Eenmaal geboot, kun je ZFSguru installeren op een 2e USB stick. Tijdens de eerste stap van de installatie kun je je versie kiezen. Kies de nieuwste versie van de 10.3 branch: 10.3.005.

Als je netwerkadapter dan wel wordt herkend, weet je dat je (minimaal) 10.3 nodig hebt en niet 10.2. Met de nieuw geinstalleerde USB stick kun je vervolgens ook weer booten en ook weer een installatie uitvoeren.
Daar ben ik weer.

Ik heb 10.3.003, 10.3.004 en 11.0.004 geprobeerd met steeds hetzelfde resultaat, geen ip.

Ik zit nu serieus te denken om een oudere pci-e kaartje te kopen met de hoop dat die wel wordt ondersteund. Of moet ik het niet in die richting zoeken?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
thibautb schreef op vrijdag 08 januari 2016 @ 17:09:
[...]


Een deel van mijn disks wel aangezien ik kleiner opnieuw ging beginnen. Maar ik zal het straks eens doen. De disks zijn wel leesbaar aangezien als ik hem opstart er 15 virtual disks worden herkent en dat zijn alle disks die ik er in heb steken.
Dat is toch al heel positief, dan wordt het al wat rooskleuriger en is de kans dat je backend dood is al wat kleiner.

Ben benieuwd.

Acties:
  • 0 Henk 'm!

Verwijderd

V9 Ghost schreef op vrijdag 08 januari 2016 @ 17:10:
[...]


Daar ben ik weer.

Ik heb 10.3.003, 10.3.004 en 11.0.004 geprobeerd met steeds hetzelfde resultaat, geen ip.

Ik zit nu serieus te denken om een oudere pci-e kaartje te kopen met de hoop dat die wel wordt ondersteund. Of moet ik het niet in die richting zoeken?
Je kunt deze NIC kopen die zeker weten gaat werken: pricewatch: Intel Gigabit CT Desktop Adapter

Maar enigszins zonde dat je je onboard Intel NIC niet kunt gebruiken. Je hebt 10.3.005 nog niet geprobeerd. Je zou eventueel de 10.3.006 build kunnen proberen die binnenkort uitkomt.

Maar zou je nog wel een uitdraai kunnen maken van je huidige onboard NIC? Dan kan ik kijken of FreeBSD nu al wel ondersteuning heeft voor jouw NIC. De gegevens die ik nodig heb, kun je vinden met commando:

pciconf -lv

Je kunt mij een DM sturen met de volledige lijst. Of specifiek zoeken naar de netwerkinterface. Bij mij bijvoorbeeld:

code:
1
2
3
4
5
igb0@pci0:2:0:0:    class=0x020000 card=0x153315d9 chip=0x15338086 rev=0x03 hdr=0x00
    vendor     = 'Intel Corporation'
    device     = 'I210 Gigabit Network Connection'
    class      = network
    subclass   = ethernet

Met name de eerste regel is belangrijk, daarmee kan ik gericht zoeken.

Acties:
  • 0 Henk 'm!

  • V9 Ghost
  • Registratie: Juni 2009
  • Laatst online: 14-09 15:35
Ik denk dat ik die NIC wel ga halen, zit al namelijk bijna twee maanden met mijn media storage down i.v.m een kapotte IBM M1015 en zwaar verouderde 775 platform.

Uiteindelijk dit nieuw systeempje samengesteld, en heb ik het weer dat de NIC niet wordt herkend.

Ik zal wel blijven kijken naar een oplossing voor de onboard NIC i.v.m met toekomstige versies van zfsguru.

En over die 10.3.005 die kon ik in de lijst niet vinden of heb ik die totaal gemist.

Ik heb wel even snel die pciconf -lv met 10.3.004 geprobeerd maar ik denk niet dat mijn NIC ertussen stond.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat moet eigenlijk wel. :)
Of je hebt je NIC in je BIOS uitgeschakeld; maar dat lijkt me van niet?

Wat krijg je als je doet:

pciconf -lv | grep ethernet

Merk op het is -LV maar dan met kleine letters. Dus de kleine L niet een hoofdletter i.

Acties:
  • 0 Henk 'm!

  • V9 Ghost
  • Registratie: Juni 2009
  • Laatst online: 14-09 15:35
Met pciconf -lv grep ethernet krijg ik het volgende:

none4@pci0:0:31:6: class=0x020000 card=0xe0001458 chip=0x15b88086 rev=0x31
hdr=0x00

vendor = 'Intel Corporation'
device = 'Ethernet Connection (2) I219-V'
class = network
subclass = ethernet

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

thibautb schreef op vrijdag 08 januari 2016 @ 17:09:
[...]


Een deel van mijn disks wel aangezien ik kleiner opnieuw ging beginnen. Maar ik zal het straks eens doen. De disks zijn wel leesbaar aangezien als ik hem opstart er 15 virtual disks worden herkent en dat zijn alle disks die ik er in heb steken.

Ik heb ze wel allemaal nog hoor.
HyperBart schreef op vrijdag 08 januari 2016 @ 17:13:
[...]


Dat is toch al heel positief, dan wordt het al wat rooskleuriger en is de kans dat je backend dood is al wat kleiner.

Ben benieuwd.
Niet bij de pakken neer zitten, mik er eens een ZFSguru boot cd in en doe een scan voor pools (je kunt zelfs voor hidden pool zoeken als ik t juist heb). Met wat geluk worden zo wel je A als B pool gevonden.
Ik weet niet (als in heb er geen ervaring mee) in hoeverre je mbv ZFSguru een mild beschadigde pool kunt herstellen, maar een import onder ZFSguru lijkt me geen kwaad te kunnen (onder t motto nee heb je, ja kun je krijgen). Wellicht kun je hierna de beide pools zonder gemekker weer benaderen met je oude setup.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

@V9 Ghost: Ah de i219-V adapter (SkyLake). Die is nog niet ondersteund, zelfs niet in -CURRENT. Er is wel ondersteuning voor, maar de patch die dit moest regelen zorgt ervoor dat andere Intel hardware niet goed meer functioneert. Om die reden is de commit die ondersteuning toevoegt, weer teruggedraaid. Het laatste nieuws (8 januari) is dat een Intel developer is toegevoegd voor ondersteuning. Zie: https://reviews.freebsd.org/D3163.

In de praktijk betekent dit dat je nog wel even moet wachten voordat het werkt. Denk aan eind januari of februari ofzo.

Een PRO/1000 CT kaartje halen, zoals ik heb gelinkt naar de pricewatch in een voorgaande post, is denk ik het beste. Een dergelijk kaartje kun je later altijd in een andere computer gebruiken waar bijvoorbeeld een Realtek-adapter in zit. Want Intel is wel beter dan Realtek, ook al werken sommige Realteks prima.

Acties:
  • 0 Henk 'm!

  • V9 Ghost
  • Registratie: Juni 2009
  • Laatst online: 14-09 15:35
Bedank voor de info CiPHER.

Ik zal de ontwikkeling in de gaten houden. Ondertussen heb ik de Intel Gigabit CT besteld.
En wat je zegt zo'n losse intel NIC kan ik later altijd ergens anders gebruiken.

Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Klein vraagje, weet niet zogoed waar ik dit kan plaatsen hier of in het ESXi server topic, in ieder geval, ik wil een beetje gaan spelen met ESXi en eventueel iets anders virtueel (proxmox, xenserver). Nu heb ik een nas staan met bare XPenology:

#ProductPrijsSubtotaal
1Intel Pentium G3420 Boxed€ 68,90€ 68,90
1MSI H97M-G43€ 89,50€ 89,50
4Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 92,95€ 371,80
3Toshiba DT01ABA300, 3TB€ 0,-€ 0,-
1Cooler Master N400 KKN1€ 51,39€ 51,39
1Silverstone SST-CP06 4x SATA€ 7,99€ 7,99
1Crucial Ballistix BLS2CP4G3D1609DS1S00CEU€ 35,95€ 35,95
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 213,61€ 213,61
1Seasonic G-Serie 360Watt€ 55,95€ 55,95
Bekijk collectie
Importeer producten
Totaal€ 895,09


Ik heb afgelopen week een leuk begin setje gekocht, namelijk:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 61,-€ 61,-
1Gigabyte GA-B150M-D3H€ 80,95€ 80,95
1Seagate Desktop HDD ST3000DM001, 3TB€ 92,95€ 92,95
1Crucial CT8G4DFD8213€ 37,95€ 37,95
1Crucial m4 CT128M4SSD2 128GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 272,85


Mijn bedoeling was om de NAS om te zetten naar virtueel en dan ESXi draaien om vervolgens de huidige CPU, Mobo, Geheugen te verkopen.

Of zal ik een voeding en een leuk klein kastje halen en de ESXi server appart houden?
Wat is jullie mening hierover?

[ Voor 5% gewijzigd door rikadoo op 10-01-2016 14:21 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
thibautb schreef op vrijdag 08 januari 2016 @ 17:09:
[...]


Een deel van mijn disks wel aangezien ik kleiner opnieuw ging beginnen. Maar ik zal het straks eens doen. De disks zijn wel leesbaar aangezien als ik hem opstart er 15 virtual disks worden herkent en dat zijn alle disks die ik er in heb steken.

Ik heb ze wel allemaal nog hoor.
En? Enig resultaat of feedback?

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
HyperBart schreef op zondag 10 januari 2016 @ 15:14:
[...]


En? Enig resultaat of feedback?
Via zfsguru heb ik delen terug gekregen van mijn A pool. Niet alles er waren terrabytes die corrupt waren geworden maar ongeveer 70% was nog leesbaar. Die heb ik dan overgebracht naar mijn kleinere nas en dus is het half goed gekomen.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
thibautb schreef op zondag 10 januari 2016 @ 15:46:
[...]

Via zfsguru heb ik delen terug gekregen van mijn A pool. Niet alles er waren terrabytes die corrupt waren geworden maar ongeveer 70% was nog leesbaar. Die heb ik dan overgebracht naar mijn kleinere nas en dus is het half goed gekomen.
Ah, euh ok :) . Had je nog wat outputs voor ons dan tijdens je imports en dergelijke? Er zijn namelijk wel wat mensen benieuwd naar je hele verhaal en issues... :) :> en wat er allemaal gebeurt is natuurlijk...

Toch al positief lijkt me dat je 70% van je media-data terug hebt, scheelt je wat downloaden. Ik zou me zwaar voor het hoofd slaan als dat met eigen data zoals beeldmateriaal van de familie gebeurt, maar in dit geval lijkt het allemaal mee te vallen...

[ Voor 23% gewijzigd door HyperBart op 10-01-2016 15:50 ]


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
HyperBart schreef op zondag 10 januari 2016 @ 15:48:
[...]


Ah, euh ok :) . Had je nog wat outputs voor ons dan tijdens je imports en dergelijke? Er zijn namelijk wel wat mensen benieuwd naar je hele verhaal en issues... :) :> en wat er allemaal gebeurt is natuurlijk...

Toch al positief lijkt me dat je 70% van je media-data terug hebt, scheelt je wat downloaden. Ik zou me zwaar voor het hoofd slaan als dat met eigen data zoals beeldmateriaal van de familie gebeurt, maar in dit geval lijkt het allemaal mee te vallen...
Outputs? Ik ben niet zo een technologisch hoogstandje dat ik alles wat er wordt gezegd ook begrepen wordt. Maar ik heb dis gewoon mijn freenas usb er uitgehaald, een nieuwe boota le usb aangemaakt met zfsguru dan hem laten zoeken naar pools die al bestonden en dan vond hij mijn a pool. Dan wat wachten verder keek ik in de netwerkfolder en zag dat er daar terug alle mappen met alle media stonden en heb ik gewoon een steekproef gedaan bij een 30 tal afleveringen en dan werkte daar toch een 20 tal goed van en bij de rest was er heel wat fout aan zoals blauwe blokjes of geen geluid, etc.

Acties:
  • +1 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
thibautb schreef op zondag 10 januari 2016 @ 15:59:
[...]


Outputs? Ik ben niet zo een technologisch hoogstandje dat ik alles wat er wordt gezegd ook begrepen wordt.
Waarom vraag je dan niet wat uitleg :? daarvoor zijn we er toch me dunkt?

Met outputs bedoelde ik/we die zwarte venstertjes die je in het begin hebt gepost.

zpool status 


als commando ingeven als je een SSH sessie start naar je NAS.
Maar ik heb dis gewoon mijn freenas usb er uitgehaald, een nieuwe boota le usb aangemaakt met zfsguru dan hem laten zoeken naar pools die al bestonden en dan vond hij mijn a pool.
"Vond". Dat klinkt al goed, toen heb je dus tegen ZFSguru ergens toch gezegd "importeer maar", wat kwam daar van terug? Alles online, groen groen en nergens warnings oid?
Dan wat wachten verder keek ik in de netwerkfolder en zag dat er daar terug alle mappen met alle media stonden en heb ik gewoon een steekproef gedaan bij een 30 tal afleveringen en dan werkte daar toch een 20 tal goed van en bij de rest was er heel wat fout aan zoals blauwe blokjes of geen geluid, etc.
Heb je dan uberhaupt wel eens aangemeld op de ZFSguru interface en je pool status eens geïnspecteerd? Zo ja, post dan eens een screenshot.

Toen je de pool importeerde in zfsguru, wat gaf hij toen? Waren al je disks toen online (dat zie je redelijk eenvoudig, of kunnen we nu nog altijd zien als je het bovenstaande commando ingeeft en de data dier uit terugkomt hier even copy pasted) Errors?
Files die al direct gemeld werden dat ze kapot waren?
Heb je eens een scrub gedaan of iets dergelijke zoals CiPHER vroeg/voorstelde?
Daarmee laat je als het ware ZFS eens alle data nalopen op gekkigheid.

Wat jij hier meegemaakt hebt lijkt me echt een major failure van hardware en we (althans ik toch) staan er toch even van te kijken dat ZFS zo hard op zijn bek is gegaan.

Begrijp me nu helemaal niet verkeerd, maar het lijkt alsof je als een malle/ongecontroleerde hebt zitten klussen, geprobeerd, wat geklikt, gezien dat je data een beetje terug kwam, data overgekopieerd en klaar ;w . Als we die pool status eens hadden gezien (wil je die aub even posten? for our humor) zoals je in het begin via je command line had laten zien toen je het probleem meldde dan hebben we er ook nog wat aan natuurlijk en kunnen we misschien 100% of toch wat meer dan 70% data laten recupereren. Ik wil je heel graag helpen als je hier wat feedback post, maar soms ga je als een speer door de hele situatie zonder even te interpreteren wat er terugkomt lijkt me. Daar willen wij je heel graag bij helpen, maar dan ga je het wat rustiger moeten aanpakken en ons per stadium of stapje wat informatie moeten teruggeven...

[ Voor 24% gewijzigd door HyperBart op 10-01-2016 16:13 ]


Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 24-09 13:15
En als toevoeging op HyberBart: andere noobs kunnen er ook van leren. Ik was (ben bang dat het nu niet meer gaat komen) ook erg benieuwd hoe dit zoveel mogelijk te restoreren, indien het mogelijk was zonder backups (of downloaden van internet)...
Ik zou in ieder geval verwacht hebben dat een scrub wel e.e.a. zou corrigeren wat er te redden viel...

Acties:
  • 0 Henk 'm!

  • cyspoz
  • Registratie: September 2001
  • Laatst online: 14-08 07:47

cyspoz

Relaxed, het zijn maar 1 en 0

Ik wil graag van wat oude hardware een mooi ZFS systeem bouwen. Ik heb hiervoor nog de volgende Hardware beschikbaar:
  • Asus P5Q-E
  • Intel Core 2 Quad Q9550 @ 2.83
  • 16GB OCZ Gold DDR2 PC2-6400 Quad
  • Intel Pro/1000 PT Desktop Adapter
  • NVIDIA GeForce 6200 LE
Ik wil daarop RAIDZ2 draaien en zit te twijfelen tussen NAS4Free en FreeNAS. Welk van deze twee zal bovengenoemde hardware configuratie het beste ondersteunen? Ik begreep dat NAS4Free niet op nanoBSD is gebaseerd wat als voordeel wordt genomend in het ZFS topic.

Daarnaast moet ik nog 4-6 extra SATA poorten hebben afhankelijk of de extra onboard SATA controller wordt ondersteund. Welke PCI-e controller is aan te raden welke goed met FreeBSD werkt? Ik zag dat de HighPoint Rocket 640L native wordt ondersteund in FreeBSD.

[ Voor 16% gewijzigd door cyspoz op 10-01-2016 23:48 ]


Acties:
  • +1 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 11:36
cyspoz schreef op zondag 10 januari 2016 @ 22:31:
Ik wil graag van wat oude hardware een mooi ZFS systeem bouwen. Ik heb hiervoor nog de volgende Hardware beschikbaar:
`Ik zou het niet doen, de P45 verbruikt gewoon veel te veel stroom tijdens idle.

Afbeeldingslocatie: http://media.bestofmicro.com/M/7/116143/original/power_idle.png

95W 24/7 is ongeveer 190 euro per jaar aan energie kosten, dat is gewoon heel erg veel, vergeleken bij moderne oplossingen, die ongeveer 25W verbruikt, of te wel 50 euro.

Afbeeldingslocatie: http://media.bestofmicro.com/T/R/487071/original/Sub60-LGA1150-Power.jpg

Binnen 2 jaar heb je de nieuwe hardware alweer terug verdiend, wel is zo een dergelijk systeem uitermate geschikt als een offline back-up oplossing, afhankelijk waar je server staat, is in de maanden dat de kachel aan staat, niet al die energie niet helemaal verloren uiteraard.

Voor de controller is de IBM M1015 zeer geschikt, en de meeste LSI controllers.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • cyspoz
  • Registratie: September 2001
  • Laatst online: 14-08 07:47

cyspoz

Relaxed, het zijn maar 1 en 0

Energie kosten zijn meer dan ik had verwacht. Misschien inderdaad eens kijken naar nieuwe hardware. Nadeel vind ik dat deze hardware setup zich al jaren 24/7 stabiel heeft bewezen. Mijn ervaring is met nieuwe consumenten hardware dat je daar altijd wat ervaring in moet op doen.

Anyway, ik zou hoe dan ook eerst graag willen testen met deze bestaande hardware. Ik heb namelijk begrepen dat je ZFS ook makkelijk zou moeten kunnen verplaatsen van server A naar server B, dus dan kan ik dat meteen mee testen...

Acties:
  • +1 Henk 'm!
Ik zou absoluut niet zomaar alle LSI controllers selecteren. Dan krijg je veel te veel RAID modellen in je filter. Dat wil je absoluut niet. Beter is: Gebruik LSI2008, LSI2108 of LSI3008 gebaseerde controllers.

Er zijn veschillende OEM's die controllers maken met deze chips, waaronder IBM voor een aardige prijs :)

@cyspoz, wat moet het systeem naast ZFS nog meer gaan doen? is het puur storage, en ga je bijvoorbeeld op je desktop downloaden (als je dat veel doet), of moet de server ook bijvoorbeeld via een 500/500 glas verbinding downloaden? Dat maakt namelijk nogal uit voor je hardware keuze.

Als je een simpel storage doosje wil, voor minimaal geld, kan je met een redelijk willekeurig SkyLake moederbord icm bijvoorbeeld een Intel G4400 prima toe. Doe er 8 GB geheugen bij, en je bent voor ~175 euro klaar.

[ Voor 44% gewijzigd door FireDrunk op 11-01-2016 07:19 ]

Even niets...


Acties:
  • +1 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 11:36
FireDrunk schreef op maandag 11 januari 2016 @ 07:17:
of moet de server ook bijvoorbeeld via een 500/500 glas verbinding downloaden? Dat maakt namelijk nogal uit voor je hardware keuze.
Wat maakt dat uit?

Mijn oude dualcore 2GHz Opteron 170 houd zelfs makkelijk mijn Gbit netwerk bij, en als bv de torrent random I/O's echt een probleem zijn/worden, kan er altijd nog een losse DL HDD in de machine gezet worden, iets dat altijd al aan te bevelen is.
Als je een simpel storage doosje wil, voor minimaal geld, kan je met een redelijk willekeurig SkyLake moederbord icm bijvoorbeeld een Intel G4400 prima toe. Doe er 8 GB geheugen bij, en je bent voor ~175 euro klaar.
Ik zou als het even in het budget zit, 50~75 euro extra uitgeven, als je toch voor nieuw gaat, ga dan ook meteen voor ECC, ECC voor thuis is zo iets als het gezegde, baat het niet schaad het ook niet, en een server gaat meestal +5j mee, dus is het niet zo een hele dure investering.

#ProductPrijsSubtotaal
1Intel Celeron G1840 Boxed€ 35,20€ 35,20
1Asus P9D-X€ 140,-€ 140,-
1Crucial CT2KIT51272BA186DJ€ 64,-€ 64,-
Bekijk collectie
Importeer producten
Totaal€ 239,20


Alternatieve bobo's zijn de Supermicro X10SL7-F en de ASRock E3C224D4I-14S, beide hebben al een SAS controller aan board met 8 aansluitingen, voor een totaal van 14 HDD onboard aansluiting, en dan hoef je geen losse controller kaartje te kopen.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • cyspoz
  • Registratie: September 2001
  • Laatst online: 14-08 07:47

cyspoz

Relaxed, het zijn maar 1 en 0

Het is de bedoeling dat dit een NAS-only wordt. Ik heb nog een Hyper-V Server draaien met diverse virtuele machines die ook downloaden regelen. In deze Hyper-V server zitten vooral SSDs waar de virtuele machines vanaf draaien.

Ik wil de NAS integreren met het domein en via DFS de shares publiceren. Daar komt Audio, Video en Back-up data op te staan.

Ik heb al wat zitten lezen over wel of geen ECC geheugen maar nog geen keuze gemaakt. Ik zat even te kijken naar de alternatieve moederborden die je gaf maar die zijn wel meteen fors duurder. Ik snap dat je dan geen losse raid controller nodig hebt en je iets meer server kwaliteit koopt.

Kan ik op het Supermicro X10SL7-F bord die Celeron met goedoop ECC geheugen kwijt?

En als ik het goed heb zijn die SAS2 poorten compatible met SATA en kan ik daar een SATA schijf aan hangen?

Acties:
  • 0 Henk 'm!
Als het goed is pakt die X10SL7-F inderdaad gewoon een Celeron, maar check voor de zekerheid even de Supermicro website.

SAS2 is inderdaad backwards compatible met SATA (wel even de controller naar IT mode flashen).

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 11:36
Ja hij ondersteund gewoon Celeron's
Single socket H3 (LGA 1150) supports Intel® Xeon® E3-1200 v3/v4, 4th gen. Core i3, Pentium, Celeron processors

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • pimlie
  • Registratie: November 2000
  • Laatst online: 14:55
Op dit moment heb ik 2x 2.5" ssd en 6x 3.5" 4TB in een Cooler Master 342 behuizing gepropt, maar daar mijn zpool vol aan het raken is wil ik een aantal disks bij plaatsen.

Hebben jullie nog tips voor een betaalbare behuizing voor minimaal 13x 3.5" en 2x 2.5"?

Vooralsnog heb ik als mogelijke opties het volgende:Vind beide oplossingen eigenlijk nogal prijzig zeker omdat swap bay's niet echt nodig zijn. De Lian-Li's D8000 & A75X zijn echter helaas te groot (kast mag maar maximaal 50cm hoog zijn). Hebben jullie nog andere ideeën?

Acties:
  • 0 Henk 'm!
Heb je geen 5.25" plekken over die je kan omzetten naar 3.5" met wat cheap-ass tray's?
Die hotswap trays zijn belachelijk duur. Als je goedkoop wil, kan je prima voor internal only 5-in-3 modules gaan. Die kosten maar 20 euro ofzo.

[ Voor 45% gewijzigd door FireDrunk op 13-01-2016 12:46 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • pimlie
  • Registratie: November 2000
  • Laatst online: 14:55
Dat was inderdaad wel wat ik van plan was met de MS-Tech kast omdat die 9x 5,25" heeft. Echter kan ik nergens goedkope internal only 5-in-3 modules vinden, wel 4-in-3 maar dat is te weinig. Heb je anders misschien een linkje?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
4in3/5in3 modules zijn altijd zo duur dat een 19" chassis met een zelfde aantal bays meestal net zo duur is.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
Maar dan vaak wel niet zo stil te krijgen... Wie weet wordt de volgende kast ook iets rackmountable (als RI-VIER terug in business is :/ ) maar een quick fix zou zijn om zoiets in de kast in te bouwen:

pricewatch: Icy Dock MB975SP-B

Voor de rest heb je natuurlijk gelijk. Om 15 disks te huisvesten in deze bays heb je al snel een leuke rackmountable kast.

Acties:
  • 0 Henk 'm!

  • pimlie
  • Registratie: November 2000
  • Laatst online: 14:55
Heb overigens wel twee relatief goedkope internal only 5-in-3 bays gevonden, maar beide zijn volgens mij niet in Nederland verkrijgbaar:

modDIY DMHDC-5-3 en
Addonics AA5IN3BK

Echter kosten ze EUR 40 per stuk plus verzendkosten. Zijn er niet meer mensen met interesse toevallig? ;)

[ Voor 5% gewijzigd door pimlie op 13-01-2016 13:48 ]


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
player-x schreef op maandag 11 januari 2016 @ 09:51:
[...]

Wat maakt dat uit?

Mijn oude dualcore 2GHz Opteron 170 houd zelfs makkelijk mijn Gbit netwerk bij, en als bv de torrent random I/O's echt een probleem zijn/worden, kan er altijd nog een losse DL HDD in de machine gezet worden, iets dat altijd al aan te bevelen is.
Met SabNZB (python proces) en een SSL naar je newsnet server is downloaden met een 50Mb verbinding voor een G1840 toch al gauw +-15% CPU.
Dan nog even unrarren repairen etc.
(Vaak hebben mensen ook nog wel Plex draaien.)

Dus dat 15% x 10 zit je toch wat boven de limiet :+ dus maakt toch wel wat uit.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
HyperBart schreef op woensdag 13 januari 2016 @ 13:41:
Maar dan vaak wel niet zo stil te krijgen...
not so fast :+

YouTube: 71 TB NAS (ZFS on Linux) is relatively quiet

Heb je mijn video niet gezien ;)

8)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
Hoor ik nu op 2:09 à 2:13 een kat miauwen voor aandacht? :+

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Verdomt, een van mijn lieve schatjes. :) Dat je dat kunt horen, zo ontzettend still is dat ding ;)

Ik ben een echte pro youtube video producer, dat mag duidelijk zijn.

[ Voor 67% gewijzigd door Q op 14-01-2016 13:53 ]


Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Wat moet dat wel niet kosten ? >:)

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Het antwoord staat in de link in de video, aan het einde van het artikel.

[ Voor 26% gewijzigd door Q op 14-01-2016 16:02 ]


Acties:
  • 0 Henk 'm!

  • pimlie
  • Registratie: November 2000
  • Laatst online: 14:55
HyperBart schreef op woensdag 13 januari 2016 @ 13:41: (als RI-VIER terug in business is :/ )
Ri-vier geeft aan dat dat waarschijnlijk mei wordt.

Echter de Ri-vier RV-4324 behuizing die Q gebruikt is ook bij andere partijen te verkrijgen onder hetzelfde nummer en met vergelijkbare prijs. Bijvoorbeeld de JJ-R4324 kost list price 475 euro ex ex.

Acties:
  • 0 Henk 'm!

  • Farrell
  • Registratie: Januari 2004
  • Laatst online: 16:46
Ik heb sinds kort een HP Proliant MicroServer Gen8 aangeschaft, heel tof ding natuurlijk met daarin 3 red schijven van 3TB. Vervolgens heb ik daarop Freenas geinstalleerd en nu probeer ik het ding te configureren. Wat ik wil is eigenlijk heel simpel:

1 dataset waarmee ik zowel via FTP evenals via een CIFS share wil kunnen benaderen. Het probleem is (wat blijkt) dat voor FTP de dataset in Unix mode moet draaien en voor een CIFS share, de dataset in windows mode moet draaien.

Hoe zou ik ik dit simpele scenario toch kunnen realiseren? Een ander OS?

Acties:
  • 0 Henk 'm!
Voor CIFS in Windows mode? Dat heb ik nog nooit gehoord? Zegt FreeNAS dat?

Even niets...


Acties:
  • 0 Henk 'm!

  • Farrell
  • Registratie: Januari 2004
  • Laatst online: 16:46
Dat "zegt" FreeNAS inderdaad soort van: https://forums.freenas.or...mitted.40769/#post-257794

Uit de configuratie hulp begrijp ik ook dat je per share soort een aparte dataset moet hebben. Ik zelf vind het ook vreemd en onhandig. Maar wat zijn alternatieven?

Acties:
  • 0 Henk 'm!
Gewoon negeren? Ik draai, iSCSI, NFS, SSH, SFTP, Samba (CIFS), Plex, HTTP allemaal van 1 dataset...

Even niets...


Acties:
  • 0 Henk 'm!

  • Farrell
  • Registratie: Januari 2004
  • Laatst online: 16:46
Hoe heb je je dataset en je users ingericht en dan doel ik op de settings? Zou je dat willen delen? :)

[ Voor 17% gewijzigd door Farrell op 20-01-2016 20:45 ]


Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 15-09 21:36
Ik wil binnenkort mijn huidige 1TB schijven in mijn ZFS NAS vervangen door nieuwe schijven.

Mijn voorkeur uit het verleden ligt bij Western Digital en Seagate, maar ik lees in de reviews dat de betrouwbaarheid tegenwoordig vaak twijfelachtig is. Hitachi zou dan een betere keuze zijn, en ik kijk nu naar de Hitachi Deskstar 5K3000, 2TB, is dit een goede keuze?

[ Voor 4% gewijzigd door ImmortalSoul op 21-01-2016 11:49 ]


Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 24-09 07:21
Farrell schreef op woensdag 20 januari 2016 @ 20:45:
Hoe heb je je dataset en je users ingericht en dan doel ik op de settings? Zou je dat willen delen? :)
Bij mij draait het op een Unix dataset. Users zijn lid van een groep, groep heeft rechten op het filesystem. (die laatste kwam ik onlangs weer achter toen ik ik een FreeNAS/Microserver bij mijn ouders neer wilde zetten :))

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!
Bij mij staat alles default, behalve Compression, dat staat geforceerd aan (LZ4 is dan de default onder ZoL).
Verder heb ik een Thuis groep waar een aantal users in zitten, en heb ik handmatig mijn Samba config gemaakt.

root@NAS Thuis]# cat /etc/samba/smb.conf
[global]
	workgroup = CRAVU
	server string = NAS
	netbios name = NAS
	log level = 3
	interfaces = br0 lo
	bind interfaces only = yes
	log file = /var/log/samba.log
	load printers = no
	disable spoolss = yes
	log level = 3
	log file = /var/log/samba/log.%m
	Max log size = 50
[movies]
	path = /archive/Movies/
	writeable = yes
	public = no
	browseable = yes
	directory mask = 0775
	create mask = 0664
	valid users = @thuis

[series]
	path = /archive/Series/
	writeable = yes
	public = no
	browseable = yes
	directory mask = 0775
	create mask = 0664
	valid users = @thuis

[incoming]
	path = /archive/Incoming/
	writeable = yes
	public = no
	browseable = yes
	directory mask = 0775
	create mask = 0664
	write list = @thuis


Hmm, zie nu dat ik log file dubbel heb :P gelijk maar even aanpassen :D

Overigens hebben de Directory en create masks hier geen betrekking op Anonymous users.
De 775 is alleen maar zodat lokale applicaties bij mijn data kunnen.
Anoniem kom je de Samba shares toch niet in, want je moet lid zijn van @thuis.

[ Voor 11% gewijzigd door FireDrunk op 21-01-2016 12:20 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 11:36
ImmortalSoul schreef op donderdag 21 januari 2016 @ 11:49:
Mijn voorkeur uit het verleden ligt bij Western Digital en Seagate, maar ik lees in de reviews dat de betrouwbaarheid tegenwoordig vaak twijfelachtig is. Hitachi zou dan een betere keuze zijn, en ik kijk nu naar de Hitachi Deskstar 5K3000, 2TB, is dit een goede keuze?
Seagate heeft wisselde betrouwbaarheid, bij WD is dat minder, en bij Hitachi is het gewoon onbekend omdat daar van veel minder HDDs van verkocht worden,

Zelf zou ik iig voor minimaal een 3TB versie gaan, daar de prijs per GB lager is, en bij voorkeur 4TB of zelfs meer, en ik zou gewoon de WD Green kiezen, wel de head-park tijd verlengen daar je daar mee de levensduur mee verlengt.

Ook zou ik persoonlijk bij voorkeur een aparte download / OS schijf nemen, bij voorkeur een 2.5'' model daar je dan het meeste stroom bespaart, en kan je daar ook eerst je DLs van bekijken, en zo je ZFS array nog minder belast.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Farrell
  • Registratie: Januari 2004
  • Laatst online: 16:46
@FireDrunk Thanks. Hoe heb je je users geconfigureerd? Verschillende users voor FTP en windowsshare?

Acties:
  • 0 Henk 'm!

  • wishmaster1986
  • Registratie: April 2004
  • Laatst online: 18:04
V&A advertenties mag je niet zomaar aanprijzen in posts als deze. Wel mag je een link opnemen in je signature, zo kun je ongeveer hetzelfde effect bereiken.

[ Voor 89% gewijzigd door Verwijderd op 22-01-2016 17:54 ]


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
player-x schreef op donderdag 21 januari 2016 @ 17:02:
[...]

Seagate heeft wisselde betrouwbaarheid, bij WD is dat minder, en bij Hitachi is het gewoon onbekend omdat daar van veel minder HDDs van verkocht worden,
Denk niet dat je een beter statistisch rapport krijgt over betrouwbaarheid
https://www.backblaze.com...rive-reliability-q3-2015/

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Owjee niet Backblaze noemen hier, dan krijg je meteen de wind van voren over hoe die getallen allemaal niets zeggen ;)

Zelf raadt ik HGST zeker aan. Op Reddit onder /zfs is ook een Oracle employee (ownt Sun's ZFS) die voor prive HGST aanbeveelt. Alleen niet de goedkoopste of zuinigste disks...

[ Voor 8% gewijzigd door Q op 22-01-2016 14:23 ]


Acties:
  • 0 Henk 'm!

  • pimlie
  • Registratie: November 2000
  • Laatst online: 14:55
Q schreef op vrijdag 22 januari 2016 @ 14:22:Zelf raadt ik HGST zeker aan. Op Reddit onder /zfs is ook een Oracle employee (ownt Sun's ZFS) die voor prive HGST aanbeveelt. Alleen niet de goedkoopste of zuinigste disks...
Raad je HGST aan vanwege betrouwbaarheid, performance of beste prijs/kwaliteit verhouding? En raad je ook Deskstar aan of alleen Ultrastar? ;)

Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 15-09 21:36
player-x schreef op donderdag 21 januari 2016 @ 17:02:
[...]

Seagate heeft wisselde betrouwbaarheid, bij WD is dat minder, en bij Hitachi is het gewoon onbekend omdat daar van veel minder HDDs van verkocht worden,

Zelf zou ik iig voor minimaal een 3TB versie gaan, daar de prijs per GB lager is, en bij voorkeur 4TB of zelfs meer, en ik zou gewoon de WD Green kiezen, wel de head-park tijd verlengen daar je daar mee de levensduur mee verlengt.

Ook zou ik persoonlijk bij voorkeur een aparte download / OS schijf nemen, bij voorkeur een 2.5'' model daar je dan het meeste stroom bespaart, en kan je daar ook eerst je DLs van bekijken, en zo je ZFS array nog minder belast.
Thanks, dat laatste is wel een goede tip. Ik zit met een krap budget dus twee keer 3TB kopen zal hem niet worden, en ik heb momenteel ook nog wel ruim genoeg aan twee keer 1TB.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
pimlie schreef op vrijdag 22 januari 2016 @ 14:30:
[...]


Raad je HGST aan vanwege betrouwbaarheid, performance of beste prijs/kwaliteit verhouding? En raad je ook Deskstar aan of alleen Ultrastar? ;)
Betrouwbaarheid en performantie, maar vooral dat eerste.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Betrouwbaarheid inderdaad.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
Hier ook een tijdje HGST's gehad, prima schijven hoor maar ik vond ze wat te onzuinig en te warm.

Onzuinig is natuurlijk absoluut en relatief te bekijken, doordat het 7.2K schijven waren zijn ze in absolute zin onzuiniger maar ik meen mij ook van een gesprekje met FireDrunk te herinneren dat ze in de klasse van 7.2K tov andere disks ook niet echt zo zuinig zijn. Aangezien ik vooral throughput nodig had en geen raw I/O was het toerental bij mij van ondergeschikt belang, zuinigheid en bang for the bucks, dat telde. Ik was niet bereid om extra te betalen voor HGST en de statistisch (ook wel belangrijk, het is allemaal maar educated guesses) kleinere kans op falen.

Betaal je daar wel voor dan krijg je wel een "hogere betrouwbaarheid" (statistiek) voor terug maar Seagate/WD doen het ook meer dan prima. met ZFS en RAIDZ2 maak ik me daar eigenlijk nooit zorgen om.

Nou ja, nooit :/ , maar dat is een ander verhaal en ligt niet aan de disks ;)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Ik moet altijd nuanceren dat ik inderdaad met 7200RPM drives draai maar mijn NAS staat grofweg 24/7 uit en gaat alleen aan als ik 'm nodig heb. Als je 24/7 wilt draaien dan kan ik mij voorstellen dat je geen HGST doet.

Volgens de price watch doen alle HGST schijven 7200 RPM.

[ Voor 32% gewijzigd door Q op 22-01-2016 16:06 ]


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 11:36
HyperBart schreef op vrijdag 22 januari 2016 @ 15:37:
Hier ook een tijdje HGST's gehad, prima schijven hoor maar ik vond ze wat te onzuinig en te warm
Op zich is dat als je een aparte OS (en) DL schijf hebt, 72.000 rpm schijven eigenlijk helemaal niet zo een groot probleem, afhankelijk van je gebruik.

Daar je dan al het nieuwe van je tijdelijke van bv 1TB 2.5'' of zelfs 3.5'' DL schijf kan bekijken, en alleen je hele array opstart als je wat ouders wil kijken van je array, of files daar van af wil halen.

Bij mijn thuis gebruik, gebruik ik zeker 90% van mijn tijd de DL schijf, en maar 10% of zelfs minder de ZFS array, er zullen vast grote verschillen zitten tussen verschillende gebruikers, maar val je in mijn groep, is een aparte DL schijf best aan te bevelen.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!
Ik zou ook graag eens goede tiering software zien, die op basis van directory access preventief files cached.

Dus stel ik kijk aflevering 1 van serie a in een map, zou het cool zijn dat hij die hele map cached naar een SSD, als hij dat effectief doet, kan mijn array misschien wel dagen in idle blijven.

On another note: Eindelijk mijn SAS3 kabels in gebruik genomen, en controller net naar IT mode geflashed :)

Gaat een stuk makkelijker als de Leverancier niet mekkert dat je aan het crossflashen bent :P

[ Voor 25% gewijzigd door FireDrunk op 22-01-2016 18:55 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
player-x schreef op vrijdag 22 januari 2016 @ 18:21:
[...]

Op zich is dat als je een aparte OS (en) DL schijf hebt,
Dat is inderdaad een tactiek die ik ook vaak predik hier. Heb ik zelf ook al onmiddellijk gedaan toen ik van een gevirtualiseerde NAS naar bare-metal ging. Hier is dat een EVO 840 500GB.

Vanaf dag 1 gebruik je imo zelfs gewoon best een SSD ipv een spinning disk, de traagste of domste SSD voldoet eigenlijk prima als "scratch" partitie waar je je downloads op laat binnenkomen, doorgaans komen series en films rond hetzelfde punt binnen dus als je dan je spindown goed instelt (bv zoals bij mij 20 minuten) dan komt dat perfect uit.
72.000 rpm schijven
Dat zijn wel heel snelle schijven :+
eigenlijk helemaal niet zo een groot probleem, afhankelijk van je gebruik.

Daar je dan al het nieuwe van je tijdelijke van bv 1TB 2.5'' of zelfs 3.5'' DL schijf kan bekijken, en alleen je hele array opstart als je wat ouders wil kijken van je array, of files daar van af wil halen.
Meh, dan moet je weer gaan uitsplitsen en weer manueel gaan sorteren en dat soort ongein, daarvoor heb je net Sonarr, CP of Sabnzbd 8)7
Bij mijn thuis gebruik, gebruik ik zeker 90% van mijn tijd de DL schijf, en maar 10% of zelfs minder de ZFS array, er zullen vast grote verschillen zitten tussen verschillende gebruikers, maar val je in mijn groep, is een aparte DL schijf best aan te bevelen.
Ons kijkpatroon varieert zo hard dat het beter is om alles gewoon op de 10 disk array, al dat gedoe met dan manueel de juiste plekken te kiezen en data te verplaatsen, neen dank je. Dat is dan like een paar uurtjes per dag max dat die dingen opgaan.

Maar dat neemt niet weg dat als je op goede dagen eens een hele serie oid binnenhaalt of je start eens een scrub, dat de disks vaak wel voor langere periode aan het ratelen zijn, en dan is die warmte wel een probleem en al helemaal tijdens de zomermaanden.

Blijft dan ook nog altijd gewoon een punt dat ALS ze aanstaan dat ze gewoon meer verbruiken, dat is hetzelfde alsof je nu zegt dat een V8 niet veel verbruikt is als je er weinig mee rijdt :+ , helemaal waar natuurlijk, maar een 2.0 TDI is nog zuiniger als je er weinig mee rijdt en een 1.6 TDI nog zuiniger. Afein, je snapt wat ik bedoel.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
FireDrunk schreef op vrijdag 22 januari 2016 @ 18:51:
Ik zou ook graag eens goede tiering software zien, die op basis van directory access preventief files cached.
Dit! En liefst ingebouwd in plex. O-)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Xesxen
  • Registratie: Juli 2009
  • Laatst online: 13:49
DXaroth schreef op dinsdag 29 december 2015 @ 15:15:
[...]

de kast is nogal.. irritant daarmee, SFX is ook een redelijk losse standaard, te diep past weer net niet.. ik ben uiteindelijk gegaan voor deze: pricewatch: Seasonic SS-250SU
Hij hangt weleswaar vast op een 'speciale' manier (hij zit stevig vast, maar niet aan de brackets die bij de kast horen), maar hij werkt prima... wel moet je dus letten dat je dan dus niet een zware GPU er aan kan hangen, want zo veel trekt de seasonic nou ook weer niet.

Voor een simpele opstelling met wat disks zou hij het prima moeten redden.
Aangezien je toch deze combinatie hebt (Moederbord/Kast): zou je kunnen controlleren of er een voeding met de volgende afmetingen er in zou kunnen passen? 130 x 125 x 63 mm (pricewatch: Sharkoon SilentStorm SFX Gold 500W)

Ondertussen is het plan licht aangepast: Ik begin met een 2-disk BTRFS RAID1 setup, om later het dit te gaan upgraden naar een 4-disk RAID6 wanneer ik meer ruimte nodig heb. (en wanneer nodig nog een disk erbij proppen, enz enz)

Rare vogel in spe


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 11:36
iemand deze Linux distributie al eens geprobeerd?

downloads: Rockstor 3.8-11

Draai nu Debian, en was benieuwd of iemand Rockstor wel eens uit had geprobeerd, en wat de ervaringen daar mee zijn.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:41
Ze lijken zich al heel hard te baseren op BTRFS, maar zolang ik niet wat meer zekerheid heb mbt Btrfs raid's zou ik me daar niet zo hard in maken zoals zij doen.

Ziet er wel veelbelovend uit, straks eens een spin geven in een VM.

Acties:
  • 0 Henk 'm!
Al wel eens geinatalleerd, moet er nog eens wat mee doen. Zal het op mijn microserver zetten zo.

Net geinstalleerd, en alweer gesloopt :P Blijkbaar moet je geen rock-ons op je root share zetten.. Vaag, maar goed. Ga nu maar eens de basis testen, addons komen later wel.

[ Voor 47% gewijzigd door FireDrunk op 24-01-2016 17:49 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • rtieben
  • Registratie: November 2011
  • Laatst online: 20-12-2021
Na inlezen van deze en gerelateerde threads, wil ik graag een thuisserver bouwen, geschikt voor data opslag (ZFS) en virtualisation (ESXi), mogelijk via napp-it.

Ik heb het onderstaande systeem op het oog, gebaseerd op de BBG Thuisserver. Is dit nog steeds een raadzame samenstelling, of zijn er in het half jaar betere alternatieven gekomen voor mijn situatie?

#ProductPrijsSubtotaal
1Intel Core i5-4460 Boxed€ 183,60€ 183,60
1ASRock B85M Pro4€ 62,-€ 62,-
3WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 111,95€ 335,85
1Cooler Master N300 (KKN1, closed)€ 41,95€ 41,95
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 71,95€ 71,95
1be quiet! System Power 7 300W€ 33,95€ 33,95
1Transcend MTS400 64GB€ 41,09€ 41,09
Bekijk collectie
Importeer producten
Totaal€ 770,39

Acties:
  • 0 Henk 'm!

Verwijderd

  • WD Red heb je niet nodig; WD Green (tegenwoordig ook onder Blue verkocht) is goedkoper en fysiek dezelfde schijf alleen met 2 jaar garantie ipv 3 jaar. De extra functies zoals TLER heb je niet nodig voor een non-Windows en non-Hardware RAID NAS.
  • ASRock bordjes hebben vaak Realtek netwerk, is iets minder goed. B85 verder wel prima. Bedenk wel dat een SoC-chip zonder losse chipset zuiniger is, en je kiest hier een Intel Core-chip van de 4e generatie, terwijl we nu bij de 6e generatie zijn. Is dat wat je wilt?
  • 1,5 volt geheugen is al vele jaren ouderwets; 1,35 volt geheugen is standaard. Sommige bordjes slikken tegenwoordig alleen nog maar 1,35 volt geheugen dus weinig reden om voor ouderwets geheugen te gaan.
  • 300W voeding is veel teveel voor een simpele NAS met 3 disks. Voor zo'n kleine build wil je een DC-DC voeding opstelling. Veel zuiniger, compacter en geen bewegende onderdelen dus minder storingsgevoelig, minder stof en minder lawaai.
  • Transcend is rommel; koop daar geen SSDs van. Als je echt een SSD wilt, koop dan een echte Crucial MX200 bijvoorbeeld.
Verder, wil je echt ESXi gebruiken? Wat je ook kunt doen is de storage en virtualisatie los doen. Dan heb je een NAS waarop je gewoon een NAS-distro draait en een aparte machine voor virtualisatie. In principe kan dat binnen hetzelfde budget want je build is best duur voor de hoeveelheid storage. Bijna 800 euro voor 6TB bruikbare opslag is niet echt kostenefficiënt.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 11:36
Verwijderd schreef op zondag 24 januari 2016 @ 22:17:
• Bedenk wel dat een SoC-chip zonder losse chipset zuiniger is, en je kiest hier een Intel Core-chip van de 4e generatie, terwijl we nu bij de 6e generatie zijn. Is dat wat je wilt?
Als hij echt VM's wil draaien, dan zijn alle SoC oplossingen behalve de dure D-15xx alle maal te langzaam.
Mee eens dat je eigenlijk geen 4e Gen wil, maar tussen Gen 5 en 6 zijn er amper verschillen, vooral qua verbruik, persoonlijk zou ik wel een hele hele lichte voorkeur hebben voor een S1151, daar daar ook eventueel een Gen 7 in past als die later voordelen zouden hebben.
• 300W voeding is veel teveel voor een simpele NAS met 3 disks. Voor zo'n kleine build wil je een DC-DC voeding opstelling. Veel zuiniger, compacter en geen bewegende onderdelen dus minder storingsgevoelig, minder stof en minder lawaai.
Van wat ik lees, is het best mogelijk dat hij er later meer disk er in wil, dan is een 300W voeding wel prima, zo niet zou ik ook voor een PicoPSU gaan.
• Transcend is rommel; koop daar geen SSDs van. Als je echt een SSD wilt, koop dan een echte Crucial MX200 bijvoorbeeld.[/list]
Ja van die rommel zou ik ook zoveel mogelijk weg blijven, een MX200 is bv idd een goed alternatief.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Ik zit voor mijn ZFS server nog te twijfelen tussen een Avoton bordje (SM A1SAi-2550F met C2550) of een Celeron G1840 op een server-grade bord (dus met IPMI controller etc. zoals de ASRock E3C226D2I). De Avoton trekt mij sterk aan, maar ik ben bang dat hij wellicht toch wat tekort zal schieten als ik videostreams ga transcoden met Plex. De Celeron zou daar voldoende voor moeten zijn, maar is wel minder zuinig (en heeft geen AES-NI maar dat kan ik wel missen). De extra LAN poorten van het Avoton platform zal ik noot gebruiken en zaken als VT-d zijn niet van belang.

In principe gaat mijn voorkeur op gevoel uit naar de Avoton, ook al is het in principe een wat ouder paltform. Als het voldoende power biedt voor het transcoden van 1 1080p videostream (incl bv. subtitles embedden) dan ben ik eigenlijk al tevreden. Heeft iemand daar ervaring mee?

Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Bigs schreef op maandag 25 januari 2016 @ 09:10:
maar ik ben bang dat hij wellicht toch wat tekort zal schieten als ik videostreams ga transcoden met Plex. De Celeron zou daar voldoende voor moeten zijn, maar is wel minder zuinig (en heeft geen AES-NI maar dat kan ik wel missen). De extra LAN poorten van het Avoton platform zal ik noot gebruiken en zaken als VT-d zijn niet van belang.

In principe gaat mijn voorkeur op gevoel uit naar de Avoton, ook al is het in principe een wat ouder paltform. Als het voldoende power biedt voor het transcoden van 1 1080p videostream (incl bv. subtitles embedden) dan ben ik eigenlijk al tevreden. Heeft iemand daar ervaring mee?
Ik geloof dat men vanuit Plex zelf 2000 CPU Mark punten aanraad per 1080p stream. Ik zou wel even in gedachten houden dat het al snel gebeurd dat je meer wil gaan doen met een server dus ik zou het iets ruimer pakken dan die Celeron.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Leo1010 schreef op maandag 25 januari 2016 @ 11:26:
[...]


Ik geloof dat men vanuit Plex zelf 2000 CPU Mark punten aanraad per 1080p stream. Ik zou wel even in gedachten houden dat het al snel gebeurd dat je meer wil gaan doen met een server dus ik zou het iets ruimer pakken dan die Celeron.
Ohja dat was ook een argument voor die Celeron: als die tekort schiet (of ik wil in de toekomst meer gaan doen) dan kan ik hem upgraden naar een Xeon E3 v3. Met de Avoton zit je vast aan de SoC. Ik denk dat ik maar voor die Celeron ga dus.

Acties:
  • 0 Henk 'm!

  • rtieben
  • Registratie: November 2011
  • Laatst online: 20-12-2021
Bedankt voor de feedback CiPHER en player-x.
Verwijderd schreef op zondag 24 januari 2016 @ 22:17:
Verder, wil je echt ESXi gebruiken? Wat je ook kunt doen is de storage en virtualisatie los doen. Dan heb je een NAS waarop je gewoon een NAS-distro draait en een aparte machine voor virtualisatie. In principe kan dat binnen hetzelfde budget want je build is best duur voor de hoeveelheid storage. Bijna 800 euro voor 6TB bruikbare opslag is niet echt kostenefficiënt.
Ik verwacht niet veel meer data op te hoeven slaan in de komende jaren; ik heb de opslag nodig voor backup + cloud toegang (wil van externe HDs af). Virtualisatie wil ik gebruiken om Windows / Mac builds te maken van bepaalde programma's die ik ontwikkel (oF, Unity, mogelijk mobile).

Wat is, met deze eisen, het 'voordeel' van 2 losse machines t.o.v. 1 gecombineerde? Zuiniger, makkelijker up te graden en betaalbaarder vs gemak van alles in 1?

Acties:
  • +1 Henk 'm!

Verwijderd

Nou, mijn 'probleem' met jouw setup is dat je best veel betaalt en daar relatief weinig voor terug krijgt. Ik ben zelf juist heel erg van de prijs-kwaliteit verhouding - veel krijgen voor het geld dat je betaalt. Dat hoeft niet altijd een goedkoop systeem te zijn; soms krijg je relatief veel voor een wat duurder systeem. Nu betaal je best veel en krijgt daar een middelmatig presterend systeem, geen ECC, niet zo heel zuinig, niet passief gekoeld en slechts 6TB bruikbare opslag voor toch 700 knaken. Dat kan beter, denk ik dan.

Daarom stel ik voor, overweeg eens een andere opzet: twee systemen. Eén systeem puur voor opslag op basis van een J1900 (Bay Trail) of N3150 (Braswell) wat supergoedkoop, superzuinig evenals superstil is dankzij de passief gekoelde heatsink. Dan ben je met een bordje als deze al bijna helemaal klaar: http://www.asrock.com/mb/Intel/N3150DC-ITX. In plaats van 3TB schijven kun je ook 4TB overwegen of zelfs 6TB. Dit maakt het meer toekomstbestendig.

Zo kun je nu met twee keer 6TB beginnen in een mirror. Slechts 6TB opslag ja. Maar later koop je twee schijven bij en kun je naar ene RAID-Z van 4x 6TB gaan, dus 18TB bruikbare opslag. Dit kan zonder dataverlies omdat je simpelweg één disk van je 2-disk mirror kunt 'lenen' en daarmee een 4-disk RAID-Z aanmaken met slechts drie schijven en één 'nep schijf' door middel van een memory disk. Dan kopiëer je de data van je mirror naar de nieuwe degraded pool en tot slot verwijder je de mirror en de disk die vrijkomt geef je aan je nieuwe RAID-Z pool. En zo kun je migreren van 2-disk mirror naar 4-disk RAID-Z zonder dataverlies. Best leuke upgradepath. Op het bordje hierboven zitten ook 4 SATA aansluitingen dus past precies.

Ik raad je dan deze schijven aan: pricewatch: WD Green HDD, 6TB
Of goedkopere 4TB schijven wilt: pricewatch: WD Green HDD, 4TB

6TB schijven zijn overigens sneller, omdat ze 1200GB platters gebruiken, terwijl de kleinere modellen gebruikmaken van 1000GB platters.

Dit is dan alleen voor het opslaggedeelte. Voor de virtualisatie ben je dan helemaal vrij. Je hebt geen vt-d meer nodig omdat je geen opslag meer doet op je ESXi machine. Het grote voordeel is dat je nu veel minder storingsgevoelig bezig bent. Je hebt je opslag van de virtualisatie gescheiden. Er zijn nogal wat beperkingen en haken en ogen aan het combineren van deze twee werelden. Ook heb je nu voor weinig geld een storageplatform dus qua geld scheelt het misschien helemaal niet zoveel 2 systemen of één. Ook kun je nu voor zowel je storage als je VM machine DC-DC voeding gebruiken. Dat ASRock bordje hierboven heeft al een interne voeding en bijgeleverd is ook een 60W voedingsblok wat voldoende moet zijn voor 4 schijven opspinnen (je kunt er tijdelijk prima overheen gaan).

Ten slotte heb je nu meer RAM geheugen vrij voor virtualisatie, omdat je niet meer RAM hoeft te delen met ZFS. Je kunt tot 16GiB aan je ZFS machine geven (of 8GiB met één reepje). En je ESXi machine met DDR3 tot 32GiB (4 reepjes) of met DDR4 het dubbele: 64GiB met 4 reepjes. Misschien dat je dit nu nog niet wilt, maar leuk dat het in de toekomst wel kan. Alleen geen kleine reepjes kopen! Dus altijd 8GiB modules voor DDR3 en 16GiB modules voor DDR4.

Succes! :)

Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
Aloha, zou graag wat input willen voor mijn volgende server. Heb zitten twijfelen tussen skylake en een proliant microserver gen8.

Skylake voor mitx formaat en toch 32GB memory, en wie weet in de toekomst HEVC hardware decoding. Opslag gaan 8TB disks zijn en een extra SATA-kaartje voor een SSD datastore. Hypervisor is ESXi met een BSD vm voor ZFS. Commentaar?

#ProductPrijsSubtotaal
1Intel Xeon E3-1220 v5 Tray€ 222,26€ 222,26
1ASRock H170M-ITX/DL€ 99,-€ 99,-
1Chenbro Compact Server Chassis SR30169€ 128,71€ 128,71
2Samsung M391A2K43BB1€ 107,-€ 214,-
1Seasonic G-series 360 watt€ 62,50€ 62,50
Bekijk collectie
Importeer producten
Totaal€ 726,47

~ beware of misinformation.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:01
Bordt doet geen ECC, waarom dan ook nog XEON? i5 is goedkoper?
8 TB schijven -> SMR is niet wat ik zou aanraden.

Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
Q schreef op dinsdag 26 januari 2016 @ 10:17:
Bordt doet geen ECC, waarom dan ook nog XEON? i5 is goedkoper?
8 TB schijven -> SMR is niet wat ik zou aanraden.
Argh, daar heb je gelijk in.. dacht voor een of andere reden dat elk DDR4 moederbordje ECC deed 8)7
Enigste mogelijkheid lijkt me dan Asus P10S-I met maar 2 SATA poortjes? Prijzig. Goedkoopste 1150-bordje is even duur.
Of van deze vind ik geen prijs.

[ Voor 35% gewijzigd door Nindustries op 26-01-2016 10:29 ]

~ beware of misinformation.


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

Nindustries schreef op dinsdag 26 januari 2016 @ 10:19:
[...]

Argh, daar heb je gelijk in.. dacht voor een of andere reden dat elk DDR4 moederbordje ECC deed 8)7
Enigste mogelijkheid lijkt me dan Asus P10S-I met maar 2 SATA poortjes? Prijzig. Goedkoopste 1150-bordje is even duur.
Of van deze vind ik geen prijs.
Idd vlgs de spec's kun je ECC plaatsen maar dan draait het als NON ECC |:(
- Dual Channel DDR4 Memory Technology
- 2 x DDR4 DIMM Slots
- Supports DDR4 2133 non-ECC, un-buffered memory
- Supports ECC UDIMM memory modules (operate in non-ECC mode)
- Max. capacity of system memory: 32GB*
- Supports Intel® Extreme Memory Profile (XMP) 2.0

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
Dat kan altijd volgens mij. UDIMM ECC doet het altijd in non-ECC bordjes voor zover ik weet.

Even niets...


Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 10:31
*knip* omdat je post al in het ZFS topic staat, denk ik dat het beter is hem daar te laten. Het is niet alsof je een hele nieuwe server gaat bouwen, anders had ik je post naar dit topic kunnen verplaatsen.

[ Voor 94% gewijzigd door Verwijderd op 26-01-2016 18:13 ]


Acties:
  • 0 Henk 'm!

  • rtieben
  • Registratie: November 2011
  • Laatst online: 20-12-2021
Hartelijk bedankt voor het advies, je hebt me overtuigd ;-) Ik ga nu voor twee losse systemen, te beginnen met een opslagsysteem.

Ik kijk nu naar het volgende (dit is geloof ik wat je aanraadde). Ik zoek nog een goede behuizing. Liefst zo stil & klein mogelijk, maar wel met ruimte voor 4x 3.5 HDs (voor het uitbreidpad). Meeste goedkope Coolermasters hebben niet genoeg ruimte hiervoor lijkt het. Heeft iemand nog suggesties?

#ProductPrijsSubtotaal
1ASRock N3150DC-ITX€ 122,50€ 122,50
2WD Green HDD, 6TB€ 243,95€ 487,90
1Crucial CT102464BF160B€ 33,95€ 33,95
Bekijk collectie
Importeer producten
Totaal€ 644,35
Verwijderd schreef op maandag 25 januari 2016 @ 23:52:
Dit is dan alleen voor het opslaggedeelte. Voor de virtualisatie ben je dan helemaal vrij. Je hebt geen vt-d meer nodig omdat je geen opslag meer doet op je ESXi machine. Het grote voordeel is dat je nu veel minder storingsgevoelig bezig bent. Je hebt je opslag van de virtualisatie gescheiden. Er zijn nogal wat beperkingen en haken en ogen aan het combineren van deze twee werelden. Ook heb je nu voor weinig geld een storageplatform dus qua geld scheelt het misschien helemaal niet zoveel 2 systemen of één. Ook kun je nu voor zowel je storage als je VM machine DC-DC voeding gebruiken. Dat ASRock bordje hierboven heeft al een interne voeding en bijgeleverd is ook een 60W voedingsblok wat voldoende moet zijn voor 4 schijven opspinnen (je kunt er tijdelijk prima overheen gaan).
Zijn er, ter voorbereiding, nog goede threads of guides over het bouwen van een virtualisatie server? Ik heb het grote virtualisatie topic al gevonden.

Nogmaals bedankt!

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Belangrijkste is kiezen voor hardware die out of the box door de door jou gekozen hypervisor ondersteund worden.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

Verwijderd

Kijk eens in dit topic als je op basis van ESXi wilt werken: Zuinige ESXi Server. Dat is denk ik dé thread die je wilt doornemen.

Om het energieverbruik te beperken kun je voor een moederbord met DC-DC voeding gaan, maar de meeste keuze heb je als je een PicoPSU voeding neemt. Dit is net iets duurder maar ongeveer hetzelfde idee: geen lompe grote ATX-voeding meer, maar een klein passieve voeding zonder bewegende onderdelen.

PicoPSU bestaat uit een PicoPSU voeding die direct op de ATX-stroomconnector op het moederbord wordt gemonteerd, evenals een los voedingsblok dat +12V of in sommige gevallen +19V gelijkstroom levert met een veelal ronde plug. Er zijn ook sets verkrijgbaar met zowel de PicoPSU als het voedingsblok, zoals deze: pricewatch: Mini-box picoPSU 80 + 60W Adapter Power Kit.

Acties:
  • 0 Henk 'm!

  • Trishul
  • Registratie: December 2008
  • Laatst online: 14:42
Ik wil mijn data migreren naar een nieuwe NAS. Momenteel draait mijn data bijna 5 jaar op een Qnap TS-412 met 4x 2TB HDD in RAID-5. Ik heb 5TB aan data. Ik wil nu naar een nieuwe oplossing, bij voorkeur zelfbouw o.b.v. ZFS. Ik hoop ook dat dit performanter zal zijn, want de 30MB/s over gigabit dat mijn huidige NAS nu doet vind ik soms erg irritant.

Ik zat te denken aan een NAS o.b.v. de volgende componenten:

#ProductPrijsSubtotaal
1Intel Celeron G1840 Boxed€ 35,95€ 35,95
1MSI H81M-P33€ 41,95€ 41,95
1Crucial CT102464BA160B€ 32,95€ 32,95
1Seasonic G-series 360 watt€ 55,95€ 55,95
Bekijk collectie
Importeer producten
Totaal€ 166,80


Is dit bv. toereikend voor een FreeNAS setup? Adviezen? Ben er al een tijdje uit geweest, maar omdat de huidige NAS en schijven bijna 5 jaar draaien wil ik ze preventief vervangen. Dus ook nieuwe harde schijven, welke precies en welke grootte ben ik nog niet over uit.

Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
Tweede poging hierzo :+ Skylake voor mITX en 32GB ECC memory.

Besturingssysteem debian stable, ZFS-on-linux & Docker.

#ProductPrijsSubtotaal
1Intel Xeon E3-1220 v5 Tray€ 222,34€ 222,34
1Asus P10S-I€ 179,-€ 179,-
1Chenbro Compact Server Chassis SR30169€ 128,71€ 128,71
2Samsung M391A2K43BB1€ 107,-€ 214,-
1Seasonic G-series 360 watt€ 62,50€ 62,50
Bekijk collectie
Importeer producten
Totaal€ 806,55

~ beware of misinformation.


Acties:
  • 0 Henk 'm!
Netjes! Nog een USB3 stickje voor in de interne header?

Even niets...


Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
Enig idee wat ik zou booten van die USB stick? Ik dacht aan een SSDtje voor debian en de containers + 4 grote schijven voor data. ZFS op zowel de SSD als de schijven, twee pools.

[ Voor 19% gewijzigd door Nindustries op 28-01-2016 09:39 ]

~ beware of misinformation.

Pagina: 1 ... 199 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.