Specs zeggen niet zoveel als je er niet bij vertelt dat je er mee wilt gaan doen.chadly schreef op vrijdag 4 december 2020 @ 13:55:
Goedemiddag!
Ik wil graag een OVERKILL Full SSD Nas gaan bouwen!
Graag hoor ik jullie mening over het volgende concept.
# Category Product Prijs Subtotaal 1 Processors Intel Core i7-10700K Boxed € 367,90 € 367,90 1 Moederborden ASRock H470M-ITX/ac € 121,45 € 121,45 1 Controllers Asus HYPER M.2 X16 CARD V2 € 36,51 € 36,51 1 Behuizingen Fractal Design Node 304 Wit € 74,90 € 74,90 1 Processorkoeling Noctua NH-U9S chromax.black € 60,95 € 60,95 2 Geheugen intern Crucial CT32G4DFD8266 € 108,16 € 216,32 1 Voedingen be quiet! Straight Power 11 450W € 91,55 € 91,55 2 Solid state drives Samsung 970 Evo Plus 250GB € 63,75 € 127,50 4 Solid state drives Seagate IronWolf 125 SSD 4TB € 578,- € 2.312,- 2 Solid state drives Seagate IronWolf 510 1,92TB € 374,47 € 748,94 Bekijk collectie
Importeer productenTotaal € 4.158,02
Als hij alleen SMB gaat doen is het zeker OVERKILL. Ethernet 2.5Gbps wat het moederbord ondersteund wordt de bottleneck van de nas. @chadly het mooiste is als je een 10Gbps Ethernet adapter er nog bij neemt
chadly schreef op vrijdag 4 december 2020 @ 13:55:
Ik wil graag een OVERKILL Full SSD Nas gaan bouwen!
We hebben hier een behoorlijk overkill NAS staan met 2x 10Gbit naar de backbone switch waar 14 huishoudens op zijn aangesloten, maar full SSD NAS lijkt mij behoorlijke geldverspilling als je er geen 100Gbit NIC er bij neemt.cobo schreef op zaterdag 5 december 2020 @ 14:26:
Als hij alleen SMB gaat doen is het zeker OVERKILL. Ethernet 2.5Gbps wat het moederbord ondersteund wordt de bottleneck van de nas. @chadly het mooiste is als je een 10Gbps Ethernet adapter er nog bij neemt
Zeg niet dat een SSD geen plaats heeft in een NAS, hebben er net een Samsung PM983 M.2 3,84TB in gedaan als buffer, maar zelfs de Z3 array van draaiend roest kan de 10Gbit verbinding maximaal belasten met grotere files, en de buffer is puur voor ontlasting van de HDD array voor veel gevraagde files en bufferen van kleinere files.
Hier een goede uitleg over ZFS L2ARC Caching
Persoonlijk denk ik dat je beter je geld, als je het toch wil uitgeven, kan stekken in een aantal goede HDDs naast bv een PM983 NVMe drive.
Ben eigen wel benieuwd voor wat voor een scenario waar je (denkt) een volledige SSD NAS nodig hebt.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Bezig met het uitzoeken van wat er ECC ondersteund en niet gelijk een veels te grote €900 OEM kast is. Daarop komt een mooi ZFS-based Free/TrueNas OS dat de komende jaren geruis en onderhoudsloos z'n werk zal doen voor media streaming, pc backups en domotica. (met een kleine broeder ergens anders voor het off-site backup gedeelte
)
En eigenlijk lijkt het erop dat alleen de i3 van deze (oudere) generatie en dit hele specificieke Mobo (dat ik ook eerder in dit topic heb gezien) allebei ECC ondersteunen. Een Xeon die sneller is begint pas bij €300 (dat is al wel beetje overkill) en kwa nieuwe generatie lijken er simpelweg geen mobo's met de juiste chipset die ECC ondersteunt beschikbaar icm betaalbare xeons (want de directe opvolger van deze cpu ondersteunt géén ECC
)
Eveneens zou je het met AMD ryzen pro's kunnen doen, maar die zijn vreemd genoeg ook onverkrijgbaar.
Tips hiervoor? Ik zou opzich wel nog iets sneller en nieuwer willen gaan dan deze setup, maar niet echt meer dan 2x zoveel kwijt zijn.
Verder denk ik dat het zo wel compleet is:)
En eigenlijk lijkt het erop dat alleen de i3 van deze (oudere) generatie en dit hele specificieke Mobo (dat ik ook eerder in dit topic heb gezien) allebei ECC ondersteunen. Een Xeon die sneller is begint pas bij €300 (dat is al wel beetje overkill) en kwa nieuwe generatie lijken er simpelweg geen mobo's met de juiste chipset die ECC ondersteunt beschikbaar icm betaalbare xeons (want de directe opvolger van deze cpu ondersteunt géén ECC

Eveneens zou je het met AMD ryzen pro's kunnen doen, maar die zijn vreemd genoeg ook onverkrijgbaar.
Tips hiervoor? Ik zou opzich wel nog iets sneller en nieuwer willen gaan dan deze setup, maar niet echt meer dan 2x zoveel kwijt zijn.
# | Category | Product | Prijs | Subtotaal |
1 | Processors | Intel Core i3-9100 Boxed | € 124,04 | € 124,04 |
1 | Moederborden | Fujitsu D3644-B | € 152,50 | € 152,50 |
6 | Interne harde schijven | WD Red (256MB cache), 4TB | € 92,90 | € 557,40 |
1 | Behuizingen | Fractal Design Node 804 | € 91,50 | € 91,50 |
1 | Netwerkadapters | Trendnet 2.5GBASE-T PCIe Network Adapter | € 43,43 | € 43,43 |
1 | Geheugen intern | Kingston KSM26ED8/16ME | € 75,90 | € 75,90 |
1 | Voedingen | be quiet! Pure Power 11 400W CM | € 61,90 | € 61,90 |
1 | Solid state drives | Kingston A2000 250GB | € 34,90 | € 34,90 |
Bekijk collectie Importeer producten | Totaal | € 1.141,57 |
Verder denk ik dat het zo wel compleet is:)
| Cowsmology | Met een hamer past alles, met ducktape plakt alles |
Andere vraag trouwens, heb ik een 2.5GB aansluiting echt nodig of voldoet 1GB ethernet voor zo'n systeem? Ik heb een router met een 2.5G poort maar als ik niet meer dan 1GB haal met deze setup is dat natuurlijk niet nodig.
| Cowsmology | Met een hamer past alles, met ducktape plakt alles |
Het zou kunnen dat je iets sneller bent met een 2,5 Gbps adapter, maar heb je dat ook nodig?Achilles schreef op maandag 7 december 2020 @ 16:01:
Andere vraag trouwens, heb ik een 2.5GB aansluiting echt nodig of voldoet 1GB ethernet voor zo'n systeem? Ik heb een router met een 2.5G poort maar als ik niet meer dan 1GB haal met deze setup is dat natuurlijk niet nodig.
Ten eerste: heb je clients met een 2,5 Gbps ethernet adapter?
En ten tweede: 1 Gbps is in de praktijk ongeveer 100 MB per seconde. Ga je in een situatie terecht komen waarbij dat sneller mag?
Ik had ook een FreeNAS systeem met 6 schijven van 4TB (wel een Xeon processor, maar ik vermoed dat de harde schijven sowieso de bottleneck zijn), en ik had wel het gevoel dat ik de 1 Gbps vol trok ja. Ik heb wel nooit het gevoel gehad dat een sneller netwerk nodig was. 1 Gbps is voor streaming en backups normaal zat voldoende.
Je setup ziet er vlug gezien OK uit, maar die netwerk kaart is wel gebaseerd op een Realtek chip. Die worden door FreeNAS afgeraden voor performantieredenen. Al moet je de hardware aanbevelingen van FreeNAS soms wel met een serieuze korrel zout nemen.
Iemand ervaring met dit product: https://www.icydock.com/goods.php?id=306
Dit zou wel een mooie oplossing voor mijn boot disk zijn als het wat goedkoper was. 65 euro vind ik net wat te veel. Ik ben wel benieuwd of er iets vergelijkbaars te krijgen is waar je een 2,5 ssd mee in een PCI slot kunt proppen?
Dit zou wel een mooie oplossing voor mijn boot disk zijn als het wat goedkoper was. 65 euro vind ik net wat te veel. Ik ben wel benieuwd of er iets vergelijkbaars te krijgen is waar je een 2,5 ssd mee in een PCI slot kunt proppen?
@engessa
Zij zijn de enigen die zoiets maken voor zover ik weet en al hun producten zijn altijd al duurder geweest dan die van de concurrentie dus je enige hoop is een of andere "Ali variant" denk ik

De afbeelding laat wel 4 blokjes zien, maar meestal zien die er ietsje anders uit : Geel en wat hoger en scherper qua vorm.
Zij zijn de enigen die zoiets maken voor zover ik weet en al hun producten zijn altijd al duurder geweest dan die van de concurrentie dus je enige hoop is een of andere "Ali variant" denk ik
Heeft dat model echt elco's aan boord of gewoon de gebruikelijke "Write Back" toestanden die Samsung in al hun non-DC modellen gebruiktplayer-x schreef op zaterdag 5 december 2020 @ 16:11:
Zeg niet dat een SSD geen plaats heeft in een NAS, hebben er net een Samsung PM983 M.2 3,84TB in gedaan als buffer, maar zelfs de Z3 array van draaiend roest kan de 10Gbit verbinding maximaal belasten met grotere files, en de buffer is puur voor ontlasting van de HDD array voor veel gevraagde files en bufferen van kleinere files.
De afbeelding laat wel 4 blokjes zien, maar meestal zien die er ietsje anders uit : Geel en wat hoger en scherper qua vorm.
[ Voor 66% gewijzigd door nero355 op 08-12-2020 17:14 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Eigenlijk helemaal niet op gelet, mijn server heeft een flinke UPS tussen hem en het stopcontact staan, ben er dus niet echt bang voor stroom uitval, maar.... heb ff gekeken.nero355 schreef op dinsdag 8 december 2020 @ 17:10:
Heeft dat model echt elco's aan boord of gewoon de gebruikelijke "Write Back" toestanden die Samsung in al hun non-DC modellen gebruikt
De afbeelding laat wel 4 blokjes zien, maar meestal zien die er ietsje anders uit : Geel en wat hoger en scherper qua vorm.
Enterprise-level power loss protection
The Samsung PM983 SSD has been designed to prevent data loss resulting from unexpected power shutdowns with its power-loss protection architecture.
Upon detection of power failure, the SSD immediately uses the stored energy from tantalum capacitors to provide enough time to transfer the cached data in DRAM to the flash memory, for protection against loss of data.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Ik wil een nieuwe Proxmox based server bouwen voor storage (raw foto en video), Plex, verschillende LXC's, VM guests.
Mijn winkelwagentje heeft de volgende spullen:
Plan voor de kast is een LackRack (Ikea Lack tafeltje, die had ik al)
Disken:
- Boot: 2 mSata's in ZFS mirror
- Storage 6x 6TB disken in RAIDZ2
- 1 msata voor L2ARC
- 1 msata voor images/VMs (of iets anders, wellicht optioneel)
Ik ben niet heel zeker over de moederboard/CPU/merk; voor Plex heeft een igpu voorkeur voor wat transcoding offload, kan mogelijk ook door een low profile GPU kunnen worden gedaan.
Kast is 2U, low profile CPU koeler nodig en m2 pci kaart een heeft een low profile bracket erbij.
Noctua fans voor een zo stil mogelijk systeem.
Waar ga ik fout en/of kan ik optimaliseren ?
Mijn winkelwagentje heeft de volgende spullen:
# | Category | Product | Prijs | Subtotaal |
1 | Processors | Intel Core i5-10400F Boxed | € 150,79 | € 150,79 |
1 | Moederborden | ASRock B460M Pro4 | € 89,95 | € 89,95 |
6 | Interne harde schijven | WD Red Plus, 6TB | € 163,76 | € 982,56 |
1 | Controllers | Startech.com M.2 SSD Card 1x PCIe (NVMe) 2x SATA M.2 (PEXM2SAT32N1) | € 42,- | € 42,- |
1 | Behuizingen | Inter-Tech IPC 2U-2098-SK | € 72,52 | € 72,52 |
1 | Processorkoeling | Noctua NH-L9i Bruin | € 36,95 | € 36,95 |
2 | Ventilatoren | Noctua NF-A6x25 PWM, 60mm | € 14,30 | € 28,60 |
1 | Geheugen intern | Kingston ValueRAM Server Premier KSM32ED8/32ME | € 133,50 | € 133,50 |
1 | Voedingen | Corsair RM650 (2019) | € 93,90 | € 93,90 |
4 | Solid state drives | Kingston A400 M.2 120GB | € 20,97 | € 83,88 |
Bekijk collectie Importeer producten | Totaal | € 1.714,65 |
Plan voor de kast is een LackRack (Ikea Lack tafeltje, die had ik al)
Disken:
- Boot: 2 mSata's in ZFS mirror
- Storage 6x 6TB disken in RAIDZ2
- 1 msata voor L2ARC
- 1 msata voor images/VMs (of iets anders, wellicht optioneel)
Ik ben niet heel zeker over de moederboard/CPU/merk; voor Plex heeft een igpu voorkeur voor wat transcoding offload, kan mogelijk ook door een low profile GPU kunnen worden gedaan.
Kast is 2U, low profile CPU koeler nodig en m2 pci kaart een heeft een low profile bracket erbij.
Noctua fans voor een zo stil mogelijk systeem.
Waar ga ik fout en/of kan ik optimaliseren ?
Je hebt ECC geheugen genomen, maar je gekozen CPU ondersteunt dat niet. CPU's die dat wel doen zijn Xeon's, i3 (of toch zeker sommige, vooral wat oudere modellen), en hier en daar een Pentium of Celeron model (maar dat zullen ook wel oudere modellen zijn denk ik, niet dat daar iets mis mee is).z1rconium schreef op donderdag 10 december 2020 @ 08:39:
Waar ga ik fout en/of kan ik optimaliseren ?
AMD ondersteunt het onofficiëel dacht ik: het zou op de meeste moederborden en met de meeste reepjes moeten werken, maar ze garanderen dat niet voor zover ik weet. Ik weet ook niet welke modellen, maar volgens mij hebben bijna alle Ryzens ECC ondersteuning.
Zou ten eerste die mSATA dumpen en gewoon 2x M2 NVMe drives gebruiken, die zijn een heel stuk sneller, en als boot gewoon 2x sata ssd's gebruiken, na boot heb je toch geen snelle SSD meer nodig.z1rconium schreef op donderdag 10 december 2020 @ 08:39:
Disken:
- Boot: 2 mSata's in ZFS mirror
- Storage 6x 6TB disken in RAIDZ2
- 1 msata voor L2ARC
- 1 msata voor images/VMs (of iets anders, wellicht optioneel)
Als je ECC echt wil gebruiken, dan zou ik een S1151 en iig met een Cxxx chipset gebruiken anders heb je geen ECC, de ASUS WS C246 PRO is een heel mooi bord daar voor, maar Supermicro maakt ook mooie bordjes.
Persoonlijk ben ik van mening dat voor Privé gebruik ECC niet echt een must is ZFS en Z1 of nog beter Z2 doen veel meer voor je data veiligheid dan ECC, er zijn een aantal mensen hier die het daar mee oneens zijn, waar het imho op uitkomt, bij hoeveel komt je kosten/baten in het voordeel van ECC.
Hier een wat uitgebreide post over mijn mening van het nut van ECC, daarnaast heeft DDR4 een soort light versie vaan ECC ingebouwd in de standaard voor tijdens data transmissie in en uit het geheugen .
6 core CPUs met ECC
Borden met 8x SATA en ECC
De reden om een goede workstation of Supermicro bord te gebruiken is, is dat een server 24/7 draait en hij imho minimaal 5j moet kunnen werken, daar zijn goedkopere bordjes eigenlijk niet geschikt voor.
Voor de CPU is de vraag heb je een 6 core nodig, 4 cores zou genoeg moeten zijn en scheelt veel geld, daarnaast zou ook een GTX1050 (h265) of beter kunnen gebruiken voor het transcoden, die worden regelmatig voor een goede prijs aangeboden, en dan kan je al klaar zijn met een dual core ECC CPU.
Kijk ook voor onderdelen in de V&A bv CPU's en mobo's worden daar regelmatig aan geboden voor leuke prijzen, hoewel het aanbod op het moment wel heel erg karig is, maar als je geen haast heb kan je behoorlijk geld besparen, vooral op server grade hardware.
In mijn server zit bv een P10S WS die ik heb gekocht voor €125, GTX1060 voor €90 en een Broadcom SAS 9300-16i Host Bus Adapter voor €150, als voorbeelden.
[ Voor 8% gewijzigd door player-x op 10-12-2020 13:02 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Je stelt het hier en in de post waar je naar linkt dat ECC een aanvulling op of alternatief voor ZFS zou zijn, in plaats van een behoorlijk essentiële voorwaarde. Juist dankzij de bescherming die ZFS biedt is ECC een must: de periodieke scrub die AL je data bij langs gaat gaat je hele bestandssysteem vernaggelen als je rotte bits in je geheugen hebt waardoor de checksums structureel afwijken, en het erge is nog dat ZFS achteraf denkt dat het je data van de ondergang gered heeft. Dat het risico klein is ben ik volledig met je eens en ik heb de afgelopen 3 jaar ook ZFS gedraaid zonder ECC geheugen, dus voel je vrij om zelf de afweging te maken. Ik ben mij er wel erg bewust van geweest dat het een vrij groot risico is en heb vorige maand dus ook mijn nieuwe NAS mét ECC in gebruik genomen.player-x schreef op donderdag 10 december 2020 @ 12:09:
[...]
Persoonlijk ben ik van mening dat voor Privé gebruik ECC niet echt een must is ZFS en Z1 of nog beter Z2 doen veel meer voor je data veiligheid dan ECC, er zijn een aantal mensen hier die het daar mee oneens zijn, waar het imho op uitkomt, bij hoeveel komt je kosten/baten in het voordeel van ECC.
Hier een wat uitgebreide post over mijn mening van het nut van ECC, daarnaast heeft DDR4 een soort light versie vaan ECC ingebouwd in de standaard voor tijdens data transmissie in en uit het geheugen .
ZFS + RAM zonder ECC met bitrot = alle data corrupt.
Ander FS zonder scrub + RAM zonder ECC met bitrot = dubieuze foutjes die je waarschijnlijk opmerkt voor het te laat is.
Of mis ik nou iets aan kennis over de werkwijze van ZFS met scrubs?
Tja
Heb zelf ook ECC in mijn server, want mijn server wordt door meerdere huishoudens gebruikt en was de afweging een stuk makkelijker in het voordeel van ECC, maar op onze thuisservers draait bv geen database met honderden of zelfs duizenden gebruikers, daarnaast is de I/O belasting vooral van kleine schrijf acties vele male lager.MadEgg schreef op donderdag 10 december 2020 @ 13:40:
Of mis ik nou iets aan kennis over de werkwijze van ZFS met scrubs?
Het is uiteraard een koste/baten probleem, voor bv Shell is het simpel, als die 0.5% meer uitgeeft aan ECC voor een server en daarmee de uitval kans verkleint met 0.1% is dat nog steeds goed uitgegeven geld, want een fabriek die stil ligt kost miljoenen per dag.
Voor privé ligt dat anders, (a) we hebben een kleiner budget, (b) de gevolgen zijn veel kleiner, (c) de kansen van een bit-flip zijn vele malen lager omdat we onze servers anders gebruiken.
Hier is mijn argument voor de budget optie voor een home-server zonder ECC.
- ECC gerelateerde ZFS corruptie problemen vinden alleen plaats als er geschreven wordt
- Men zegt dat er ongeveer een bit-flip per dimm/jaar plaats vind.
- Laten we het heel erg ruim nemen en zeggen dat er 100 plaatsvinden per jaar bij 24/7 gebruik in een 4 dimm systeem.
- Ik bereken ruwweg dat er 0.1% van de tijd metadata schrijf acties plaatsvinden van video bestanden ten opzichte van een grote database server.
- (het is veel minder, zelfs voor de meest fanatieke torrent downloaders, die geen aparte toegewijd download schijf gebruiken om de vdev te ontlasten)
- En er 0.1% van de schrijf acties metadata is. (wederom het is minder)
- Daarnaast de kans op een bit-flip pressies in dat geheugenblok op de dimm ook nog eens erg klein
Laat ik duidelijk zijn, heb niets tegen ECC, ik gebruik het namelijk zelf ook, en kan je het betalen, gebruik het, zeker als je al een server bord gebruikt voor de extra betrouwbaarheid, dan zijn de kosten van €25~50 extra voor DDR4 ECC 2666 niet veel meer dan van gewoon geheugen.
Maar het is wel het eerste onderdeel waar ik op zou bezuinigen als mijn budget krap zou zijn.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
@player-x nu reageer je niet op het hoofdpunt van mijn argument, en dat is de maandelijkse scrub van de data. Daarbij wordt álle data gelezen en indien de data niet de juiste checksum heeft wordt de data "gecorrigeerd" om weer overeen te komen. Als in dit proces bitflips voorkomen door corrupt geheugen dan maakt deze correctie je data dus juist kapot. En de scrub gaat over ál je data heen, dus heeft het bij brak geheugen effect op ál je data, niet alleen op data die je dan aan het wegschrijven bent. Dat is is het argument wat ik veelal hoor waarom je ECC zou moeten hebben als je ZFS gebruikt. Niet ECC voor een NAS, nee, ECC voor ZFS. Vanwege de manier waarop de integriteits-checks werken.
Ik ben het volledig eens met je risicoanalyse die je verder opsomt, voor "normale" bestandssystemen is het risico zeer klein en de impact beperkt. Het is juist de combi non-ECC + ZFS die de risico's vergroot.
Ik ben het volledig eens met je risicoanalyse die je verder opsomt, voor "normale" bestandssystemen is het risico zeer klein en de impact beperkt. Het is juist de combi non-ECC + ZFS die de risico's vergroot.
Tja
De kans is echter behoorlijk klein dat je dusdanig last van bitflips hebt dat je alle data sloopt, maar het systeem daarnaast nog rustig doordraait. Ook moeten de bitflips toevallig niet optreden bij de metadata, want als daar te veel flips in zitten komt een scub ook niet ver. En ZFS zal ook best vlot stoppen op het moment dat alle schijven 'foute' data aanleveren, dan zit je binnen de kortste keren met een pool waar te veel schijven uit geduwd zijn vanwege de hoeveelheid fouten.
[ Voor 27% gewijzigd door dcm360 op 10-12-2020 15:18 ]
Ik durf er niet mijn hand voor in het vuur te stekken of ik het me goed herinner, en kan de bron niet meer vinden, maar wat mij bij staat is dat als er een error gevonden wordt vind tijdens de scrub, zfs de data nogmaals controleert of er daadwerkelijk een error heeft plaatsgevonden.
En de kans dat er dan nogmaals tijdens het checken dezelfde bit-flip plaats vind acht ik uiterst klein, wel wordt de error gelogd.
En de kans dat er dan nogmaals tijdens het checken dezelfde bit-flip plaats vind acht ik uiterst klein, wel wordt de error gelogd.
[ Voor 3% gewijzigd door player-x op 10-12-2020 15:22 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Goed punt thanks. Ik ging er vanuit dat dat vandaag de dag standaard aan boord was (ik kom van een C2750di avaton met ECC).Giesber schreef op donderdag 10 december 2020 @ 10:29:
[...]
Je hebt ECC geheugen genomen, maar je gekozen CPU ondersteunt dat niet.
@player-x @MadEgg
Ik wilde geen beerput opentrekken
Ik kwam langs deze post, en een post van een van de bedenkers van ZFS:
Ik ga dit nog even afwegen. Thanks allen.There's nothing special about ZFS that requires/encourages the use of ECC RAM more so than any other filesystem. If you use UFS, EXT, NTFS, btrfs, etc without ECC RAM, you are just as much at risk as if you used ZFS without ECC RAM. Actually, ZFS can mitigate this risk to some degree if you enable the unsupported ZFS_DEBUG_MODIFY flag (zfs_flags=0x10). This will checksum the data while at rest in memory, and verify it before writing to disk, thus reducing the window of vulnerability from a memory error.
I would simply say: if you love your data, use ECC RAM. Additionally, use a filesystem that checksums your data, such as ZFS
Das een goeie, het spul is ook lekker verwarrend M.2 vs nvmeZou ten eerste die mSATA dumpen en gewoon 2x M2 NVMe drives gebruiken, die zijn een heel stuk sneller, en als boot gewoon 2x sata ssd's gebruiken, na boot heb je toch geen snelle SSD meer nodig.
[ Voor 10% gewijzigd door z1rconium op 10-12-2020 17:28 ]
Met "rotte bits in je geheugen" lijk je een kapotte RAM module te bedoelen. Zo'n kapotte RAM module is meestal voor meer dan 99% in orde, maar op een aantal pagina's van het geheugen zal een aantal bits niet goed de waarde houden. Als een geschreven of gelezen bestand toevallig via een van die pagina's loopt, zal het zeker beschadigd raken -- je ziet hetzelfde patroon van beschadiging in alle bestanden die beschadigd zijn.MadEgg schreef op donderdag 10 december 2020 @ 13:40:
[...] gaat je hele bestandssysteem vernaggelen als je rotte bits in je geheugen hebt waardoor de checksums structureel afwijken
[...]
RAM zonder ECC met bitrot = alle data corrupt
Het defect van het geheugen kan je dankzij ECC vrij snel detecteren maar zonder ECC kan je systeem weken of langer doordraaien tot je het merkt. Laatst stond er hier op Tweakers een topic van iemand die dit meemaakte.
Het gewone "bitrot" is veel sluipender: dat er over de tijd, met miniscuul kleine kans, in een bestand een willekeurig bit spontaan omvalt. Dit is in je fotoverzameling van duizenden foto's die ene foto waar vanaf ergens in het midden de kleuren niet meer kloppen.
„Ik kan ook ICT, want heel moeilijk is dit niet”
Is dit hem toevallig:engessa schreef op dinsdag 8 december 2020 @ 16:36:
Iemand ervaring met dit product: https://www.icydock.com/goods.php?id=306
Dit zou wel een mooie oplossing voor mijn boot disk zijn als het wat goedkoper was. 65 euro vind ik net wat te veel. Ik ben wel benieuwd of er iets vergelijkbaars te krijgen is waar je een 2,5 ssd mee in een PCI slot kunt proppen?
YouTube: Hot Swap Storage in a PCIe Slots??? - IcyDock 2.5" SSD + PCIe Hotswap
Wat me niet handig lijkt, is dat je de ingebouwde SATA controller moet gebruiken.
Je hebt dit soort bays rechtstreeks in China ook zonder SATA controller en trayless,
die koop je op Aliexpress voor minder dan 22 euro (=vrijstellingsgrens).
„Ik kan ook ICT, want heel moeilijk is dit niet”
Dat zijn geen gekke prijzen!player-x schreef op donderdag 10 december 2020 @ 12:09:
daarnaast zou ook een GTX1050 (h265) of beter kunnen gebruiken voor het transcoden, die worden regelmatig voor een goede prijs aangeboden
GTX1060 voor €90
Als het nieuw moet dan zou ik een passief gekoelde GT 1030 pakken, maar als je iets anders goedkoop kan vinden dat lekker stil blijft : Waarom ook niet!
Echter moet ik wel heel eerlijk zeggen dat als je anno 2020/bijna 2021 nog steeds een apparaat hebt dat transcoding nodig heeft het toch wel heel erg tijd wordt voor een upgrade : Zelfs een telefoon uit 2016 heeft al H.265 ondersteuning!
Verder zou ik ook Plex sowieso eruit schoppen, maar ik gok dat je al aan een licentie vast zit dus dan heeff het geen nut om over alternatieven te praten of te overwegen...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
De GT1030 doet geen h265 transcode, heb je dat niet nodig dan is het een prima optie.nero355 schreef op donderdag 10 december 2020 @ 19:08:
Als het nieuw moet dan zou ik een passief gekoelde GT 1030 pakken, maar als je iets anders goedkoop kan vinden dat lekker stil blijft : Waarom ook niet!
Heb zelf een semi-passieve MSI GTX 1060 GAMING 6GB, werkt prima, heb hem pas geleden, na een jaar gebruik in mijn sever schoon gemaakt, en had geen last van stof.
Ik doe transcoding, zeker naar mobiel niet omdat je mobiel het niet aan zou kunnen, ik doe het omdat het minder data verstuurt, als ik niet thuis ben, en je daarnaast wat batterij bespaart.Echter moet ik wel heel eerlijk zeggen dat als je anno 2020/bijna 2021 nog steeds een apparaat hebt dat transcoding nodig heeft het toch wel heel erg tijd wordt voor een upgrade : Zelfs een telefoon uit 2016 heeft al H.265 ondersteuning!
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Hmm... dat is ook flauw!player-x schreef op donderdag 10 december 2020 @ 19:36:
De GT1030 doet geen h265 transcode, heb je dat niet nodig dan is het een prima optie.

Dan kan je inderdaad beter voor een GTX 1050 of hoger kiezen...
NICE!Heb zelf een semi-passieve MSI GTX 1060 GAMING 6GB, werkt prima, heb hem pas geleden, na een jaar gebruik in mijn sever schoon gemaakt, en had geen last van stof.
Mja, als je daarvan kan genieten dan is dat inderdaad wel een dingetje, maar zonder een grote TV of Beamer en een surround speakers setup vind ik er eigenlijk geen bal aan!Ik doe transcoding, zeker naar mobiel niet omdat je mobiel het niet aan zou kunnen, ik doe het omdat het minder data verstuurt, als ik niet thuis ben, en je daarnaast wat batterij bespaart.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik heb in mijn werk nogal wat wachturen, en dan is oortjes in en tabletje pakken een prima oplossing, naast lezen om de tijd door te komen, en voor series als bv Monk, White Collar, Elementary of House heb je geen surround of grote TV nodig.nero355 schreef op donderdag 10 december 2020 @ 21:41:
Mja, als je daarvan kan genieten dan is dat inderdaad wel een dingetje, maar zonder een grote TV of Beamer en een surround speakers setup vind ik er eigenlijk geen bal aan!
Met 720p@1.5~2Mbps x 45min = 0.6GB aan data, als ik meer verbruik per series ga ik problemen krijgen met de fair use policy, dit is ongeveer 720@3Mbps h264, heb met h265 heb ik ongeveer dezelfde beeldkwaliteit met 1.5~2Mbps, prima voor mijn tablet, is er wifi op werk, dan gebruik ik gewoon 1080p, maar het verschil is niet schokkend.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Beste medetweakers. Ik heb voor weinig geld een hardware RAID controller op de kop getikt (Adaptec RAID 5805) en wilde hier graag een RAID 50 array mee maken. Reden voor RAID 50 is de balans van capaciteit, kosten en leesprestaties (het gaat met name om een mediaserver), en ook gewoon een beetje als hobbyproject.
Nu was ik me er bij aanvang niet van bewust dat 'alignment' van je partities en RAID arrays blijkbaar nogal een grote rol speelt. Ik vind hier erg veel incomplete en conflicterende informatie over, het meeste ook redelijk gedateerd. Kan iemand mij uitleggen, of verwijzen naar een bron over, hoe ik dit het beste aan kan pakken in Windows 10?
Nu was ik me er bij aanvang niet van bewust dat 'alignment' van je partities en RAID arrays blijkbaar nogal een grote rol speelt. Ik vind hier erg veel incomplete en conflicterende informatie over, het meeste ook redelijk gedateerd. Kan iemand mij uitleggen, of verwijzen naar een bron over, hoe ik dit het beste aan kan pakken in Windows 10?
@Dorstlesser twee opmerkingen:
1. RAID50 is ongebruikelijk omdat RAID6 veel veiliger is met dezelfde capaciteit
2. Ik zou eerst gewoon eens een RAID6 aanmaken en kijken of je redelijke performance haalt (in ieder geval gigabit dichttrekken)
1. RAID50 is ongebruikelijk omdat RAID6 veel veiliger is met dezelfde capaciteit
2. Ik zou eerst gewoon eens een RAID6 aanmaken en kijken of je redelijke performance haalt (in ieder geval gigabit dichttrekken)
@Q
Dank voor de tip wat betreft RAID6, nu ik erover nadenk is dat ook wel logisch. Is goede alignment niet ook van belang om een overdaad aan schrijfacties te vermijden? Of valt dat allemaal wel mee?
Overigens gaat het hier niet specifiek om een NAS maar om een Windows PC waar ook andere dingen op gebeuren dan alleen maar bestanden serveren; prestaties binnen het systeem zelf zijn dus ook nog enigzins relevant. Ik heb hier gepost omdat dit me het meest logische topic leek.
Dank voor de tip wat betreft RAID6, nu ik erover nadenk is dat ook wel logisch. Is goede alignment niet ook van belang om een overdaad aan schrijfacties te vermijden? Of valt dat allemaal wel mee?
Overigens gaat het hier niet specifiek om een NAS maar om een Windows PC waar ook andere dingen op gebeuren dan alleen maar bestanden serveren; prestaties binnen het systeem zelf zijn dus ook nog enigzins relevant. Ik heb hier gepost omdat dit me het meest logische topic leek.
[ Voor 3% gewijzigd door Dorstlesser op 14-01-2021 16:58 ]
Ik heb niet veel ervaring met hardware RAID controllers dus misschien dat iemand anders er meer over weet.Dorstlesser schreef op donderdag 14 januari 2021 @ 16:58:
@Q
Dank voor de tip wat betreft RAID6, nu ik erover nadenk is dat ook wel logisch. Is goede alignment niet ook van belang om een overdaad aan schrijfacties te vermijden? Of valt dat allemaal wel mee?
Overigens gaat het hier niet specifiek om een NAS maar om een Windows PC waar ook andere dingen op gebeuren dan alleen maar bestanden serveren; prestaties binnen het systeem zelf zijn dus ook nog enigzins relevant. Ik heb hier gepost omdat dit me het meest logische topic leek.
Dit artikel vind ik redelijk helder maar het is wel wat complex.
https://docs.microsoft.co...nce-slower-multiple-disks
Ik weet niet of dit bij jou zal spelen
Dank, dat is super handig en precies waarnaar ik op zoek was.Q schreef op donderdag 14 januari 2021 @ 17:08:
[...]
Ik heb niet veel ervaring met hardware RAID controllers dus misschien dat iemand anders er meer over weet.
Dit artikel vind ik redelijk helder maar het is wel wat complex.
https://docs.microsoft.co...nce-slower-multiple-disks
Ik weet niet of dit bij jou zal spelen
Klein vraagje nog; ze hanteren in dit artikel altijd een sectorgrootte van 512B; mag ik aannemen dat dat voor mijn HDDs ook geldt, of is dit mogelijk verouderd?
Voor zover ik weet, is (indien je 4K schijven hebt) 512B of 4K een onzichtbare laag waar je niet druk over hoeft te maken.
Weet alleen niet of die oude Adaptec ook 4K ondersteund, maar daar ben je snel genoeg achter als je er een schijf aan hangt.
Weet alleen niet of die oude Adaptec ook 4K ondersteund, maar daar ben je snel genoeg achter als je er een schijf aan hangt.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Mijn huidige systeem (AsRock B75 Pro3-M, Pentium G840, 16GB) dat vanaf eind september 2012 draait is wel aan vervanging toe. Steeds meer kleine hardware problemen en ook de performance laat af en toe te wensen over. De keuze is na het lezen van de vele topics gevallen op het volgende systeem:
De huidige 6 HDDs en 2 SSDs moeten ook overgezet worden. Van de 6 HDDs zijn er nu 4 in gebruik, de andere 2 kan ik later nog toevoegen door een extra SATA controller kaartje toe te voegen. Het systeem wordt gebruikt als opslag (ZFS), backup (intern en van derden), Plex server, download client en home automation.
De vraag is welke voeding geschikt is? De Corsair heeft maar 4 SATA aansluitingen maar dat is op te lossen met Molex->SATA converters (gebruik ik nu ook), de Seasonic heeft er 8 maar hierover lees je weer dat de voeding toch een vervelend geluid kan produceren.
Verder ook nog of ECC wel nodig is? Ik heb de vele discussies gelezen, gebruik het nu ook niet maar kan zo gauw geen vergelijkbaar moederbord vinden met dezelfde chipset. Of moet ik dan naar een B360/B460 chipset gaan kijken.
# | Category | Product | Prijs | Subtotaal |
1 | Processors | Intel Core i3-9100 Boxed | € 124,47 | € 124,47 |
1 | Moederborden | Fujitsu D3644-B | € 152,50 | € 152,50 |
1 | Behuizingen | Fractal Design Node 804 | € 99,90 | € 99,90 |
2 | Geheugen intern | Samsung M391A2K43BB1-CTD | € 102,85 | € 205,70 |
1 | Voedingen | Corsair SF450 (2018) | € 108,17 | € 108,17 |
1 | Voedingen | Seasonic Prime Fanless PX-450 | € 139,90 | € 139,90 |
Bekijk collectie Importeer producten | Totaal | € 830,64 |
De huidige 6 HDDs en 2 SSDs moeten ook overgezet worden. Van de 6 HDDs zijn er nu 4 in gebruik, de andere 2 kan ik later nog toevoegen door een extra SATA controller kaartje toe te voegen. Het systeem wordt gebruikt als opslag (ZFS), backup (intern en van derden), Plex server, download client en home automation.
De vraag is welke voeding geschikt is? De Corsair heeft maar 4 SATA aansluitingen maar dat is op te lossen met Molex->SATA converters (gebruik ik nu ook), de Seasonic heeft er 8 maar hierover lees je weer dat de voeding toch een vervelend geluid kan produceren.
Verder ook nog of ECC wel nodig is? Ik heb de vele discussies gelezen, gebruik het nu ook niet maar kan zo gauw geen vergelijkbaar moederbord vinden met dezelfde chipset. Of moet ik dan naar een B360/B460 chipset gaan kijken.
Ik heb hier een Supermicro SYS-5028D-TN4T staan waar in voorheen VMware ESXi + Xpenology op had, ik wil echter overstappen op ZFS in combinatie met Proxmox.
De server die ik nu heb bevat:
Ik had ~21TB beschikbaar (RAID-5 constructie met Xpenology), maar zit nu meer te neigen naar mirrored vdevs, dit zou dan inhouden dat ik hiermee straks ~13TB beschikbaar heb (?)
Op dit moment heb ik echter ~9TB aan data in gebruik (voornamelijk films, series en games), dit zou inhouden dat ik binnenkort ergens een keer zal moeten uitbreiden.
Volgens mij moet de pool uitgebreid worden met minimaal 2 disks elke keer als ik het goed begrijp, klopt dit (en maakt de grote van de disk dan ook uit naast mijn huidige 4x 8tb'ers) ?
De server die ik nu heb bevat:
- Intel Xeon D-1541 (8c/16t @ 2.10 GHz, 12M Cache)
- 64GB RAM (2x Samsung M393A4K40BB1-CRC)
- Samsung 960 Pro 1TB (NVMe)
- 4x Seagate BarraCuda 8TB (ST80000DM004)
- VM's
- Containers (Docker)
- Fileserver (Samba)
- Active Directory (voor oa. rechten op fileserver)
- Firewall (OPNsense)
Ik had ~21TB beschikbaar (RAID-5 constructie met Xpenology), maar zit nu meer te neigen naar mirrored vdevs, dit zou dan inhouden dat ik hiermee straks ~13TB beschikbaar heb (?)
Op dit moment heb ik echter ~9TB aan data in gebruik (voornamelijk films, series en games), dit zou inhouden dat ik binnenkort ergens een keer zal moeten uitbreiden.
Volgens mij moet de pool uitgebreid worden met minimaal 2 disks elke keer als ik het goed begrijp, klopt dit (en maakt de grote van de disk dan ook uit naast mijn huidige 4x 8tb'ers) ?
Uiteindelijk besloten om voor een Gigabyte Z490M icm een Core i3-10100 te gaan. Ook gekozen voor de Seasonic aangezien de huidige versie geen last meer moet hebben van het extra geluid.kdbruin schreef op donderdag 21 januari 2021 @ 09:22:
De vraag is welke voeding geschikt is? De Corsair heeft maar 4 SATA aansluitingen maar dat is op te lossen met Molex->SATA converters (gebruik ik nu ook), de Seasonic heeft er 8 maar hierover lees je weer dat de voeding toch een vervelend geluid kan produceren.
Verder ook nog of ECC wel nodig is? Ik heb de vele discussies gelezen, gebruik het nu ook niet maar kan zo gauw geen vergelijkbaar moederbord vinden met dezelfde chipset. Of moet ik dan naar een B360/B460 chipset gaan kijken.
Morgen de kast bij iemand ophalen en zaterdag als het goed is de rest binnen dus dan kunnen we weer aan de slag.
Mijn zelfbouw NAS draait al heel lang op oude hardware (AMD triplecore, 10+ jaar oud) en de load begint nu toch net iets teveel te worden. Tijd voor een upgrade!
Hardware die mee gaat
Case
Voeding (pricewatch: Cooler Master Real Power M520)
IBM ServeRAID M1015 SAS/SATA Controller (6x sata)
6x 3TB HDD (storage Z2 ZFS pool)
2x 1TB SSD (docker mirror ZFS pool)
1x 64GB SSD (OS)
Z-wave dongle (USB)
Wat draait er op?
Ubuntu LTS met de volgende docker containers:
Plex (transcode voor chromecast is voornaamste reden dat de oude hw het niet trekt)
Home Assistant
Node Red
EMQX (Mqtt broker)
ZwaveJS
ESPhome
InfluxDB
Grafana
Transmission/Jackett/Radarr/Sonarr
Traefik
Samba
Ik ben dus op zoek naar een nieuwe cpu/mobo/geheugen combo die ik hierin kan droppen om weer een flink aantal jaar vooruit te kunnen. Budget is geen issue. Ik heb echter al zeer lang geen systeem meer samengesteld dus zou wel wat hulp kunnen gebruiken.
Mijn eerste idee:
Verder heeft de CPU die ik geselecteerd heb geen onboard graphics dus zal ik nog een el-cheapo videokaart moeten toevoegen.
Waarom zou ik echter een server board gebruiken als ik ook voor minder dan de helft bijvoorbeeld dit board (pricewatch: ASRock X570 Phantom Gaming 4S) kan gebruiken?
Hardware die mee gaat
Case
Voeding (pricewatch: Cooler Master Real Power M520)
IBM ServeRAID M1015 SAS/SATA Controller (6x sata)
6x 3TB HDD (storage Z2 ZFS pool)
2x 1TB SSD (docker mirror ZFS pool)
1x 64GB SSD (OS)
Z-wave dongle (USB)
Wat draait er op?
Ubuntu LTS met de volgende docker containers:
Plex (transcode voor chromecast is voornaamste reden dat de oude hw het niet trekt)
Home Assistant
Node Red
EMQX (Mqtt broker)
ZwaveJS
ESPhome
InfluxDB
Grafana
Transmission/Jackett/Radarr/Sonarr
Traefik
Samba
Ik ben dus op zoek naar een nieuwe cpu/mobo/geheugen combo die ik hierin kan droppen om weer een flink aantal jaar vooruit te kunnen. Budget is geen issue. Ik heb echter al zeer lang geen systeem meer samengesteld dus zou wel wat hulp kunnen gebruiken.
Mijn eerste idee:
# | Category | Product | Prijs | Subtotaal |
1 | Processors | AMD Ryzen 5 5600X Boxed | € 355,90 | € 355,90 |
1 | Moederborden | ASRock X570D4U | € 353,52 | € 353,52 |
1 | Geheugen intern | Corsair Vengeance LPX CMK64GX4M2E3200C16 | € 299,53 | € 299,53 |
Bekijk collectie Importeer producten | Totaal | € 1.008,95 |
Verder heeft de CPU die ik geselecteerd heb geen onboard graphics dus zal ik nog een el-cheapo videokaart moeten toevoegen.
Waarom zou ik echter een server board gebruiken als ik ook voor minder dan de helft bijvoorbeeld dit board (pricewatch: ASRock X570 Phantom Gaming 4S) kan gebruiken?
27x320Wp LG | 7.4 kW W/W warmtepomp | 2024 Model 3 Performance+FSD | 2019 Zoë 40kWh Star Wars edition
Ik zit met dezelfde vraag maar heb ECC en IPMI nodig en dus meestal een server board. Ik heb voorlopig deze gekozen.Tassadar32 schreef op vrijdag 19 februari 2021 @ 10:01:
Mijn zelfbouw NAS draait al heel lang op oude hardware (AMD triplecore, 10+ jaar oud) en de load begint nu toch net iets teveel te worden. Tijd voor een upgrade!
Hardware die mee gaat
Case
Voeding (pricewatch: Cooler Master Real Power M520)
IBM ServeRAID M1015 SAS/SATA Controller (6x sata)
6x 3TB HDD (storage Z2 ZFS pool)
2x 1TB SSD (docker mirror ZFS pool)
1x 64GB SSD (OS)
Z-wave dongle (USB)
Wat draait er op?
Ubuntu LTS met de volgende docker containers:
Plex (transcode voor chromecast is voornaamste reden dat de oude hw het niet trekt)
Home Assistant
Node Red
EMQX (Mqtt broker)
ZwaveJS
ESPhome
InfluxDB
Grafana
Transmission/Jackett/Radarr/Sonarr
Traefik
Samba
Ik ben dus op zoek naar een nieuwe cpu/mobo/geheugen combo die ik hierin kan droppen om weer een flink aantal jaar vooruit te kunnen. Budget is geen issue. Ik heb echter al zeer lang geen systeem meer samengesteld dus zou wel wat hulp kunnen gebruiken.
Mijn eerste idee:
# Category Product Prijs Subtotaal 1 Processors AMD Ryzen 5 5600X Boxed € 355,90 € 355,90 1 Moederborden ASRock X570D4U € 353,52 € 353,52 1 Geheugen intern Corsair Vengeance LPX CMK64GX4M2E3200C16 € 299,53 € 299,53 Bekijk collectie
Importeer productenTotaal € 1.008,95
Verder heeft de CPU die ik geselecteerd heb geen onboard graphics dus zal ik nog een el-cheapo videokaart moeten toevoegen.
Waarom zou ik echter een server board gebruiken als ik ook voor minder dan de helft bijvoorbeeld dit board (pricewatch: ASRock X570 Phantom Gaming 4S) kan gebruiken?
12.090kWp → 40 panelen → oost/zuid/west | Tibber | EV
Koop dan een nieuwe Chromecast en laat alles verder zoals het is of zeg ik wat raarsTassadar32 schreef op vrijdag 19 februari 2021 @ 10:01:
Plex (transcode voor chromecast is voornaamste reden dat de oude hw het niet trekt)
Waarom zou ik echter een server board gebruiken als ik ook voor minder dan de helft bijvoorbeeld dit board (pricewatch: ASRock X570 Phantom Gaming 4S) kan gebruiken?
Het hele probleem met AMD spul is dat er wel Ryzen Pro is maar geen "X570 Pro" om het maar effe zo te noemen dus dan blijft er maar één ding over : Wil je wel of geen IPMI toegang op je NAS/Server/Workstationcville schreef op vrijdag 19 februari 2021 @ 11:18:
Ik zit met dezelfde vraag maar heb ECC en IPMI nodig en dus meestal een server board. Ik heb voorlopig deze gekozen.
Wat dat betreft is Intel nog steeds de betere keuze, tenzij je voor de goedkopere EPYC modellen gaat van AMD
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Als je gaat voor de X570D4U (wat geen ASRock moederbord is maar een van ASRock Rack), is een videokaart niet nodig. De BMC bevat een simpele videochip die beeld geeft over VGA of in de webinterface.Tassadar32 schreef op vrijdag 19 februari 2021 @ 10:01:
Verder heeft de CPU die ik geselecteerd heb geen onboard graphics dus zal ik nog een el-cheapo videokaart moeten toevoegen.
Maar die ASRock rack moederborden zijn 350 euro, een vergelijkbaar "gamer" mobo is 170. Zeg 30 euro voor een el cheap videokaartje en dan is het nog 150 euro prijsverschil voor ... eh ... wat eigenlijk?dcm360 schreef op vrijdag 19 februari 2021 @ 17:02:
[...]
Als je gaat voor de X570D4U (wat geen ASRock moederbord is maar een van ASRock Rack), is een videokaart niet nodig. De BMC bevat een simpele videochip die beeld geeft over VGA of in de webinterface.
27x320Wp LG | 7.4 kW W/W warmtepomp | 2024 Model 3 Performance+FSD | 2019 Zoë 40kWh Star Wars edition
Een videokaart zit naar mijn idee alleen maar in de weg het grootste deel van de tijd, en remote management vind ik een best fijne feature, net als 2 netwerkpoorten. In zekere zin is het ook wel fijn dat er heel veel meuk van gamingmoederborden niet op zit, zoals een kerstboom, audiochip en wifi, al moet ik zeggen dat de door jou gelinkte Phantom Gaming best meevalt wat dat betreft, en ik de keuze voor dat bord ook niet verkeerd vind. De X470-variant van Asrock Rack is overigens €100 goedkoper dan de X570.Tassadar32 schreef op vrijdag 19 februari 2021 @ 21:41:
[...]
Maar die ASRock rack moederborden zijn 350 euro, een vergelijkbaar "gamer" mobo is 170. Zeg 30 euro voor een el cheap videokaartje en dan is het nog 150 euro prijsverschil voor ... eh ... wat eigenlijk?
Tja, ik heb een SuperMicro Intel workstation bord met IPMI (en dus een videochip) en ECC voor mijn NAS. Die kostte rond de €200 (nu 192) dus het hoeft geen 350 te zijn natuurlijk.Tassadar32 schreef op vrijdag 19 februari 2021 @ 21:41:
[...]
Maar die ASRock rack moederborden zijn 350 euro, een vergelijkbaar "gamer" mobo is 170. Zeg 30 euro voor een el cheap videokaartje en dan is het nog 150 euro prijsverschil voor ... eh ... wat eigenlijk?
Tja
Voor onze 'nieuwe' nas is ook een supermicro bord onderweg. Hier op v&a gekocht voor €100. Dan nog een Xeon cpu en 64gb ddr3 geheugen erbij voor in totaal €120 en dus voor slechts €220 'klaar'.MadEgg schreef op zaterdag 20 februari 2021 @ 13:54:
[...]
Tja, ik heb een SuperMicro Intel workstation bord met IPMI (en dus een videochip) en ECC voor mijn NAS. Die kostte rond de €200 (nu 192) dus het hoeft geen 350 te zijn natuurlijk.
Wie goed doet, die goed ontmoet.
Zijn er short-depth 10/12-bay 2U rack chassis beschikbaar tegenwoordig?
Ik wil een DIY versie van de Synology 12 bay maken met debian/kubernetes/openzfs, maar dit moet aan volgende vertical rack komen: pricewatch: Startech.com 5U Vertical Wall Mount Rack
Ik dacht hier dan een leuke mITX met onboard CPU in te steken met ECC memory.
Ik wil een DIY versie van de Synology 12 bay maken met debian/kubernetes/openzfs, maar dit moet aan volgende vertical rack komen: pricewatch: Startech.com 5U Vertical Wall Mount Rack
Ik dacht hier dan een leuke mITX met onboard CPU in te steken met ECC memory.
[ Voor 9% gewijzigd door Nindustries op 25-02-2021 10:10 ]
~ beware of misinformation.
Ik heb al jaren probleemloos een Areca 1882ix draaien met 8 x 6TB WD Red. Afgelopen weekend begon de Areca kaart ineens te beepen en ik wist hoelaat het was. Monitor en toetsenbord op mijn server aangesloten en herstart zodat ik in de areca bios kon komen. Daar was schijf #2 failed maar even later was de status free geworden. Blijkbaar doet de schijf het nog. Ik heb die schijf toen als hot spare aangemerkt en toen is het rebuildproces begonnen. Op 0.3% vloog schijf #7 eruit. Die heb ik ook als hot spare aangemerkt. Na de succesvolle rebuild van schijf #2 is hij nu bezig aan de rebuild van schijf #7. Maar ondertussen draait mijn server dus niet en dat vind ik wel vervelend. Ik lees over archttp software of de Areca kaart vanuit Windows te bedienen maar dat heb ik nooit ingericht. Ga ik uiteraard wel doen nog.
Maar goed, kan ik nu tijdens het rebuilden uit de Areca bios en Windows starten of moet ik wachten op de rebuild? En hoe kan ik dan uit de Areca bios. Ik zie alleen de F10 optie: Reset system. Klinkt een beetje eng.
Maar goed, kan ik nu tijdens het rebuilden uit de Areca bios en Windows starten of moet ik wachten op de rebuild? En hoe kan ik dan uit de Areca bios. Ik zie alleen de F10 optie: Reset system. Klinkt een beetje eng.
[ Voor 7% gewijzigd door -Moondust- op 08-03-2021 11:49 ]
Wat is dat toch met Tweakers de laatste tijd : Spullen kopen, niet volledig instellen, op het moment dat het fout is gegaan ineens wel alles in willen stellen-Moondust- schreef op maandag 8 maart 2021 @ 11:47:
Maar ondertussen draait mijn server dus niet en dat vind ik wel vervelend. Ik lees over archttp software of de Areca kaart vanuit Windows te bedienen maar dat heb ik nooit ingericht. Ga ik uiteraard wel doen nog.
Ik zou zeggen dat het gewoon kan/mag zolang het systeem nooit volledig wordt uitgezetMaar goed, kan ik nu tijdens het rebuilden uit de Areca bios en Windows starten of moet ik wachten op de rebuild? En hoe kan ik dan uit de Areca bios. Ik zie alleen de F10 optie: Reset system. Klinkt een beetje eng.
HP Pxxx RAID Controllers kunnen er in ieder geval wel tegen van wat ik me kan herinneren...
Succes met de rebuild taferelen in ieder geval!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Je kunt gewoon uit de Areca bios en herstarten
(F10 inderdaad ). Dan booten in Windows en archhttp installeren, te downloaden van Areca site.
Moet je natuurlijk wel een ethernet kabel in de Areca steken, kun je hem voortaan vanuit elke browser benaderen.
(F10 inderdaad ). Dan booten in Windows en archhttp installeren, te downloaden van Areca site.
Moet je natuurlijk wel een ethernet kabel in de Areca steken, kun je hem voortaan vanuit elke browser benaderen.
Ik heb niet direct een optie om ook mijn Areca kaart op het netwerk aan te sluiten. Kan ik archttp ook zonder gebruiken op de server zelf met 127.0.0.1 of localhost oid? Dan kan ik er tenminste met RDP bij.MasterMaceMichu schreef op maandag 8 maart 2021 @ 17:48:
Je kunt gewoon uit de Areca bios en herstarten
(F10 inderdaad ). Dan booten in Windows en archhttp installeren, te downloaden van Areca site.
Moet je natuurlijk wel een ethernet kabel in de Areca steken, kun je hem voortaan vanuit elke browser benaderen.
@-Moondust- Zonder netwerkkabel werkt dat ook als je archhttp installeert op de lokale machine met de Areca raid kaart
Ik heb een vraag over de stroomvoorziening van de hard schijven met behulp van de controller/expander.
Ik zag namelijk ook dat er SAS kabels zijn waarmee je 4 SATA + stroom aansluiting krijgt.
https://www.amazon.nl/-/e...wer&qid=1615630085&sr=8-5
In theorie kan een PCI-e aansluiting 75 watt stroom trekken van je moederbord. Je kan 16 schijven aan een 24 poort SAS expander aansluiten. Maar 75 watt lijkt me niet voldoende om 16 schijven van stroom te voorzien?
Weet iemand hoe dat werkt?
Ik zie het al, stroom moet je alsnog aansluiten vanuit de voeding
Ik zag namelijk ook dat er SAS kabels zijn waarmee je 4 SATA + stroom aansluiting krijgt.
https://www.amazon.nl/-/e...wer&qid=1615630085&sr=8-5
In theorie kan een PCI-e aansluiting 75 watt stroom trekken van je moederbord. Je kan 16 schijven aan een 24 poort SAS expander aansluiten. Maar 75 watt lijkt me niet voldoende om 16 schijven van stroom te voorzien?
Weet iemand hoe dat werkt?
Ik zie het al, stroom moet je alsnog aansluiten vanuit de voeding
[ Voor 6% gewijzigd door K3ke op 13-03-2021 11:54 ]
Toch maar even dit topic weer eens wat aandacht geven. 
Is zo'n Fujitsu PRAID CP400i - 8 port 12Gb/s SAS, 6Gb/s SATA die je nogal eens tegen komt op eBay gelijkwaardig aan een originele LSI 9300-8i als je op zoek ben naar een SAS3008 HBA?
Is zo'n Fujitsu PRAID CP400i - 8 port 12Gb/s SAS, 6Gb/s SATA die je nogal eens tegen komt op eBay gelijkwaardig aan een originele LSI 9300-8i als je op zoek ben naar een SAS3008 HBA?
Qua chip wel, qua firmware durf ik het niet te zeggen. Ik heb zelf ooit ook eens op de gok een Fujitsu kaart met een SAS2208 chip gekocht, maar die kreeg ik niet in IT mode geflashed. Fujitsu voorziet de kaarten soms van een custom BIOS, en die laat zich niet zo goed flashen.
YMMV.
YMMV.
Even niets...
Ben weer aan het twijfelen of mijn toekomstige 100TB NAS langs ene kant een luie Synology gaat worden of toch een DIY debian met OpenZFS en k3s voor Kubernetes pods. Iemand dat vergelijkbare setup draait?
~ beware of misinformation.
@Nindustries
Ik zie de laatste tijd ook veel QNAP modellen met ZFS voorbij komen : Misschien ook iets om eens naar te kijken
Ik zie de laatste tijd ook veel QNAP modellen met ZFS voorbij komen : Misschien ook iets om eens naar te kijken
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Valt zoiets ook nog in categorie "DIY RAID NAS" ?nero355 schreef op woensdag 28 juli 2021 @ 19:33:
@Nindustries
Ik zie de laatste tijd ook veel QNAP modellen met ZFS voorbij komen : Misschien ook iets om eens naar te kijken
NEERavefiend schreef op donderdag 29 juli 2021 @ 08:56:
Valt zoiets ook nog in categorie "DIY RAID NAS" ?
Maar hij begon over een Synology en ik zie vaak mensen klagen over het gebrek aan 2,5/5/10 Gbps NICs daarop dus ik dacht dan kan hij ook wel naar QNAP kijken
Een DIY NAS zal altijd mijn voorkeur hebben!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik draai al jaren FreeBSD met een RAID-Z2 array (deze) en dat gaat nog steeds prima. Met 60W idle, lang niet slecht maar dat schijnt zuiniger te kunnen met 2.5" ipv 3.5" disks.
Dus kijk ik naar een setup op basis van een Fujitsu D364x bord (kan ook ECC aan), i3-9100 en een 6-tal 2TB 2.5" disks. En daar zit de moeilijkheid, want die schijnen er eigenlijk alleen maar in SMR variant te zijn en dat gaat niet goed met ZFS (link).
Zijn er dus goede 2.5" non-SMR disks? OF kan ik beter op zoek naar een zuinige 3.5"?
Dus kijk ik naar een setup op basis van een Fujitsu D364x bord (kan ook ECC aan), i3-9100 en een 6-tal 2TB 2.5" disks. En daar zit de moeilijkheid, want die schijnen er eigenlijk alleen maar in SMR variant te zijn en dat gaat niet goed met ZFS (link).
Zijn er dus goede 2.5" non-SMR disks? OF kan ik beter op zoek naar een zuinige 3.5"?
2TB bestaat in cmr: https://tweakers.net/inte...5j1aoiY6105pNPmTdaay6W5QMmca2 schreef op maandag 4 oktober 2021 @ 20:23:
Ik draai al jaren FreeBSD met een RAID-Z2 array (deze) en dat gaat nog steeds prima. Met 60W idle, lang niet slecht maar dat schijnt zuiniger te kunnen met 2.5" ipv 3.5" disks.
Dus kijk ik naar een setup op basis van een Fujitsu D364x bord (kan ook ECC aan), i3-9100 en een 6-tal 2TB 2.5" disks. En daar zit de moeilijkheid, want die schijnen er eigenlijk alleen maar in SMR variant te zijn en dat gaat niet goed met ZFS (link).
Zijn er dus goede 2.5" non-SMR disks? OF kan ik beter op zoek naar een zuinige 3.5"?
Alles hoger is wel smr.
Thanks, ik had die filteroptie nog niet gevonden. Non-SMR is wel een factor 2 duurder, dat gaat met RAID-Z2 toch flink in de papieren lopenIceTeaGX schreef op maandag 4 oktober 2021 @ 20:40:
[...]
2TB bestaat in cmr: https://tweakers.net/inte...5j1aoiY6105pNPmTdaay6W5QM
Alles hoger is wel smr.
Moet het RAIDZ2 zijn of zou je ook kunnen downgraden naar een Mirrored Setupmca2 schreef op maandag 4 oktober 2021 @ 20:23:
Ik draai al jaren FreeBSD met een RAID-Z2 array (deze) en dat gaat nog steeds prima. Met 60W idle, lang niet slecht maar dat schijnt zuiniger te kunnen met 2.5" ipv 3.5" disks.
OF kan ik beter op zoek naar een zuinige 3.5"?
Zo JA, dan zou je dit kunnen overwegen : nero355 in "Het grote ZFS topic"
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Z2 is het doel, dus terug naar de tekentafel denk ik.nero355 schreef op dinsdag 5 oktober 2021 @ 00:43:
[...]
Moet het RAIDZ2 zijn of zou je ook kunnen downgraden naar een Mirrored Setup
Zo JA, dan zou je dit kunnen overwegen : nero355 in "Het grote ZFS topic"
Zelf ook al paar maanden de prijzen van harde schijven in het oog aan het houden, hopend dat ze eindelijk eens verder in prijs zouden dalen (prijs vergelijking WD - https://tweakers.net/pric...;1631110;1631112;1631114/)
De prijs van bv. de pricewatch: WD Red Plus, 10TB die zit nog steeds hetzelfde niveau van zo'n 285 € per stuk. Enig lichtpuntje is wel dat bv. de WD Elements Desktop Storage 10TB eindelijk weer aan't het dalen is naar de prijs van Feb 2021 (prijshistorie op camelcamelcamel). Te verkrijgen bij Amazon.de voor 209,99 € maar wel een max. van 2 stuks per klant. Hoe dan ook, misschien een eerste teken aan de wand voor meer algemene prijsdalingen voor harde schijven in het algemeen?
De prijs van bv. de pricewatch: WD Red Plus, 10TB die zit nog steeds hetzelfde niveau van zo'n 285 € per stuk. Enig lichtpuntje is wel dat bv. de WD Elements Desktop Storage 10TB eindelijk weer aan't het dalen is naar de prijs van Feb 2021 (prijshistorie op camelcamelcamel). Te verkrijgen bij Amazon.de voor 209,99 € maar wel een max. van 2 stuks per klant. Hoe dan ook, misschien een eerste teken aan de wand voor meer algemene prijsdalingen voor harde schijven in het algemeen?
[ Voor 7% gewijzigd door Ravefiend op 06-10-2021 08:44 ]
@Ravefiend
Als je voor reguliere HDD's gaat dan kan je deze in de gaten houden : https://tweakers.net/inte...wzlcIPnN8h11qzDiAu3P_v9AQ
En dan vanaf 8 TB en groter natuurlijk!
/EDIT :
Als je voor reguliere HDD's gaat dan kan je deze in de gaten houden : https://tweakers.net/inte...wzlcIPnN8h11qzDiAu3P_v9AQ
En dan vanaf 8 TB en groter natuurlijk!
/EDIT :
De WD Red Serie is stil en zuinig geloof ik, maar ook duurder... dus... je moet iets hé!FireDrunk schreef op donderdag 7 oktober 2021 @ 09:47:
Ik vind 7200RPM toch wel een nadeel. Ze worden een stuk heter en verbruiken een stuk meer stroom.
[ Voor 31% gewijzigd door nero355 op 07-10-2021 15:18 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik vind 7200RPM toch wel een nadeel. Ze worden een stuk heter en verbruiken een stuk meer stroom.nero355 schreef op donderdag 7 oktober 2021 @ 00:18:
@Ravefiend
Als je voor reguliere HDD's gaat dan kan je deze in de gaten houden : https://tweakers.net/inte...wzlcIPnN8h11qzDiAu3P_v9AQ
En dan vanaf 8 TB en groter natuurlijk!
Even niets...
Veel keus in 5xxxRPM is er wel niet.FireDrunk schreef op donderdag 7 oktober 2021 @ 09:47:
[...]
Ik vind 7200RPM toch wel een nadeel. Ze worden een stuk heter en verbruiken een stuk meer stroom.
Ofwel beperkt in capaciteit; ofwel aardig aan de prijs.
https://tweakers.net/inte...MgCtNJqRxbPdTpQldYa-pzzBw
Zeker, ik twijfel ook nog sterk over een flinke upgrade. Ik heb momenteel 6*2TB 2.5" SMR. Die zit (regelmatig) vrij vol.
Upgrade paden:
- M.2 SSDs er naast: 4*2TB ofzo (snel)
- Set van 6-8 10-14TB 3.5" schijven (goedkoper, maar veel meer hitte)
- Set van 6-8 2.5" SMR 5TB schijven (traag, maar lekker koel)
Reden dat ik weinig warmte wil, is dat de kamer waar de machine staat ook mijn werkkamer is, en in de zomer serieus warm wordt. Meer warmtebronnen is echt niet handig...
Upgrade paden:
- M.2 SSDs er naast: 4*2TB ofzo (snel)
- Set van 6-8 10-14TB 3.5" schijven (goedkoper, maar veel meer hitte)
- Set van 6-8 2.5" SMR 5TB schijven (traag, maar lekker koel)
Reden dat ik weinig warmte wil, is dat de kamer waar de machine staat ook mijn werkkamer is, en in de zomer serieus warm wordt. Meer warmtebronnen is echt niet handig...
Even niets...
Was aan het zien naar 2.5 in 5.25 modules voor 15mm drives, maar die zijn blijkbaar ook aanzienlijk gestegen in prijs.
pricewatch: Icy Dock MB994SP-4S
pricewatch: Icy Dock MB994SP-4SB-1
pricewatch: Icy Dock MB607SP-B
Hotswap is op zich niet zo nodig, maar dit ding ondersteunt geen 15mm drives
pricewatch: Icy Dock MB344SP 4 x 2,5" in 5.25" inbouwframe
pricewatch: Icy Dock MB994SP-4S
pricewatch: Icy Dock MB994SP-4SB-1
pricewatch: Icy Dock MB607SP-B
Hotswap is op zich niet zo nodig, maar dit ding ondersteunt geen 15mm drives
pricewatch: Icy Dock MB344SP 4 x 2,5" in 5.25" inbouwframe
https://www.aliexpress.co...2212000022837546652%22%7D
Is wel 'maar' naar 3.5", maar het is al een stuk goedkoper
Is wel 'maar' naar 3.5", maar het is al een stuk goedkoper
Even niets...
Misschien wel interessant, wou mijn systeem in een compacte case bouwen, en was aan het kijken naar een van deze, lekker klein, maar genoeg voor wat ik moet hebben. Lijkt me wel leuk om in te werken.
https://shop.yakkaroo.de/...assis-IPC-G238-38cm-short
https://shop.yakkaroo.de/...assis-ipc-g225-25cm-short
https://shop.yakkaroo.de/...assis-IPC-G238-38cm-short
https://shop.yakkaroo.de/...assis-ipc-g225-25cm-short
Correctie, ook geen 15mm support.FireDrunk schreef op donderdag 7 oktober 2021 @ 14:37:
https://www.aliexpress.co...2212000022837546652%22%7D
Is wel 'maar' naar 3.5", maar het is al een stuk goedkoper
[ Voor 40% gewijzigd door IceTeaGX op 07-10-2021 15:19 ]
Ik heb ooit deze gehad :IceTeaGX schreef op donderdag 7 oktober 2021 @ 14:07:
Was aan het zien naar 2.5 in 5.25 modules voor 15mm drives, maar die zijn blijkbaar ook aanzienlijk gestegen in prijs.
SAS/SATA HOTSWAP BAY - SNT-1042SS | ||
![]() | ![]() | ![]() |
![]() | ![]() |
Ik kwam er later achter dat die onder andere ook door Chieftec werd verkocht dus neem daar eens een kijkje!
Was iets van € 50 per stuk!
Had ik toen 4 x 60 GB OCZ Vertex in zitten in RAID 0 maar dat bleek een slecht idee te zijn i.c.m. de nForce 4 SLI Chipset destijds : Effe flink stressen en die 800 MB/s worden 0,0 MB/s want je RAID Array crashed!

Dus toen gauw terug naar de WD ADFD Raptors gegaan!
FireDrunk schreef op donderdag 7 oktober 2021 @ 14:37:
https://www.aliexpress.com/item/1005002927039918.html
Is wel 'maar' naar 3.5", maar het is al een stuk goedkoper
Heb gelijk wat tracking uit je link gehaald...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Mochten er geînteresseerden zijn, Amazon (DE) heeft momenteel de pricewatch: WD Elements Desktop Storage 12TB Zwart in de aanbieding voor €208,99 wat mijn inziens toch een erg scherpe prijs is kijkend naar de prijs historiek. Wel een aankoop limiet van 3 stuks. 
Ideaal om te shucken dacht ik zo dus ik denk erover om de gok maar eens te wagen voor wat extra storage in mijn NAS, een nieuwe pool ter vervanging van de huidige die al paar stervende 2TB disks heeft.
Ideaal om te shucken dacht ik zo dus ik denk erover om de gok maar eens te wagen voor wat extra storage in mijn NAS, een nieuwe pool ter vervanging van de huidige die al paar stervende 2TB disks heeft.

Vandaag alvast de eerste 3 schijven van de pricewatch: WD Elements Desktop Storage 12TB Zwart ontvangen van Amazon. Als initiële test de schijven alvast uit hun enclosures gehaald en er CrystalDiskMark op los gelaten (via een pricewatch: Sharkoon QuickPort XT USB 3.0 V2 Zwart)
So far so good dacht ik zo.
So far so good dacht ik zo.
Ik zit er aan te denken om de 4TB disks in mijn Z2 array te vervangen met grotere schijven.
Verschillende Toshiba schijven (pricewatch: Toshiba MG07ACA14TE (512e), 14TB, ook kleinere beschikbaar uiteraard) zijn op dit moment redelijk gunstig geprijsd, maar ik heb deze niet voorbij zien komen hier de laatste posts. Zijn deze wel bruikbaar voor een ZFS NAS? Ze hebben geen SMR, dus dat lijkt me gunstig?
Verschillende Toshiba schijven (pricewatch: Toshiba MG07ACA14TE (512e), 14TB, ook kleinere beschikbaar uiteraard) zijn op dit moment redelijk gunstig geprijsd, maar ik heb deze niet voorbij zien komen hier de laatste posts. Zijn deze wel bruikbaar voor een ZFS NAS? Ze hebben geen SMR, dus dat lijkt me gunstig?
https://www.amazon.nl/dp/B07Y3KDVZH/ Western Digital Elements Desktop Externe Harde Schijf 14 TB voor 224
Any job you can do in your pajamas is not the hardest job in the world.
Momenteel heb ik wat keuzestress en ik wil graag jullie mening vragen. Op dit moment draai ik met 3x4TB in een RAID5 storage pool op Windows 10. Volgende week komen 2x 14TB schijven binnen die ik ga shucken voor een RAID1 omdat de disks volraken. Het nieuwe systeem zal draaien met 2x4 en 2x14TB. De PC die dit draait is een Ryzen 5 3600 met 16GB RAM (non-ecc) op een ASUS B550 met een NVME boot SSD,
Windows 10 draait Plex ivm GPU transcoding en in Docker draaien verschillende services. Toch mis ik iets als een web interface die het beheer iets makkelijker maakt. Omdat ik deze machine ook gebruik om te gamen wil ik dit als OS houden. Nu dacht ik zelf aan het opzetten van een Hyper-V VM met een NAS distributie, met Virtualbox is het lastig gebleken om de VM tijdens boot te laten starten toen ik nog MDADM in Ubuntu draaide.
Mijn zorg is dat Windows storage spaces een risico is bij migratie van de HDDs naar een ander systeem. Welke keuze zouden jullie adviseren? Denk nu aan XPenology, freenas, OMV of Ubuntu MDADM maar ben heel benieuwd naar jullie adviezen.
Windows 10 draait Plex ivm GPU transcoding en in Docker draaien verschillende services. Toch mis ik iets als een web interface die het beheer iets makkelijker maakt. Omdat ik deze machine ook gebruik om te gamen wil ik dit als OS houden. Nu dacht ik zelf aan het opzetten van een Hyper-V VM met een NAS distributie, met Virtualbox is het lastig gebleken om de VM tijdens boot te laten starten toen ik nog MDADM in Ubuntu draaide.
Mijn zorg is dat Windows storage spaces een risico is bij migratie van de HDDs naar een ander systeem. Welke keuze zouden jullie adviseren? Denk nu aan XPenology, freenas, OMV of Ubuntu MDADM maar ben heel benieuwd naar jullie adviezen.
OMV heeft een aantal handige dingen voor Docker omgevingen geloof ikLoCuTuS2000 schreef op vrijdag 26 november 2021 @ 10:03:
In Docker draaien verschillende services.
Toch mis ik iets als een web interface die het beheer iets makkelijker maakt.
Welke keuze zouden jullie adviseren? Denk nu aan XPenology, freenas, OMV of Ubuntu MDADM maar ben heel benieuwd naar jullie adviezen.
Verder wil je IMHO teveel tegelijk : Ik zou die twee systemen lekker splitsen!
Niet dat het niet kan, maar i.c.m. zo'n kreupel B550 moederbord loop je al gauw tegen grenzen aan en als je zit te gamen en al die dingen te hosten dan zou die 6C/12T processor ook nog weleens een bottleneck kunnen worden...
Ook één van de redenen dat ik altijd een HEDT systeem probeer te bouwen i.p.v. een Mainstream systeem : Meer PCIe lanes, meer Cores, meer RAM, meer opties!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Het B550 moederbord is voor mij niet kreupel, draait nu een jaar zonder zorgen. En het gaming aspect is an sich secundair. Als de NAS uitmoet tijdens het gamen is dat geen drama. Mijn doel is vooral om 1 desktop PC in huis te hebben die 24/7 draait en de rest draait als het moet. Deze Ryzen machine is daar nu voor genomineerd. Mijn HTPC vervult nu de taak van Docker/NAS appliance maar met een Intel G4560 CPU is die eigenlijk niet krachtig genoeg.nero355 schreef op vrijdag 26 november 2021 @ 16:20:
[...]
OMV heeft een aantal handige dingen voor Docker omgevingen geloof ik
Verder wil je IMHO teveel tegelijk : Ik zou die twee systemen lekker splitsen!
Niet dat het niet kan, maar i.c.m. zo'n kreupel B550 moederbord loop je al gauw tegen grenzen aan en als je zit te gamen en al die dingen te hosten dan zou die 6C/12T processor ook nog weleens een bottleneck kunnen worden...
Ook één van de redenen dat ik altijd een HEDT systeem probeer te bouwen i.p.v. een Mainstream systeem : Meer PCIe lanes, meer Cores, meer RAM, meer opties!![]()
![]()
![]()
Mijn HTPC/DIY ZFS NAS heeft zelfs een G1820 en die doet het prima!LoCuTuS2000 schreef op vrijdag 26 november 2021 @ 21:18:
Mijn HTPC vervult nu de taak van Docker/NAS appliance maar met een Intel G4560 CPU is die eigenlijk niet krachtig genoeg.
Docker meuk kan je zelfs op een Raspberry Pi draaien!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Totdat je 1gb/1gb internet hebt 500gb aan series aan het downloaden gaat.nero355 schreef op vrijdag 26 november 2021 @ 23:22:
[...]
Mijn HTPC/DIY ZFS NAS heeft zelfs een G1820 en die doet het prima!
Docker meuk kan je zelfs op een Raspberry Pi draaien!![]()
![]()
De database aan het updaten gaat van je plex omgeving, je sonarr aan het bijwerken is en je ook nog eens wat andere dockers hebt draaien.
Ik zit hier ook te denken om mijn Unraid build te upgraden met een i5 / i7 zodat hij wat meer power heeft. Heb nu een losse nuc staan die plex draait omdat mijn AMD 2400G geen HW transcoding ondersteunt in Unraid.
Het liefste zou ik alles lekker consolideren.
Ben alleen nog aan het twijfelen tussen 11th en 12th gen.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Dat vertelt hij er niet bij en ik ken mensen die dat op zo'n kant en klare NAS draaien met een CPU erin die echt niet zoveel power heeft!Shunt schreef op vrijdag 26 november 2021 @ 23:48:
Totdat je 1gb/1gb internet hebt 500gb aan series aan het downloaden gaat.
De database aan het updaten gaat van je plex omgeving, je sonarr aan het bijwerken is en je ook nog eens wat andere dockers hebt draaien.
Waarom schop je Unraid er niet uit en installeer je zelf een distro dat wel aan je eisen voldoetIk zit hier ook te denken om mijn Unraid build te upgraden met een i5 / i7 zodat hij wat meer power heeft. Heb nu een losse nuc staan die plex draait omdat mijn AMD 2400G geen HW transcoding ondersteunt in Unraid.
Het liefste zou ik alles lekker consolideren.
Ben alleen nog aan het twijfelen tussen 11th en 12th gen.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Dat geeft hij aan door te melden dat hij nu niet genoeg power heeft maar goed iedereen heeft zijn eigen eisen.nero355 schreef op zondag 28 november 2021 @ 23:15:
[...]
Dat vertelt hij er niet bij en ik ken mensen die dat op zo'n kant en klare NAS draaien met een CPU erin die echt niet zoveel power heeft!
Omdat Unraid op de hardware transcoding op de AMD APU na perfect aan mijn eisen voldoet?Waarom schop je Unraid er niet uit en installeer je zelf een distro dat wel aan je eisen voldoet
De overstap naar intel gaat mij ook nog eens een flinke kosten besparing per jaar opleveren. Het idle stroomverbruik van een 11th gen / 12th gen intel cpu is een stuk lager als mijn 2400G.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
met unraid 6.10 is het mogelijk om de amdgpu/radeon drivers werkend te krijgen zodat je ze kan gebruiken met o.a. docker.Shunt schreef op maandag 29 november 2021 @ 07:45:
[...]
Dat geeft hij aan door te melden dat hij nu niet genoeg power heeft maar goed iedereen heeft zijn eigen eisen.
[...]
Omdat Unraid op de hardware transcoding op de AMD APU na perfect aan mijn eisen voldoet?
De overstap naar intel gaat mij ook nog eens een flinke kosten besparing per jaar opleveren. Het idle stroomverbruik van een 11th gen / 12th gen intel cpu is een stuk lager als mijn 2400G.
tevens zie ik hier een topic over het gebruik van Plex HW stanscoding met AMD's APU's:
https://forums.plex.tv/t/...-apu-ryzen-7-4700u/676546
note, ik heb geen APU in mijn unRAID bak, gebruik een Nvidia gpu...
Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.
Laat ik het anders zeggen :Shunt schreef op maandag 29 november 2021 @ 07:45:
Omdat Unraid op de hardware transcoding op de AMD APU na perfect aan mijn eisen voldoet?
Is het niet mogelijk om "de UnRAID laag" op een Linux distro installatie toe te passen die wel Hardware Transcoding toe kan passen
Ik geloof dat je bijvoorbeeld zowel TrueNAS als pfSense gewoon als "applicatie" op een kale FreeBSD installatie toe kan passen!
Of Proxmox op een kale Debian installatie!
enz...
[ Voor 5% gewijzigd door nero355 op 29-11-2021 15:15 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Het is prima mogelijk maar dan vooral gemakkelijk op de Intel hardware. Deze hardware was een uit de kast gegrepen moederbord + CPU. Ik heb het werkende op de AMD hardware met een custom Plex docker container. Echt een set en forget oplossing is dit ook niet gezien het dan manuele updates nodig heeft.nero355 schreef op maandag 29 november 2021 @ 15:14:
[...]
Laat ik het anders zeggen :
Is het niet mogelijk om "de UnRAID laag" op een Linux distro installatie toe te passen die wel Hardware Transcoding toe kan passen
Ik geloof dat je bijvoorbeeld zowel TrueNAS als pfSense gewoon als "applicatie" op een kale FreeBSD installatie toe kan passen!
Of Proxmox op een kale Debian installatie!
enz...
Ik merk ook dat mijn 2400G het transcoderen ook niet zo leuk vind als bvb mijn Intel Nuc 8th gen waar het nu op draait. Ik ben nog even aan het kijken of ik ergens tijdelijk een 5 series APU kan lenen om te testen of die het wat gemakkelijker trekt. Maar als dat niet zo mocht zijn dan gaat het hele zooitje alsnog over naar intel.
Het is natuurlijk ook een stroombesparing. Om de AMD 2400G een beetje leuk te laten presteren verbruikt hij erg veel (60/70w continue) Een vergelijkbaar intel systeem zou dit ongeveer tussen de 20w en 30w zijn. Met 24/7 aan is dat nogal snel een besparing.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
1e post mag wel geupdate worden hoor!
https://xigmanas.com
NAS4Free = XigmaNAS,
en is de originele FreeNAS code tot aan versie 7!
XigmaNAS®:
XigmaNAS is een doorontwikkeling van de FreeNAS 7 series en web-interface, maar dan draaiende onder een moderne FreeBSD motorkap. Vrijwel alle standaardfeatures die je van een NAS verwacht zitten er in en biedt RAID5 ondersteuning via een oudere (maar stabiele) versie van geom_raid5, maar wel met minder RAM genoeg neemt dan ZFS wat nutuurlijk ook wordt ondersteund. Als je dus een OS zoekt waarbij je zo weinig mogelijk zelf hoeft te tweaken en die een kleine footprint heeft (het past op een 128MB CF kaart), kan dit een goede optie zijn.
https://xigmanas.com
NAS4Free = XigmaNAS,
en is de originele FreeNAS code tot aan versie 7!
XigmaNAS®:
XigmaNAS is een doorontwikkeling van de FreeNAS 7 series en web-interface, maar dan draaiende onder een moderne FreeBSD motorkap. Vrijwel alle standaardfeatures die je van een NAS verwacht zitten er in en biedt RAID5 ondersteuning via een oudere (maar stabiele) versie van geom_raid5, maar wel met minder RAM genoeg neemt dan ZFS wat nutuurlijk ook wordt ondersteund. Als je dus een OS zoekt waarbij je zo weinig mogelijk zelf hoeft te tweaken en die een kleine footprint heeft (het past op een 128MB CF kaart), kan dit een goede optie zijn.
Ik heb Synology DS218+, zeer blij mee en werkt prima. Nu wil ik als backup een 2de NAS die ik fysiek op een andere locatie ga plaatsen, Dat ding hoeft dus eigenlijk niks meer te doen als backup zijn als het gaat om opslag. Volgens mij ben ik dan geen spannende specs nodig, maar kan ik toe met de simpelste synology die ook 2 schijfen kan herbergen.. Zie ik dat goed of heb ik het helemaal mis?
Dat klopt. De DSM software van Synology heeft een optie om van de ene naar de andere DiskStation te backuppen.
De Synology heeft standaard zelfs software aan boord om het naar een compleet andere NAS te versturen, bijvoorbeeld een willekeurige DIY RAID NAS. Als je een rsync server hebt draaien, is dat al genoeg.
„Ik kan ook ICT, want heel moeilijk is dit niet”
Beste,
Ik ben me voor de 1ste keer aan het oriënteren naar een NAS toe.
Wat ik me wel afvraag:
Hoe kijken jullie naar backups toe tegenwoordig bij redelijk wat TB?
RAID is geen backup en een backup is belangrijk, daar ben ik het mee eens.
Maar laat ons zeggen voor 15 tot 30 a 40 TB, hoe zien jullie dit in de praktijk qua tijd?
RAID 6 of 60 vertraagt rebuilds.
En zelfs met mirrors zoals RAID 10 word je toch niet vrolijk van hersteltijden als je een defecte schijf hebt...
Of vinden jullie het perfect ok om 24-48u te wachten voor een nieuwe schijf gevuld is vanaf een mirror?
De capaciteit is altijd verhoogd, maar de consumenten HDD's worden niet sneller.
En 40 TB op SSD kan je sneller herstellen, maar dat is een totaal ander budget.
Grt
Ik ben me voor de 1ste keer aan het oriënteren naar een NAS toe.
Wat ik me wel afvraag:
Hoe kijken jullie naar backups toe tegenwoordig bij redelijk wat TB?
RAID is geen backup en een backup is belangrijk, daar ben ik het mee eens.
Maar laat ons zeggen voor 15 tot 30 a 40 TB, hoe zien jullie dit in de praktijk qua tijd?
RAID 6 of 60 vertraagt rebuilds.
En zelfs met mirrors zoals RAID 10 word je toch niet vrolijk van hersteltijden als je een defecte schijf hebt...
Of vinden jullie het perfect ok om 24-48u te wachten voor een nieuwe schijf gevuld is vanaf een mirror?
De capaciteit is altijd verhoogd, maar de consumenten HDD's worden niet sneller.
En 40 TB op SSD kan je sneller herstellen, maar dat is een totaal ander budget.
Grt
ZFS send naar een tweede NAS toeNuffel schreef op dinsdag 11 januari 2022 @ 13:12:
Wat ik me wel afvraag:
Hoe kijken jullie naar backups toe tegenwoordig bij redelijk wat TB?
SMR HDD's vermijden en gaan met die banaan!RAID is geen backup en een backup is belangrijk, daar ben ik het mee eens.
Maar laat ons zeggen voor 15 tot 30 a 40 TB, hoe zien jullie dit in de praktijk qua tijd?
RAID 6 of 60 vertraagt rebuilds.
Kwestie van je HDD's goed labelen en gaan met die banaan!En zelfs met mirrors zoals RAID 10 word je toch niet vrolijk van hersteltijden als je een defecte schijf hebt...
Tja, je zal wel moeten, want het enige alternatief is alle data als onbelangrijk beschouwen op een klein gedeelte na die je via LTO Tape of gewoon een USB HDD backupt... waar je dan ook eigenlijk wel twee stuks van wilt hebben...Of vinden jullie het perfect ok om 24-48u te wachten voor een nieuwe schijf gevuld is vanaf een mirror?
Die zijn wel sneller geworden hoor!De capaciteit is altijd verhoogd, maar de consumenten HDD's worden niet sneller.
Pak maar eens wat benchmarks erbij!
IMHO ga je dan gelijk de zakelijke kant op en is dat niet interessant voor thuis, tenzij je afhankelijk wilt zijn van crappy QLC SSD's met hun halvegare consumenten troep opzet qua Controller en zo...En 40 TB op SSD kan je sneller herstellen, maar dat is een totaal ander budget.


|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Over SSD's gesproken, zat een tijd terug eens te zoeken naar welke features gezocht moet worden indien een stel SSD's gebruikt gaan worden in bijv. RAIDz2, maar kon daar niet wat over vinden. Voor HDD's is het simpel: Geadverteerd als geschikt voor NAS én niet SMR -> geschikt, met SSD's kon ik buiten een specifieke serie die als geschikt voor NAS wordt verkocht niet wat vinden.
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
Ik zou zeggen dezelfde eisen die je zoekt in Caching SSD's voor je ZFS setup :Raven schreef op dinsdag 11 januari 2022 @ 18:50:
Zat een tijd terug eens te zoeken naar welke features gezocht moet worden indien een stel SSD's gebruikt gaan worden in bijv. RAIDz2, maar kon daar niet wat over vinden.
Fatsoenlijke (Enterprise) SSD's met volledige bescherming tegen stroomuitval d.m.v. elco's die de Cache en Index tegelijk tegen corruptie beschermen!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ja, de eerste keer je array vullen duurt eventjesNuffel schreef op dinsdag 11 januari 2022 @ 13:12:
Maar laat ons zeggen voor 15 tot 30 a 40 TB, hoe zien jullie dit in de praktijk qua tijd?
30TB x 1024 = 30.720GB x 1024 = 31.457.280MB
Afhankelijk of je via netwerk of intern van HDD naar HDD raid array doet, is tijd zeker een factor.
- 1 Gbit netwerk -------- 100 MB/s : 931.457.280/60(sec) = 524.288/60(min) = 8.738/100 (MB/s) = 87uur
- Intern HDD <> HDD - 240 MB/s : 931.457.280/60(sec) = 524.288/60(min) = 8.738/240 (MB/s) = 36uur
- 10 Gbit netwerk is nog steeds 36 uur, als de bron een HDD is.
Maar net als bij een bad vullen, het duur zolang als de doorvoer van je leiding, het is gewoon wachten dus, tot het klaar is.
En ja RAID(Z) is zeker geen back-up, heb zelf mijn data in 4 categorieën verdeeld.RAID is geen backup en een backup is belangrijk
- Onvervangbare privé foto's, video en documenten.
- Muziek colectie
- Oudere films/series die moeilijk weer te krijgen zijn.
- De films/series die niet moeilijk te krijgen zijn of niet/minder erg als ze weg zijn.
- Server heeft: Data 1, 2, 3 en 4.
- NAS 2x 6TB R0 heeft: Data 1 en 2. (goede SAS schijven)
- Offline oude server heeft: Data 1, 2 en 3. (wekelijkse automatische back-up en staat in schuur (*))
- USB HDD 5TB heeft: Data 1 en 2. (ligt in brandkluis en heeft maandelijkse back-up)
- Offsite online back-up heeft: data 1.
Vraag me hoe ik weet dat meerdere back-up's zo belangrijk zijn, heb een afgebrand huis gehad, gelukkig had ik toendertijd al mijn foto negatieven in een goede brandkluis liggen, maar was wel een groot deel van mijn boekhouding kwijt, en ben zeker 100~150 uur bezig geweest met mijn boekhouding en foto's weer in orde te krijgen.
Tegenwoordig scan ik al mijn boekhouding en wordt dat op verschillende plaatsen goed bewaard.
Misschien ietsjes overkill, maar wil het geen tweede keer mee maken, maar een USB HDD aan bijvoorbeeld je router voor kritieke data kan nooit kwaad..
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
TrueNAS op een Astaro 110/120 firewall | ||
![]() | ![]() | ![]() |
![]() | ![]() | ![]() |
Is dit nou ook eSATA?
Even getest op een Raptor, draait prima voor een paar simpele shares met 1 of 2 users. Ook 2GB RAM is voldoende. De 2GB CF is te klein, maar ik heb nog ergens een 8GB CF liggen en dat moet dan wel lukken. Swap dan maar uitzetten vanwege de extra writes naar het CF kaartje.
Het idee is om er een 4TB WD Red erop te leggen met heatsinks aan weerszijden. Zeker niet voor 24/7 gebruik, maar alleen wanneer ik een backup wil maken.
Idle +/- 21 Watt (geen sleep-mode)
Heeft van alles wat: 8088 - 286 - 386 - 486 - 5x86C - P54CS - P55C - P6:Pro/II/III/Xeon - K7 - NetBurst :') - Core 2 - K8 - Core i$ - Zen$
Wel mooi dat je zelfs een keurmerk hebt. Veiligheid boven alles!
Dat vond ik wel een leuk detail ja. De mantel/isolatie van een 230V stroomkabel wordt hier gebruikt om de scherpe randjes van de behuizing te verbergen. En belangrijker; de kabels die er uit komen te beschermen.
Nu maar hopen dat 4TB niet teveel van het goed is voor dat 1st gen Atom bordje. Ik ga er niet van booten, dus GPT is niet het probleem...
Nu maar hopen dat 4TB niet teveel van het goed is voor dat 1st gen Atom bordje. Ik ga er niet van booten, dus GPT is niet het probleem...
[ Voor 41% gewijzigd door PD2JK op 17-01-2022 22:50 ]
Heeft van alles wat: 8088 - 286 - 386 - 486 - 5x86C - P54CS - P55C - P6:Pro/II/III/Xeon - K7 - NetBurst :') - Core 2 - K8 - Core i$ - Zen$
Goedeavond allemaal,
Ik ben deze topic tegen gekomen om wat informatie op te zoeken en plaats ik nu een post om informatie te gaan vergaren.
Recent had ik een Synology DS220+ gekocht omdat ik graag mijn dockers services (o.a smarthome) en bestanden op 1 handige plek te hebben. Echter kwam ik er achter dat Synology met DSM7 een hele vervelende wijziging heeft uitgevoerd waardoor onder andere mijn zigbee stick niet meer gelezen kon worden. En dat is toch wel erg cruciaal met smarthome.
Bekeken of het mogelijk was om met een VM te gaan werken, maar dan had ik uiteraard meer RAM nodig. Originele RAM sticks kosten in verhouding met de andere sticks een fortuin.
Dus kortom, weg ermee!
Dus ik heb heel snel de Synology weer terug gestuurd en ben weer verder gegaan op mijn vertrouwde PC.
De PC is overigens een kleine slim desktop waar weinig tot geen mogelijkheden zijn voor HDD uitbreidingen.
Op mijn oude PC draai ik nu OMV en dat werkt super. Nu zag ik dat er talloze verschillende NAS programma's bestaan en wil graag jullie ervaring delen.
Ik wil graag gaan beginnen met een eigen NAS server te gaan bouwen. Ik zou er graag mijn gegevens op kunnen droppen, 1 of 2 VM's draaien en natuurlijk docker. Energiezuinig zou prettig zijn maar geen must.
Wat bevelen jullie aan en waar moet ik vooral op letten en waarop niet?
Ik ben deze topic tegen gekomen om wat informatie op te zoeken en plaats ik nu een post om informatie te gaan vergaren.
Recent had ik een Synology DS220+ gekocht omdat ik graag mijn dockers services (o.a smarthome) en bestanden op 1 handige plek te hebben. Echter kwam ik er achter dat Synology met DSM7 een hele vervelende wijziging heeft uitgevoerd waardoor onder andere mijn zigbee stick niet meer gelezen kon worden. En dat is toch wel erg cruciaal met smarthome.
Bekeken of het mogelijk was om met een VM te gaan werken, maar dan had ik uiteraard meer RAM nodig. Originele RAM sticks kosten in verhouding met de andere sticks een fortuin.
Dus kortom, weg ermee!
Dus ik heb heel snel de Synology weer terug gestuurd en ben weer verder gegaan op mijn vertrouwde PC.
De PC is overigens een kleine slim desktop waar weinig tot geen mogelijkheden zijn voor HDD uitbreidingen.
Op mijn oude PC draai ik nu OMV en dat werkt super. Nu zag ik dat er talloze verschillende NAS programma's bestaan en wil graag jullie ervaring delen.
Ik wil graag gaan beginnen met een eigen NAS server te gaan bouwen. Ik zou er graag mijn gegevens op kunnen droppen, 1 of 2 VM's draaien en natuurlijk docker. Energiezuinig zou prettig zijn maar geen must.
Wat bevelen jullie aan en waar moet ik vooral op letten en waarop niet?
Als je liever werkt met een GUI (grafische interface) dan een CLI (command line) raad ik je aan eens naar Unraid te kijken en anders naar TrueNAS (videos van Lawrence systems).
Ik sta zelf al een tijdje in de twijfelmodus en heb ook nog geen knoop doorgehakt.
Ik sta zelf al een tijdje in de twijfelmodus en heb ook nog geen knoop doorgehakt.
Nadat mijn OpenMediaVault Backkup NAS het de geest begaf (allemaal IO errors) waarbij er 1 disk was die meer dan 3360 foute sectoren liet zien sta ik nu voor de keuze ..
wat te doen ..
Ik ben op zich wel een beetje klaar met OpenMediaVault gezien het niet ' out of the box ' bepaalde opties ondersteund waardoor je keuzes moet maken hoe je de HDD's gaat inrichten. Bepaalde functies zijn gemaakt door de community in de plugins. Functies en plugins die niet fail proof zijn (zo gebruikte ik RSYNC op de backup NAS die data van mijn hoofdnas synchroniseerde, maar als dan de share mistte om welke reden dan ook dan was alleen een reboot de manier om die share were actief te krijgen, met als eerdere resultaat dat de backup eigenlijk er niet meer was. OMV 6 is wat mij betreft niet volwassen genoeg en ook daar weer zijn bepaalde functies niet out of the box aan wezig.
Dus ik kijk nu naar TrueNAS en ik ben bezig om te kijken wat ik nu kan doen. ZFS RaidZ met 4x 3TB alleen die rotte HDD moet vervangen worden .. met een kleinere HDD lukt dat niet dus 3x3TB en 1x2TB krijg ik niet de hoeveelheid storage die ik dacht te krijgen, dus ik heb een andere 3TB erbij gehangen, ook met enkele (11) bad sectoren ..
Nu kan ik natuurlijk nieuwe HDD's aanschaffen, maar ik wil wel zoveel mogelijk opslag voor zo weinig mogelijk geld .. Snelheid interesseert met niet echt want het is toch een NAS die als backup van de main nas moet gaan dienen.
De hoofd NAS werkt ook op OMV met 4x10TB en heeft data die ik wel en niet wil backuppen (bepaalde meuk is vervangbaar .. dus als dat weg is, is dat niet erg).
De eigenlijke vraag is:
Wanneer vervang je nu een HDD als deze bad sectors laat zien? 3360 foute sectoren liet onder debian en het filesystem grote problemen zien bij het booten (niet tijdens het gebruik)
ZFS lijkt me daar beter overweg mee te gaan, zodat je minder bang hoeft te zijn dat je machine niet meer boot en je niet meer bij de pool kan
Wat zouden jullie doen?
wat te doen ..
Ik ben op zich wel een beetje klaar met OpenMediaVault gezien het niet ' out of the box ' bepaalde opties ondersteund waardoor je keuzes moet maken hoe je de HDD's gaat inrichten. Bepaalde functies zijn gemaakt door de community in de plugins. Functies en plugins die niet fail proof zijn (zo gebruikte ik RSYNC op de backup NAS die data van mijn hoofdnas synchroniseerde, maar als dan de share mistte om welke reden dan ook dan was alleen een reboot de manier om die share were actief te krijgen, met als eerdere resultaat dat de backup eigenlijk er niet meer was. OMV 6 is wat mij betreft niet volwassen genoeg en ook daar weer zijn bepaalde functies niet out of the box aan wezig.
Dus ik kijk nu naar TrueNAS en ik ben bezig om te kijken wat ik nu kan doen. ZFS RaidZ met 4x 3TB alleen die rotte HDD moet vervangen worden .. met een kleinere HDD lukt dat niet dus 3x3TB en 1x2TB krijg ik niet de hoeveelheid storage die ik dacht te krijgen, dus ik heb een andere 3TB erbij gehangen, ook met enkele (11) bad sectoren ..
Nu kan ik natuurlijk nieuwe HDD's aanschaffen, maar ik wil wel zoveel mogelijk opslag voor zo weinig mogelijk geld .. Snelheid interesseert met niet echt want het is toch een NAS die als backup van de main nas moet gaan dienen.
De hoofd NAS werkt ook op OMV met 4x10TB en heeft data die ik wel en niet wil backuppen (bepaalde meuk is vervangbaar .. dus als dat weg is, is dat niet erg).
De eigenlijke vraag is:
Wanneer vervang je nu een HDD als deze bad sectors laat zien? 3360 foute sectoren liet onder debian en het filesystem grote problemen zien bij het booten (niet tijdens het gebruik)
ZFS lijkt me daar beter overweg mee te gaan, zodat je minder bang hoeft te zijn dat je machine niet meer boot en je niet meer bij de pool kan
Wat zouden jullie doen?
There are no secrets, only information you do not yet have
Ik ben persoonlijk een fan van BTRFS, als je bereid bent om een non-parity RAID te gebruiken kan je kijken naar RockStor.
[ Voor 4% gewijzigd door RlndVt op 09-02-2022 12:36 . Reden: grammatica ]
Ik vervang instant mijn schijven als er ook maar 1 probleem aan het licht komt...zeroday schreef op woensdag 9 februari 2022 @ 07:53:
De eigenlijke vraag is:
Wanneer vervang je nu een HDD als deze bad sectors laat zien? 3360 foute sectoren liet onder debian en het filesystem grote problemen zien bij het booten (niet tijdens het gebruik)
ZFS lijkt me daar beter overweg mee te gaan, zodat je minder bang hoeft te zijn dat je machine niet meer boot en je niet meer bij de pool kan
Wat zouden jullie doen?
- Deze advertentie is geblokkeerd door Pi-Hole -
Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.