Redundant NAS bouwen

Pagina: 1
Acties:

Vraag


  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
Hallo,

Ik ben bezig met het uitzoeken om een NAS te gaan bouwen die over redelijk veel rekenkracht beschikt waaronder een snelle CPU, GPU en heel veel opslag en RAM. De bedoeling is dat deze NAS eigenlijk voor alle doeleinden ingezet moet kunnen worden. Zoals als Router, Server, Desktop PC, maar ook als Gaming PC. Ik vind het fijn dat 1 machine al deze mogelijkheden kan aanbieden. Zo kan ik ook mijn videokaart even swappen naar een andere VM, en met andere workflows bezig gaan. Ik heb het programma "Unraid" gezien die aan deze wensen kan voldoen.

Ik ben bekend met de meerdere "point of failures" die door deze constructie kunnen ontstaan, maar deze wil ik zoveel mogelijk zien te beperken.

Ook energiegebruik moet een beetje acceptabel blijven bij laag CPU-gebruik. De GPU zal het minimale aan stroomgebruik gebruiken als de VM is afgesloten.

De wensen voor de NAS zijn als volgt:
- CPU-performance vergelijkbaar met een 'last gen' intel core i5 processor.
- Een IGPU van Intel is noodzakelijk voor transcoding van media.
- 64 GB DDR5 werkgeheugen met de mogelijkheid tot 128 GB uit te kunnen breiden.
- Micro ATX kast en moederbord (Mijn voorkeur heeft een compact formaat)
- Ondersteuning tot 12 SATA-harddrives. (10x 3.5 inch) (2x 2.5.inch)
- 2 M2 Slots op het moederbord
- Aansluiting voor een videokaart (heb een RTX 3070 TI liggen). Deze videokaart gaat in een VM.
- Aansluiting voor een PCI expansion card SATA (6-ports). De overige 6 zitten op het moederbord zelf.
- Mogelijk tot het plaatsen van een extra 2.5 gbit netwerkkaart.
- Gebruik maken van software raid (Dus geen Raid Controller nodig)
- 2 goedkopere SATA caching drives (SSD's). Gezien ik soms best wel veel GB's per dag wegschrijf.

Redundancy is voor mij wel erg belangrijk, om dataverlies te voorkomen heb ik met het volgende rekening gehouden:
- 10 disks in raid 6
- 2 NVMe disks in raid 1
- 2 SATA SSD's in raid 1 (Als write-buffer voor mijn HDD-pool)
- UPS systeem aangesloten op het systeem
- Gold voeding
- In de toekomst zal ik mijn data ook (off-site) backuppen. voor extra zekerheid.

De vragen aan jullie zijn:

- Zijn er nog verbeterpunten?

- Zijn alle onderdelen die ik heb samengesteld wel compatible?

- In deze samenstelling gebruik ik een PCI-Kaart om uit te breiden naar 12 SATA-poorten. Waarvan er 6 op het moederbord zitten. Is dit wel veilig met een software raid-opstelling? Zijn er wellicht betere methodes om deze drives aan te sluiten op je PC?

- De NAS komt in mijn slaapkamer te staan. Zijn er manieren om het geluid van de hdd's iets te dempen? De EXOS-drives zijn vrij luidruchtig. Ik woon helaas momenteel in een studio waardoor de NAS enkel in mijn woonkamer kan staan.

De volgende dingen heb ik al in huis:
- 2x Samsung 970 EVO Plus 2 TB
- 10X Seagate EXOS X20 18 TB
- RTX 3070 TI

Ik heb tot nu toe dit lijstje opgesteld:
#CategoryProductPrijsSubtotaal
1ProcessorsIntel Core i5-14600K Boxed€ 313,39€ 313,39
1MoederbordenBiostar B760M-Silver€ 169,-€ 169,-
1VideokaartenGigabyte GeForce RTX 3070 Ti GAMING OC 8G€ 782,41€ 782,41
10Interne harde schijvenSeagate Exos X20 (SATA, Standard), 18TB€ 269,99€ 2.699,90
1ControllersStartech.com SATA PCIe 6 Port Uitbreidingskaart€ 83,85€ 83,85
1BehuizingenFractal Design Node 804€ 113,04€ 113,04
1Usb-sticksKingston DataTraveler Micro 3.2 Gen 1 64GB Zilver€ 8,55€ 8,55
1NetwerkadaptersStartech.com 2,5 Gbps - 2,5GBASE-T - PCIe netwerkkaart€ 32,17€ 32,17
1ProcessorkoelingThermalright Peerless Assassin 120 SE€ 36,90€ 36,90
1Geheugen internKingston Fury Beast KF560C36BBEK2-64€ 219,99€ 219,99
1VoedingenCorsair RM850x (2021) Zwart€ 149,-€ 149,-
2Solid state drivesSamsung 870 Evo (MZ-77E1T0B/EU) 1TB€ 89,90€ 179,80
2Solid state drivesSamsung 970 Evo Plus 2TB€ 145,40€ 290,80
1UPS en stekkerdozenAPC BX1600MI-GR€ 216,90€ 216,90
Bekijk collectie
Importeer producten
Totaal€ 5.295,70

[ Voor 45% gewijzigd door Sanderluc op 01-04-2024 22:32 ]

Alle reacties


  • djmuggs
  • Registratie: Juni 2000
  • Niet online

djmuggs

I have great jeans

Mini-itx heeft 1 pci-e slot en gezien de toekomst wensen kom je dan pci-e slot te kort.
Dit kan je oplossen middels een mini-itx moederbord met OCuLink support, alleen kom je dan in de server prijsklasse uit.

mATX is nog steeds compact en lost je pci-e issue op, deze formfactor heeft bijna altijd 2 of meer pci-e sloten.
De keuze voor behuizing hoeft niet aangepast, want deze ondersteund mATX.

ICE ICE Baby


  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
djmuggs schreef op zondag 31 maart 2024 @ 08:09:
Mini-itx heeft 1 pci-e slot en gezien de toekomst wensen kom je dan pci-e slot te kort.
Dit kan je oplossen middels een mini-itx moederbord met OCuLink support, alleen kom je dan in de server prijsklasse uit.

mATX is nog steeds compact en lost je pci-e issue op, deze formfactor heeft bijna altijd 2 of meer pci-e sloten.
De keuze voor behuizing hoeft niet aangepast, want deze ondersteund mATX.
Dank voor je advies! Dat is zeer nuttig inderdaad. Ik denk dat ik die poort dan ga gebruiken voor een tweede netwerkadapter. Kan altijd handig zijn als je de NAS wilt gebruiken als router etc.

  • White Feather
  • Registratie: Januari 2000
  • Laatst online: 21:22
Er zijn zoveel dingen die elkaar tegenspreken.

Een redundant Nas en er op gamen. Als je iets niet wil op een apparaat dat het altijd moet doen is gaan lopen pielen met drivers. Bovendien neem ik aan dat je het ding 24/7 aan hebt staan en dan zuipt je gpu dus 24/7 stroom.

Je moederbord is m-ATX terwijl je ITX zegt te willen. (Maar met ITX heb je te weinig Pci(-X)-sloten.
En een ITX-bord heeft maar 2 Dimm-sloten.

Het moederbord ondersteunt geen ECC.

Dat kan alleen de W680-chipset.

Je hebt 10 Enterprise class hdd’s , maar het moet stil zijn (terwijl alles samen met een gpu in een zo klein mogelijke kast moet).

Een 860 watt voeding is nu meestal niet erg efficiënt bij een verbruik van enkele 20-tallen watts.

Hoever wil je gaan in redundancy? Een backup blijft altijd nodig.

Er is een reden dat een Nas in de meeste gevallen een los apparaat is.

Jij bent een workstation met hdd opslag aan het maken.

[ Voor 3% gewijzigd door White Feather op 31-03-2024 08:32 ]


  • 99ruud99
  • Registratie: December 2018
  • Laatst online: 01:02
Precies wat hierboven staat, wie gaat er een 14600 pakken om continue aan te hebben staan -.- . Heb je zoveel stroom overschot?

Maak een onderscheid tussen server en game pc, alle game taken doe je op een pc die slechts aan staat als jij hem aanzet. De server wil je onder de 20W houden, zodat je "maar" 175 kWh verbruikt per jaar.
Als je een 14600 met uitschakelen de gpu pakt, is dit snel een heel stuk hoger.

Even terug naar de tekentafel, want een voeding zit optimaal op +- helft van maximale belasting. Dus als je nas ongeveer 20W verbruikt zou ik voeding van MAX 100W pakken. (Liever 50W).

* Gezien je hdds pakt die 10W per stuk verbruiken tijdens lezen en 5W tijdens idle zal je a
Toch al snel op 100W komen , dus voeding van 200-250W.

[ Voor 11% gewijzigd door 99ruud99 op 31-03-2024 08:49 ]


  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
White Feather schreef op zondag 31 maart 2024 @ 08:30:
Er zijn zoveel dingen die elkaar tegenspreken.

Een redundant Nas en er op gamen. Als je iets niet wil op een apparaat dat het altijd moet doen is gaan lopen pielen met drivers. Bovendien neem ik aan dat je het ding 24/7 aan hebt staan en dan zuipt je gpu dus 24/7 stroom.

Je moederbord is m-ATX terwijl je ITX zegt te willen. (Maar met ITX heb je te weinig Pci(-X)-sloten.
En een ITX-bord heeft maar 2 Dimm-sloten.

Het moederbord ondersteunt geen ECC.

Dat kan alleen de W680-chipset.

Je hebt 10 Enterprise class hdd’s , maar het moet stil zijn (terwijl alles samen met een gpu in een zo klein mogelijke kast moet).

Een 860 watt voeding is nu meestal niet erg efficiënt bij een verbruik van enkele 20-tallen watts.

Hoever wil je gaan in redundancy? Een backup blijft altijd nodig.

Er is een reden dat een Nas in de meeste gevallen een los apparaat is.

Jij bent een workstation met hdd opslag aan het maken.
De GPU in de NAS is ook meer een experiment die ik wil uitvoeren. Ik wil de NAS eigenlijk zo breed mogelijk inzetbaar maken. In het verleden heb ik succesvol een RTX 3070 TI kunnen doorsturen binnen Proxmox. Vermoedelijk lukt dit ook wel met Unraid. Het is inderdaad niet heel praktisch en zorgt voor een extra point-of-failure. Maar een GPU kan soms best van pas komen binnen een VM. Ik draai regelmatig GPU-heavy tasks die ik dan gemakkelijk remote kan draaien. De GPU gebruikte in mijn vorige machine vrijwel geen stroom als de VM offline was.

Ik had inderdaad een foutje gemaakt. Moet Micro ATX en niet ITX zijn.

Volgens tweakers is het https://tweakers.net/pric...biostar-b760m-silver.html moederbord wel ECC-compatible of lees ik dat nou verkeerd? Ik had er juist zo op gefilterd.

  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
99ruud99 schreef op zondag 31 maart 2024 @ 08:47:
Precies wat hierboven staat, wie gaat er een 14600 pakken om continue aan te hebben staan -.- . Heb je zoveel stroom overschot?

Maak een onderscheid tussen server en game pc, alle game taken doe je op een pc die slechts aan staat als jij hem aanzet. De server wil je onder de 20W houden, zodat je "maar" 175 kWh verbruikt per jaar.
Als je een 14600 met uitschakelen de gpu pakt, is dit snel een heel stuk hoger.

Even terug naar de tekentafel, want een voeding zit optimaal op +- helft van maximale belasting. Dus als je nas ongeveer 20W verbruikt zou ik voeding van MAX 100W pakken. (Liever 50W).

* Gezien je hdds pakt die 10W per stuk verbruiken tijdens lezen en 5W tijdens idle zal je a
Toch al snel op 100W komen , dus voeding van 200-250W.
Ik snap wat je zegt. ik zal eens uit gaan zoeken hoeveel een GPU nou neemt als hij op idle draait. Het hebben van een GPU in een NAS heeft voor mij meerdere voordelen. Ik kan bijvoorbeeld buiten huis gaan gamen als er een stabiele lijn tussen A en B ligt. Ik start enkel de VM op en ik connect remote. Verder gebruikte ik de GPU ook best veel voor zakelijke doeleinden zoals Stable Diffusion.

Ik zal een afweging gaan maken of het het waard is of niet. Het meest ideale zou zijn als de GPU op soort van inactief gezet kan worden waardoor hij geen stroom meer neemt. Dit leek met een Thunderbolt Enclosure (Razer Core X) wel te kunnen, maar dat werkte via thunderbolt 4.

En voor een paar wattage extra lig ik niet echt wakker. Als het maar niet om extreme verschillen gaat. Een extra game PC ernaast kost mij al snel meer.

En de voeding kan inderdaad wel een tikkeltje lichter, alleen de RTX 3070 TI kan wel zo'n 290 watt op full load nemen. Dus momenteel is minimaal 600 wel aangeraden.

  • a.boogerd
  • Registratie: April 2006
  • Laatst online: 11-11 18:08
Zou je keuze voor een workstation/game PC/ NAS combo nog eens goed overwegen.

- Heb je ook een inschatting gemaakt van de jaarlijkse energie kosten? En wat betaal je voor het idle "niets doen" van systeem. Let wel: jij zit op kantoor/school, slaapt of in de kroeg en de energie rekening loopt hard door.

- Daarnaast is "redundacy" op 1 systeem slechts 1 systeem "point of failure". Ondanks je 10 enterprise schijven in 1 consumer moederbord. Tevens is bij 1 crash van je VM software dan je NAS, Game PC en Workstation buiten gebruik.

  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
a.boogerd schreef op zondag 31 maart 2024 @ 09:41:
Zou je keuze voor een workstation/game PC/ NAS combo nog eens goed overwegen.

- Heb je ook een inschatting gemaakt van de jaarlijkse energie kosten? En wat betaal je voor het idle "niets doen" van systeem. Let wel: jij zit op kantoor/school, slaapt of in de kroeg en de energie rekening loopt hard door.

- Daarnaast is "redundacy" op 1 systeem slechts 1 systeem "point of failure". Ondanks je 10 enterprise schijven in 1 consumer moederbord. Tevens is bij 1 crash van je VM software dan je NAS, Game PC en Workstation buiten gebruik.
Stroomgebruik is voor mij verwaarloosbaar. Voor een hobby heb ik wel wat geld over.

Die "Point of failure" op de NAS blijf je altijd wel hebben. Ik heb helaas geen geld om ergens anders nog eens 180 TB aan backups te stallen. Ik wil alleen zien te voorkomen dat als het systeem crasht (om wat voor reden dan ook). Alle data weer veilig hersteld kan worden. Als de Game-PC of Workstation eruit ligt maakt mij niets uit. Ik vraag me af in hoeverre een systeem sneller crasht doordat je er games op speelt (hoge load). Alles is namelijk virtualised dus ik zie eerder de VM crashen dan de host. Of de voeding zou het al moeten begeven en alles kapot maken....

  • Microkid
  • Registratie: Augustus 2000
  • Nu online

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Sanderluc schreef op zondag 31 maart 2024 @ 07:17:
Hallo,

Ik ben bezig met het uitzoeken van een NAS waar 10 - 3.5 bays in kunnen. Verder is de CPU-performance vrij belangrijk gezien ik relatief veel virtual machines / Docker containers op de NAS wil draaien. Later wil ik wellicht zelfs gaan gamen op de NAS via GPU passthrough. Hier houd ik rekening mee qua voeding. Het is vooral belangrijk dat de gegevens die op deze NAS staan veilig blijven. Ik wil bijvoorbeeld tegengaan als de voeding crasht de hele raid-volume kapot is.
Sorry hoor, maar dit schreeuwt gewoon om een grote: Niet doen. Een Nas is een Nas, daar moet je niet op gamen. Dat zijn heel andere werkzaamheden. Zelfs het draaien van veel virtuele machines op een Nas vind ik een slecht idee. Neem dan gewoon een Intel Nuc, zet daar iets van Proxmox op en draai daar je VM's. Mijn mening is dat elk device moet doen waar het voor ontworpen is. Een Nas levert storage, niets meer, niets minder. Een Hypervisor doos levert VM's of Docker. En een game-pc ga je op gamen. Ga je alles mengen, dan creeer je een grote complexiteit en afhankelijkheid tussen alle 3 de functies. Gaat er iets mis met de ene, dan beinvloed je ook de andere. Nogmaals: bezint eer ge begint.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


  • White Feather
  • Registratie: Januari 2000
  • Laatst online: 21:22
Sanderluc schreef op zondag 31 maart 2024 @ 08:54:
[...]

Volgens tweakers is het https://tweakers.net/pric...biostar-b760m-silver.html moederbord wel ECC-compatible of lees ik dat nou verkeerd? Ik had er juist zo op gefilterd.
De Pricewatch geeft aan:
Geheugen beveiliging ECC (in non-ECC mode)
Het werkt dus wel met ECC-geheugen, maar de ECC werkt niet.

  • Flans
  • Registratie: Februari 2013
  • Laatst online: 05-11 15:18
Leuk! Ik kan me helemaal voorstellen dat je de dingen wilt doen die je beschrijft. Ik heb een tijd geleden hetzelfde gedaan een heel groot deel ingegeven door hobby/proberen/'speulen'. Ik heb tot op heden de stap nog niet gezet om mijn gaming pc eruit te doen en de 4070 die daarin zit in de server te stoppen. (Die staat nog wel op het lijstje, ergens een keer...). Ik heb er zelf een unraid server van gemaakt met een - in vergelijking met jou - bescheiden 50TB aan opslag.
  • Qua voeding ben ik gaan kijken in de Corsair reeks, die staan aangeschreven als het meest zuinige en kunnen ook goed omgaan met weinig stroom verbruik. Ik heb zelf deze in mijn server zitten, uitvoering: Corsair RM550x (2018) (EU-model) Zwart
  • Unraid draait prima op een kleinere usb stick, zou je nog weer een paar euro schelen
  • Als oplossing voor het aantal schijven zou je nog eens kunnen kijken naar PCI-e to (mini) SAS kaart
  • Heb je genoeg aan de standaard 2,5Gbps die dit moederbord heeft? Of zou een 10Gbps kaart hierin wellicht je werk nog sneller/makkelijker maken?
  • Ik mis nog een processorkoeling en eventuele extra casefans in je build
Toen ik je titel las dacht ik dat het zou gaan over dataopslag los van een al bestaande server. Ik zou je - als data behoud echt zo belangrijk is - toch ook nog wel aanraden. Dit systeem hoeft verder natuurlijk niks te kunnen en kan het grootste gedeelte van de tijd uitstaan. Je hebt het over 180TB aan backups, dat zal met 10 schijven van 18TB in raid 6 natuurlijk een stukje minder zijn. Nog steeds zal dat flink zijn hierin kun je op basis van wat 'echt' belangrijk is natuurlijk wel een schifting in maken. Daarmee krijg je je data op een andere fysieke plek, dat is wel een goede extra stap.

  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
Flans schreef op zondag 31 maart 2024 @ 10:34:
Leuk! Ik kan me helemaal voorstellen dat je de dingen wilt doen die je beschrijft. Ik heb een tijd geleden hetzelfde gedaan een heel groot deel ingegeven door hobby/proberen/'speulen'. Ik heb tot op heden de stap nog niet gezet om mijn gaming pc eruit te doen en de 4070 die daarin zit in de server te stoppen. (Die staat nog wel op het lijstje, ergens een keer...). Ik heb er zelf een unraid server van gemaakt met een - in vergelijking met jou - bescheiden 50TB aan opslag.
  • Qua voeding ben ik gaan kijken in de Corsair reeks, die staan aangeschreven als het meest zuinige en kunnen ook goed omgaan met weinig stroom verbruik. Ik heb zelf deze in mijn server zitten, uitvoering: Corsair RM550x (2018) (EU-model) Zwart
  • Unraid draait prima op een kleinere usb stick, zou je nog weer een paar euro schelen
  • Als oplossing voor het aantal schijven zou je nog eens kunnen kijken naar PCI-e to (mini) SAS kaart
  • Heb je genoeg aan de standaard 2,5Gbps die dit moederbord heeft? Of zou een 10Gbps kaart hierin wellicht je werk nog sneller/makkelijker maken?
  • Ik mis nog een processorkoeling en eventuele extra casefans in je build
Toen ik je titel las dacht ik dat het zou gaan over dataopslag los van een al bestaande server. Ik zou je - als data behoud echt zo belangrijk is - toch ook nog wel aanraden. Dit systeem hoeft verder natuurlijk niks te kunnen en kan het grootste gedeelte van de tijd uitstaan. Je hebt het over 180TB aan backups, dat zal met 10 schijven van 18TB in raid 6 natuurlijk een stukje minder zijn. Nog steeds zal dat flink zijn hierin kun je op basis van wat 'echt' belangrijk is natuurlijk wel een schifting in maken. Daarmee krijg je je data op een andere fysieke plek, dat is wel een goede extra stap.
Die Corsair-voeding is zeker een leuke, echter heeft die maar 6 SATA-voedingsstekkers terwijl ik er 10 nodig heb.

Volgens mij kunnen mijn schijven niet met zo'n PCI-e naar SAS adapter overweg. Ik zou in ieder geval niet weten hoe.

Voor een processorkoeler heb ik eigenlijk nog niet gekeken. Ik dacht dat die in de doos zat, maar dat blijkt dus niet zo te zijn.

Ik zit eraan te denken om naast de extra SATA-poorten ook nog een extra 2.5 gbit netwerkkaart op x16 te plaatsen. Dit zodat ik op mijn NAS ook router-software zoals OPNSense kan draaien. Ik heb geen enkel apparaat die met 10 gbit overweg kan. Dus 2.5 gbit is voor mij voldoende.

  • Mr_gadget
  • Registratie: Juni 2004
  • Laatst online: 21:26

Mr_gadget

C8H10N4O2 powered

Als je er een professionele switch erop aan wil sluiten is 10 Gbit wel fijn. Wil je met meerdere clients tegelijk je nas benaderen?

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 20:49
White Feather schreef op zondag 31 maart 2024 @ 10:31:
[...]

De Pricewatch geeft aan:

[...]
Het werkt dus wel met ECC-geheugen, maar de ECC werkt niet.
Dit inderdaad. @Sanderluc Wil je echt ECC dan kom je uit bij hardware voor servers zoals bijvoorbeeld Supermicro. Spullen voor consumenten / gaming kunnen wel overweg met ECC-modules maar maken geen gebruik van die functionaliteit, of te wel je koop duurder geheugen maar je moederbord doet er helemaal niets mee.

Voor de 1700 socket vind je niet veel moederborden die ECC-geheugen gebruiken, met een Xeon heb je veel meer keuze wat betreft moederborden, maar een Xeon gebruikt beduidend meer energie dan een Core i5.

Aanvulling.

Wanneer je voor EEC-geheugen kiest dan moet je eigenlijk ook een redundante voering hebben. Een willekeurige entry in de Pricewatch: uitvoering: FSP Twins Pro 700 watt (FSP700-50RAB)

[ Voor 32% gewijzigd door FrankHe op 31-03-2024 13:05 ]


  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
FrankHe schreef op zondag 31 maart 2024 @ 12:48:
[...]

Dit inderdaad. @Sanderluc Wil je echt ECC dan kom je uit bij hardware voor servers zoals bijvoorbeeld Supermicro. Spullen voor consumenten / gaming kunnen wel overweg met ECC-modules maar maken geen gebruik van die functionaliteit, of te wel je koop duurder geheugen maar je moederbord doet er helemaal niets mee.

Voor de 1700 socket vind je niet veel moederborden die ECC-geheugen gebruiken, met een Xeon heb je veel meer keuze wat betreft moederborden, maar een Xeon gebruikt beduidend meer energie dan een Core i5.

Aanvulling.

Wanneer je voor EEC-geheugen kiest dan moet je eigenlijk ook een redundante voering hebben. Een willekeurige entry in de Pricewatch: uitvoering: FSP Twins Pro 700 watt (FSP700-50RAB)
Bedankt voor de info:

Ik heb ECC moederborden maar links laten liggen. Op internet heb ik verschillende verhalen gelezen dat Non-ECC vaak ook prima zat is. Een ECC moederbord kost mij gemiddeld al 500 euro meer een behoorlijk verschil..

Ik heb al diverse verhalen gelezen waaronder: https://www.reddit.com/r/..._important_really_is_ecc/

  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
Mr_gadget schreef op zondag 31 maart 2024 @ 12:28:
Als je er een professionele switch erop aan wil sluiten is 10 Gbit wel fijn. Wil je met meerdere clients tegelijk je nas benaderen?
Ik heb momenteel niet de budgetten om mijn hele huis van 10 gbit te voorzien. Voor mijn doeleinde is 2.5 gbit voldoende. Gezien veel activiteiten vanuit mijn NAS gebeuren is er weinig netwerktraffic bij betrokken. De storage van de host naar de VM’s loopt lokaal namelijk. 10 gbit is momenteel overkill. Ik heb wel behoefte aan 2 NiCS van 2.5 gbit. 1 van die NIC (Lan Poort) koppel ik vervolgens aan netwerkswitch voor internet hier in thuis. De NIC (WAN Poort) zal de VLAN van het internet verwerken. Als de router eenmaal draait koppel ik hier een Access-Point op en klaar. Beide NIC’s gaan gebruikt worden voor een OPNSense Router ook met aparte toegewezen dedicated cores. (Voor stabielere performance)

[ Voor 24% gewijzigd door Sanderluc op 01-04-2024 03:28 ]


  • dragonhaertt
  • Registratie: Februari 2011
  • Laatst online: 20:41

dragonhaertt

@_'.'

Sanderluc schreef op zondag 31 maart 2024 @ 10:12:
[...]


Stroomgebruik is voor mij verwaarloosbaar. Voor een hobby heb ik wel wat geld over.
Dit stookt nogal met je andere berichten (en ook hieronder) die stellen dat je ergens geen geld voor hebt.
Volgens mij heb je geen idee hoe veel geld dit per jaar gaat kosten.
Die "Point of failure" op de NAS blijf je altijd wel hebben. Ik heb helaas geen geld om ergens anders nog eens 180 TB aan backups te stallen. Ik wil alleen zien te voorkomen dat als het systeem crasht (om wat voor reden dan ook). Alle data weer veilig hersteld kan worden.
zonder backups kan je dit nooit garanderen.
Raid is geen backup.
Een brand, een diefstal, waterschade, mechanische schade, voeding failure, blikseminslag, er zijn tal van dingen te bedenken waardoor je in één klap al je data kwijt bent.
Als de Game-PC of Workstation eruit ligt maakt mij niets uit. Ik vraag me af in hoeverre een systeem sneller crasht doordat je er games op speelt (hoge load). Alles is namelijk virtualised dus ik zie eerder de VM crashen dan de host. Of de voeding zou het al moeten begeven en alles kapot maken....
Hoe veel warmte denk je dat zo'n systeem genereert, zelfs zonder load?
10 schijven is niet niks.

Ik denk dat de enige manier om zo iets enigszins degelijk te bouwen in een 19inch rack is.
uATX is hier echt niet op berekend.

Er is een goede reden dat er zo veel Synology NASsen worden verkocht. Wat jij probeert te doen is 1000 euro besparen door je nas te combineren met een game pc, waardoor je elke twee jaar 1000 euro extra aan stroomkosten hebt.

Ik zie alleen maar nadelen.

Truth is like a language with no native speakers left.
Its poetry is speechless and it can’t be caught in human being’s breath.


  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
dragonhaertt schreef op maandag 1 april 2024 @ 03:34:
[...]

Dit stookt nogal met je andere berichten (en ook hieronder) die stellen dat je ergens geen geld voor hebt.
Volgens mij heb je geen idee hoe veel geld dit per jaar gaat kosten.

[...]
zonder backups kan je dit nooit garanderen.
Raid is geen backup.
Een brand, een diefstal, waterschade, mechanische schade, voeding failure, blikseminslag, er zijn tal van dingen te bedenken waardoor je in één klap al je data kwijt bent.


[...]


Hoe veel warmte denk je dat zo'n systeem genereert, zelfs zonder load?
10 schijven is niet niks.

Ik denk dat de enige manier om zo iets enigszins degelijk te bouwen in een 19inch rack is.
uATX is hier echt niet op berekend.

Er is een goede reden dat er zo veel Synology NASsen worden verkocht. Wat jij probeert te doen is 1000 euro besparen door je nas te combineren met een game pc, waardoor je elke twee jaar 1000 euro extra aan stroomkosten hebt.

Ik zie alleen maar nadelen.
Ik heb momenteel een Synology NAS DS1522+ (5 bays) en een Expansion Unit tot 5 drives. maar ik loop tegen barrières aan. Ik kan bijvoorbeeld maar een volume van maximaal 108 TB aanmaken..
https://kb.synology.com/n...le_volume_size_limitation
Ook hebben weinig nassen tegenwoordig nog een IGPU die transcoding kan doen. Komt omdat alle nassen tegenwoordig een AMD-chip hebben. Dit is erg janmer gezien ik hierdoor een tweede computer voor transcoding nodig heb.

Verder vind ik synology erg duur voor wat je krijgt. Om die 108 TB te omzeilen moet ik meer dan 3000 euro neerleggen. Dan gelden die limieten niet meer.
https://tweakers.net/pric...iskstation-ds3622xs+.html

Ik ben op zoek naar een betere oplossing die wel voldoet aan mijn eisen. Unraid lijkt dit allemaal wel te kunnen bieden. Een alles in 1 NAS lijkt mij gewoon een leuk concept. 1 machine waar ik letterlijk alles op kan doen. Later wil ik me nog bezig houden met off-site backups zodat ik geen data kan kwijtraken. (Als toevoeging op Raid)

Het stroomgebruik moet enigszins acceptabel zijn. Ik zal gaan uitzoeken hoeveel de IDLE usage van mijn machine zal zijn. Momenteel ben ik me puur nog aan het oriënteren. Ik las dat Unraid de videokaart uit kan zetten. Dan zit je alleen nog met het de hogere stroomkosten van je CPU, en Disks.

Qua warmteontwikkeling heb ik eigenlijk nooit bij stilgegaan. Misschien ben ik gewoon wat te optimistisch geweest met deze NAS-samenstelling. Er kunnen wel extra fan’s is de case geplaatst worden.

Een 19 inch rack kan ik hier lastig kwijt. Ik woon namelijk in een studio van (25m2). Ik zou wellicht nog voor een grotere computerkast kunnen gaan kijken. Maar ik heb liever een Micro ATX formfactor voor op mijn bureau..

En inderdaad deze hobby kost gigantisch veel geld. Soms vraag ik me ook af waar ik uberhaupt mee begonnen ben.

[ Voor 9% gewijzigd door Sanderluc op 01-04-2024 04:52 ]


  • Skynett
  • Registratie: Augustus 2019
  • Laatst online: 23:50
In de zomer continu 10 schijven hebben draaien in een kamer van 25m2, dat wordt lekker zweten binnen. Nog los van de herrie.

Hier moet alle shit staan die ik heb.


  • FrankHe
  • Registratie: November 2008
  • Laatst online: 20:49
Sanderluc schreef op maandag 1 april 2024 @ 02:58:
[...]

Bedankt voor de info:

Ik heb ECC moederborden maar links laten liggen. Op internet heb ik verschillende verhalen gelezen dat Non-ECC vaak ook prima zat is. Een ECC moederbord kost mij gemiddeld al 500 euro meer een behoorlijk verschil..

Ik heb al diverse verhalen gelezen waaronder: https://www.reddit.com/r/..._important_really_is_ecc/
Tenzij je een bedrijf hebt waarbij je Eur 10.000 per dag of per uur verliest op het moment dat je systeem down is, dan is ECC-geheugen, dubbele voeding en high availability met twee of meer machines een vereiste. Voor de serieuze hobby of kleine onderneming zou ik ECC in beginsel achterwege laten. Geheugen is heel erg betrouwbaar en de kans dat er zich een fout voordoet is heel erg klein maar niet volledig uitgesloten. Wanneer je de absolute garantie wilt hebben dat je systeem een enkele memory bit-flip kan repareren en een dubbele bit-flip kan detecteren dan moet je in de buidel tasten en voor ECC gaan.

Ik zou mijn geld eerder steken in een goede UPS en harde schijven / SSD's met persistent write cache, of te wel DRAM cache met battery backup.

  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
FrankHe schreef op maandag 1 april 2024 @ 11:40:
[...]

Tenzij je een bedrijf hebt waarbij je Eur 10.000 per dag of per uur verliest op het moment dat je systeem down is, dan is ECC-geheugen, dubbele voeding en high availability met twee of meer machines een vereiste. Voor de serieuze hobby of kleine onderneming zou ik ECC in beginsel achterwege laten. Geheugen is heel erg betrouwbaar en de kans dat er zich een fout voordoet is heel erg klein maar niet volledig uitgesloten. Wanneer je de absolute garantie wilt hebben dat je systeem een enkele memory bit-flip kan repareren en een dubbele bit-flip kan detecteren dan moet je in de buidel tasten en voor ECC gaan.

Ik zou mijn geld eerder steken in een goede UPS en harde schijven / SSD's met persistent write cache, of te wel DRAM cache met battery backup.
Duidelijk verhaal ja. Inderdaad zonde geld gezien ik deze NAS voor een groot deel hobbymatig gebruik.

Ik heb inmiddels wat diverse aanpassingen aan mijn wensenlijstje gedaan. Zo heb ik nu ook 2 SATA SSD's eraan toegevoegd. Deze wil ik als cache-buffer gebruiken om data sneller sneller te kunnen wegschrijven naar mijn HDD-pool. Voor de zekerheid heb ik hier ook Raid-1 voor gekozen. Echter gezien SSD's een TBW waarde hebben zullen ze uiteindelijk wel beide vervangen moeten worden.

  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
Skynett schreef op maandag 1 april 2024 @ 05:12:
In de zomer continu 10 schijven hebben draaien in een kamer van 25m2, dat wordt lekker zweten binnen. Nog los van de herrie.
Ja we zullen zien, het is maar de vraag of ik uberhaupt nog kan slapen met al die herrie. Ik zit eraan te denken om een soort van geluidsdichte kleinere patchkast te halen en hier de NAS dan maar in te plaatsen. Zal toch een beetje creatief moeten zijn.

  • Skynett
  • Registratie: Augustus 2019
  • Laatst online: 23:50
Sanderluc schreef op maandag 1 april 2024 @ 12:26:
[...]
Ja we zullen zien, het is maar de vraag of ik uberhaupt nog kan slapen met al die herrie. Ik zit eraan te denken om een soort van geluidsdichte kleinere patchkast te halen en hier de NAS dan maar in te plaatsen. Zal toch een beetje creatief moeten zijn.
Dat is dan weer niet goed voor de warmteafvoer. Denk dat je (roterende) schijven dan binnen no-time boven de 45 graden komen, en dat wil je ook niet hebben.

Hier moet alle shit staan die ik heb.


  • FrankHe
  • Registratie: November 2008
  • Laatst online: 20:49
Sanderluc schreef op maandag 1 april 2024 @ 12:19:
[...]

Duidelijk verhaal ja. Inderdaad zonde geld gezien ik deze NAS voor een groot deel hobbymatig gebruik.

Ik heb inmiddels wat diverse aanpassingen aan mijn wensenlijstje gedaan. Zo heb ik nu ook 2 SATA SSD's eraan toegevoegd. Deze wil ik als cache-buffer gebruiken om data sneller sneller te kunnen wegschrijven naar mijn HDD-pool. Voor de zekerheid heb ik hier ook Raid-1 voor gekozen. Echter gezien SSD's een TBW waarde hebben zullen ze uiteindelijk wel beide vervangen moeten worden.
Hot- en cold data storage concept zal de performance verbeteren, vooral de write performance en afhankelijk van het gebruik ook de read performance, dat zet zeker zoden aan de dijk. De slijtage zal in de praktijk vermoedelijk meevallen, met twee SSD's van bijvoorbeeld 1 TB ga je vermoedelijk niet in de problemen komen. Afhankelijk van welke software je gaat gebruiken voor het beheer van je storage wordt nog wel een 1 GB per TB aangehouden. Dus als je array 128 TB kan bevatten dan zou je in beginsel toe kunnen met 128 GB aan SSD cache. Dan is alles groter dan dat prima.
Sanderluc schreef op maandag 1 april 2024 @ 04:14:
[...]

En inderdaad deze hobby kost gigantisch veel geld. Soms vraag ik me ook af waar ik uberhaupt mee begonnen ben.
Tien schijven van 18 TB is ook niet niets, ik ken menig MKB-onderneming die niet eens 1 TB aan opslag nodig heeft.

Ik heb zelf twee Toshiba 16 TB schijven in een Synology NAS als SHR-1 mirror set met singel parity (vergelijkbaar met RAID-1) en dat is meer dan voldoende voor wat ik nodig heb. Nu is een mirror set wellicht niet de meest economische oplossing maar wat betreft foutgevoeligheid en energiegebruik is het voor mijn gevoel een absolute winnaar. Ok, SHR-2 double parity (vergelijkbaar met RAID-6) biedt meer zekerheid maar de kans dat twee schijven in een mirror set tegelijk een probleem hebben is echt vele malen kleiner dan wanneer ik tien schijven in een array zet, negen maal zoveel kans dat een schijf het leven laat. Maar daardoor heb ik inderdaad geen 150 TB aan opslag tot mijn beschikking.

Daarnaast is er uiteraard een dubbele backup, een direct attached USB-schijf en een off-site backup, in mijn geval vier maal per dag naar Synology C2 in Frankfurt am Main, alleen de broodnodige 850 GB waardoor ik binnen het 1 TB abonnement blijf. De kans dat ik ooit essentiële data verlies is zo goed als nihil. De overige TB's aan data zijn niet belangrijk genoeg om in de (off-site) backup mee te nemen, deels omdat het reeds de backup is van een ander remote systeem.

Een disaster recovery vanaf C2 zal enige tijd in beslag nemen maar ik hoop niet dat dit ooit nodig zal zijn, echter wel fijn om dit achter de hand te hebben.

Persoonlijk vind ik het wel prettig om NAS en andere zaken op verschillende machines te hebben. Ik heb dan ook geen VM's of containers op m'n Synology draaien, daarvoor gebruik ik een NUC met Proxmox. De NAS doet waar die goed in is en de Proxmox-bak doet waar die goed in is.

  • pimlie
  • Registratie: November 2000
  • Laatst online: 23:37
@Sanderluc Ben je bekend met de risico's die er zitten aan een 10 disk raid 6, met name als de disks uit dezelfde batch komen?
Stel de disk gaat op zaterdagavond kapot, dan duurt het ws 2 dagen voor je een nieuwe disk in huis hebt en het duurt minimaal 1 dag om de array te resilveren (18TB/~250MB/s) . Dus gedurende een periode van minimaal 3 dagen heb je nog maar 1 disk parity.
Het probleem is echter, dat als er 1 disk kapot gaat de kans aanwezig is dat er nog een disk kapot gaat. Immers alle disks hebben het zelfde soort slijtage gekend (m.n. warmte), zeker als de disks dan ook nog uit de zelfde batch zou zijn is de kans groot dat als er uiteindelijk 1 disk kapot gaat er meerdere volgen.
Ik zeg overigens niet dat je geen 10 disk raid 6 moet gebruiken, maar zorg er wel voor dat je een goed plan hebt als er uiteindelijk een disk kapot gaat. Evt. kan je b.v. een cold spare op de plank leggen zodat als er een disk kapot gaat je altijd direct kan resilveren.

Kijk anders ook eens in Het grote zuinige server topic - deel 3, staat ws ook veel tips voor je in. Onderscheid tussen hot/cold storage is iig zeer aan te bevelen als je stroomverbruik wilt minimaliseren. Dat is dus niet ssd's enkel als cache buffer in zetten, maar 2 pools waarvan de eerste pool continue draait en de tweede grotere pool veelal in standby staat. Afhankelijk van het soort data dat je hebt, zou de eerste pool ook een single disk kunnen zijn die je 1x per dag backupt naar de grotere pool. Dan verlies je evt max ~24h aan data, maar als de data bv makkelijk opnieuw te downloaden is zou dat geen probleem moeten zijn.

  • Sanderluc
  • Registratie: Augustus 2017
  • Laatst online: 10-11 05:38
pimlie schreef op maandag 1 april 2024 @ 12:46:
@Sanderluc Ben je bekend met de risico's die er zitten aan een 10 disk raid 6, met name als de disks uit dezelfde batch komen?
Stel de disk gaat op zaterdagavond kapot, dan duurt het ws 2 dagen voor je een nieuwe disk in huis hebt en het duurt minimaal 1 dag om de array te resilveren (18TB/~250MB/s) . Dus gedurende een periode van minimaal 3 dagen heb je nog maar 1 disk parity.
Het probleem is echter, dat als er 1 disk kapot gaat de kans aanwezig is dat er nog een disk kapot gaat. Immers alle disks hebben het zelfde soort slijtage gekend (m.n. warmte), zeker als de disks dan ook nog uit de zelfde batch zou zijn is de kans groot dat als er uiteindelijk 1 disk kapot gaat er meerdere volgen.
Ik zeg overigens niet dat je geen 10 disk raid 6 moet gebruiken, maar zorg er wel voor dat je een goed plan hebt als er uiteindelijk een disk kapot gaat. Evt. kan je b.v. een cold spare op de plank leggen zodat als er een disk kapot gaat je altijd direct kan resilveren.

Kijk anders ook eens in Het grote zuinige server topic - deel 3, staat ws ook veel tips voor je in. Onderscheid tussen hot/cold storage is iig zeer aan te bevelen als je stroomverbruik wilt minimaliseren. Dat is dus niet ssd's enkel als cache buffer in zetten, maar 2 pools waarvan de eerste pool continue draait en de tweede grotere pool veelal in standby staat. Afhankelijk van het soort data dat je hebt, zou de eerste pool ook een single disk kunnen zijn die je 1x per dag backupt naar de grotere pool. Dan verlies je evt max ~24h aan data, maar als de data bv makkelijk opnieuw te downloaden is zou dat geen probleem moeten zijn.
Helaas komen mijn drives ook uit dezelfde batch. Ik had hier toevallig laatst een artikel over gelezen. Als ik dit eerder had geweten had ik bij verschillende vendors drives ingekocht. Om het rebuilden te versnellen was ik van plan om spare-drives (Het liefst 2) in de voorraadkast te leggen.

Ik zal het topic is gaan bekijken. Bedankt voor de tips.

  • RedPas
  • Registratie: November 2017
  • Laatst online: 18:41
Sanderluc schreef op zondag 31 maart 2024 @ 10:12:
[...]


Stroomgebruik is voor mij verwaarloosbaar. Voor een hobby heb ik wel wat geld over.

Die "Point of failure" op de NAS blijf je altijd wel hebben. Ik heb helaas geen geld om ergens anders nog eens 180 TB aan backups te stallen. Ik wil alleen zien te voorkomen dat als het systeem crasht (om wat voor reden dan ook). Alle data weer veilig hersteld kan worden. Als de Game-PC of Workstation eruit ligt maakt mij niets uit. Ik vraag me af in hoeverre een systeem sneller crasht doordat je er games op speelt (hoge load). Alles is namelijk virtualised dus ik zie eerder de VM crashen dan de host. Of de voeding zou het al moeten begeven en alles kapot maken....
Dus je 10 18T hdd's ga je zo gebruiken? Geen vorm van raid?
Redundant kun je nu wel schrappen....
Deze komt in je slaapkamer?? Met die disks? Leuke nachten...

Zoals als Router, Server, Desktop PC, maar ook als Gaming PC. |:( |:( |:( |:(

Hikvision HCSA, Paxton, Siemens, Raspberry Pi


  • poing
  • Registratie: Juli 2001
  • Niet online
Sanderluc schreef op zondag 31 maart 2024 @ 08:54:
[...]
In het verleden heb ik succesvol een RTX 3070 TI kunnen doorsturen binnen Proxmox.
Let op, niet elk moederbord kan dit. Het mijne bvb.

  • TheAncientDovah
  • Registratie: Februari 2015
  • Laatst online: 11-11 16:09

TheAncientDovah

Meester in de kunsten van...

Is het met 10 HDDs niet interessant om te kijken naar RAIDZ2?

Recent hebben we een NAS thuis in elkaar gezet, met 4 HDDs en RAIDZ2 op basis van het TrueNAS Scale OS.

#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 5 Pro 4650G Tray€ 122,95€ 122,95
1MoederbordenASRock B550M Steel Legend€ 124,42€ 124,42
4Interne harde schijvenSeagate Exos 7E10 SATA (512e/4KN, Standard), 8TB€ 169,99€ 679,96
1BehuizingenFractal Design Node 804€ 113,04€ 113,04
1Processorkoelingbe quiet! Pure Rock Slim 2€ 24,35€ 24,35
1Geheugen internKingston KSM32ED8/32HC€ 82,90€ 82,90
1Solid state drivesLexar NM790 (zonder heatsink) 1TB€ 72,90€ 72,90
Totaal€ 1.220,52


Wellicht interessant om iets vergelijkbaars te overwegen.

Bovendien zou je bij een build met dit budget wellicht een processor, mobo, en RAM kunnen overwegen met ECC ondersteuning; zeker als je je ogen hebt gezet op een server die praktisch altijd aan blijft staan.

Om geluid te dempen moet je vooral op zoek gaan naar een degelijke behuizing. In die van mijn lijstje passen vgm niet alle HDDs wat je wilt, maar de HDDs zitten daar bijvoorbeeld wel tussen rubbertjes in de brackets. Dat zou een deel van de vibraties moeten opvangen.

[ Voor 5% gewijzigd door TheAncientDovah op 02-04-2024 17:46 ]

Meester in de kunsten van...


  • Sethro
  • Registratie: Maart 2017
  • Laatst online: 10-04 09:05
Ik ben ook beetje zoekende wat TS met redundant bedoelt. Ik zie eigenlijk niets redundants.

Geen redundant power supply, geen redundantie in schijven, wat is er eigenlijk wel redundant?

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 11-11 16:53

heuveltje

KoelkastFilosoof

Skynett schreef op maandag 1 april 2024 @ 05:12:
In de zomer continu 10 schijven hebben draaien in een kamer van 25m2, dat wordt lekker zweten binnen. Nog los van de herrie.
dragonhaertt schreef op maandag 1 april 2024 @ 03:34:
[...]

Hoe veel warmte denk je dat zo'n systeem genereert, zelfs zonder load?
10 schijven is niet niks.
Ik mis de logica ook een beetje. Maar volgens mij overdrijven we nu wat.
een harde schijf verbruikt iets van 10 wat in IDLE. meestal zelfs minder.

Ik zo voor mijn stroomrekening geen 100W continu willen hebben lopen. Maar kwa warmte in een complete woonkamer doet dat echt niet veel.

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • dragonhaertt
  • Registratie: Februari 2011
  • Laatst online: 20:41

dragonhaertt

@_'.'

heuveltje schreef op dinsdag 2 april 2024 @ 18:09:
[...]


[...]


Ik mis de logica ook een beetje. Maar volgens mij overdrijven we nu wat.
een harde schijf verbruikt iets van 10 wat in IDLE. meestal zelfs minder.

Ik zo voor mijn stroomrekening geen 100W continu willen hebben lopen. Maar kwa warmte in een complete woonkamer doet dat echt niet veel.
Het gaat ook niet over de warmte in de woonkamer, maar de warmte in de kast.

Een gemiddelde uATX kast is niet ontworpen om 10 harde schijven koel te houden.

Truth is like a language with no native speakers left.
Its poetry is speechless and it can’t be caught in human being’s breath.


  • Dacuuu
  • Registratie: Maart 2009
  • Laatst online: 21:50
Ik ben fan van unraid, maar let er ook even op dat niet elke anti cheat werkt op een vm. Dus ben je fervent online gamer, moet je even zoeken of je game dan wel werkt.

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 11-11 16:53

heuveltje

KoelkastFilosoof

dragonhaertt schreef op dinsdag 2 april 2024 @ 18:19:
[...]


Het gaat ook niet over de warmte in de woonkamer, maar de warmte in de kast.

Een gemiddelde uATX kast is niet ontworpen om 10 harde schijven koel te houden.
Ow zo. Dan nog, als een redelijke cpu en een 3070ti te koelen zijn, zijn die schijven ook niet echt het punt.

maar waar hebben we het over :P , een normale uATX kast heeft ook geen ruimte voor 10 schijven. en degene die dat wel hebben(als die er zijn ?), zijn over het algemeen ook gewoon ontworpen als nas behuizing met bijbehorende koeling.

[ Voor 13% gewijzigd door heuveltje op 02-04-2024 18:59 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Skynett
  • Registratie: Augustus 2019
  • Laatst online: 23:50
heuveltje schreef op dinsdag 2 april 2024 @ 18:57:
[...]


Ow zo. Dan nog, als een redelijke cpu en een 3070ti te koelen zijn, zijn die schijven ook niet echt het punt.
Ligt toch iets genuanceerder, harde schijven wil je liefst niet boven de 40 graden hebben, anders gaan ze eerder stuk. In tegenstelling tot een cpu of videokaart, die kunnen probleemloos langere tijd op 80 graden, of zlefs meer, draaien.

Harde schijven loggen ook de hoogste temperatuur terwijl ze aan staan.

Hier moet alle shit staan die ik heb.


  • MeesKees21
  • Registratie: Mei 2020
  • Laatst online: 22-02 22:29

MeesKees21

DeepSeek of DiepZiek?

Sanderluc schreef op zondag 31 maart 2024 @ 11:13:
[...]


Die Corsair-voeding is zeker een leuke, echter heeft die maar 6 SATA-voedingsstekkers terwijl ik er 10 nodig heb.


Ik zit eraan te denken om naast de extra SATA-poorten ook nog een extra 2.5 gbit netwerkkaart op x16 te plaatsen. Dit zodat ik op mijn NAS ook router-software zoals OPNSense kan draaien. Ik heb geen enkel apparaat die met 10 gbit overweg kan. Dus 2.5 gbit is voor mij voldoende.
Als je die 6 Satavoedingsstekkers gaat splitsen, heb je in totaal 12 aansluitingen. Iedere Sata en Molexkabel kan je tot 75 Watt belasten. Splitkabels kosten niet zoveel, voor enkele euro's heb je er al 1.

Waarom zou je een 2.5Gbit nic in een x16 slot stoppen. Een x1 slot is al voldoende om een 2.5Gbit nic aan te sturen. Ik zou ook aan de toekomst denken, je hebt nu nog geen apparaat wat 10Gbit aan kan, maar in de toekomst met een volgende upgrade misschien wel. De Asus XG-C100C is een 10Gbit nic met 5 snelheden, te weten 100Mbit, 1G, 2.5G, 5G en 10G, deze nic zou dus gewoon "meeveren" naar wat er gevraagd wordt door een ander aangesloten apparaat. Op Amazon zijn deze nic's te koop voor € 80,-, hier op Tweakers heb ik ze gekocht voor € 50,-. Mijn keuze zou dus de Asus zijn ;)

Er zijn maar 2 zekerheden in het leven, de eerste is dat je geboren wordt en de tweede is dat je doodgaat...

Pagina: 1