Black Friday = Pricewatch Bekijk onze selectie van de beste Black Friday-deals en voorkom een miskoop.

  • I-Lynx
  • Registratie: April 2008
  • Laatst online: 14-11 20:21
Monitoring zat ik ook nog aan te denken. Maar weet nog niet helemaal hoe en waar dat zit.
En wat daar aan veranderd is sinds een week.

De ZFS mirror zit op 2 SATA SSD schijven.
Die mirror hangt aan de OMV VM.
Dit is een cold storage, Time Machine backup (SMB) en een wekelijkse backup van een Synology Nas (RSync).
Er is, behalve die paar uur per week, niet veel activiteit.
ramonlambal schreef op woensdag 5 november 2025 @ 22:49:
Je had ook een ZFS mirror ingesteld toch? op NVME? Dat betekend namelijk, als die een beetje hyperactief wil mirrororen je PCI-e states nooit naat beneden gaan natuurlijk, omdat de twee schijven constant van elkaar aan het lezen zijn of ze wel hetzelfde zijn, via de PCI bus.
Whut? Zolang er geen disk activiteit is gaat ZFS echt niet "hyperactief kijken of beide disks gelijk zijn". Schrijf acties worden sowieso dubbel gedaan, maar lees acties volgens mij niet. Immers is ZFS volledig met checksums. Op basis van 1 disk kan die dus prima bepalen of die corrupt is, want dan klopt de checksum niet (en in dit geval zal die terugvallen op het gebruik van een andere disk in de mirror).
Enige waarbij ZFS op de achtergrond bezig is is bij een scrub. Dan leest die wel alle data, valideert de checksums, etc. Maar dat draait natuurlijk niet 24/7, en moet je zelf aftrappen (, en mijn 3 way RAIDZ1 met 18TB als kleinste disk heeft nog geen 30 uur nodig om te scrubben. Mirror is vast sneller, NVME is veel sneller, en 18TB SSDs bestaan niet zijn onbetaalbaar)

  • ramonlambal
  • Registratie: November 2007
  • Laatst online: 12-11 17:15
RobertMe schreef op woensdag 5 november 2025 @ 23:09:
[...]

Whut? Zolang er geen disk activiteit is gaat ZFS echt niet "hyperactief kijken of beide disks gelijk zijn". Schrijf acties worden sowieso dubbel gedaan, maar lees acties volgens mij niet. Immers is ZFS volledig met checksums. Op basis van 1 disk kan die dus prima bepalen of die corrupt is, want dan klopt de checksum niet (en in dit geval zal die terugvallen op het gebruik van een andere disk in de mirror).
Enige waarbij ZFS op de achtergrond bezig is is bij een scrub. Dan leest die wel alle data, valideert de checksums, etc. Maar dat draait natuurlijk niet 24/7, en moet je zelf aftrappen (, en mijn 3 way RAIDZ1 met 18TB als kleinste disk heeft nog geen 30 uur nodig om te scrubben. Mirror is vast sneller, NVME is veel sneller, en 18TB SSDs bestaan niet zijn onbetaalbaar)
Stel dat je logt naar 1 van die SSDs(proxmox houd allerlei gegevens bij toch?), dan moet die andere toch mirroren? Of kun je afdwingen dat die dat maar 1 keer in de x-minuten doet? Anders raak je data kwijt als de schijf die de meeste data bevat net stuk gaat? Stel dat je nieuwe mirror-ssd nou niet zo snel in lage PCI states wil komen, en hij constant moett mirroren, dan is die toch bijna steeds iets aan het doen waardoor die niet in C4 of lager komt?

ik heb bijvoorbeeld altijd 300+ torrents draaine, ik draai nooit idel, tot ik die uit zet, dan zit ik bijna direct in C8

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Proxmox logt wel wat intensief, maar zeker niet zo intensief dat een SSD niet het grootste deel van de tijd gewoon in een power saving state kan. Iedere seconde wat logs wegschrijven kan je beter vergelijken met eens in de maand een brief ontvangen, dan met rusteloos blijven doomscrollen op social media.

  • tuxie6
  • Registratie: Juli 2013
  • Laatst online: 09:23
Ik zou bijna willen weten wat een oude installatie-iso zonder updates doet qua verbruik.

Een ssd mirror schrijft de logging en gaat in slaap, en zou dus nog maar <1 watt mogen gebruiken.

Wat verbruikt het geheel als je alleen proxmox opstart, zoals ik het begrijp heb je een passtrough gedaan van de sata controller naar ovm, wat zijn de instellingen binnen ovm.

Het valt me op dat veel besturingssystemen ingesteld staan op performance ipv belanced of goed voor de portemonnee als je op je zelf woont.

  • I-Lynx
  • Registratie: April 2008
  • Laatst online: 14-11 20:21
Ter verduidelijking: De mirror is alleen voor OMV. Proxmox en alle VM's en Containers staan op een M.2 WD Green SSD.

De configs van de VM's:
Omada controller:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
arch: amd64
cores: 2
features: nesting=1
hostname: Omada-SDN
memory: 4096
net0: name=eth0,bridge=vmbr0,gw=10.0.14.254,hwaddr=BC:24:11:39:41:9B,ip=10.0.14.10/24,type=veth
onboot: 1
ostype: ubuntu
rootfs: local-lvm:vm-102-disk-0,size=8G
startup: order=3
swap: 512
tags: sdn
unprivileged: 1
lxc.cgroup2.cpuset.cpus: 14,15


Frigate:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
arch: amd64
cores: 4
features: nesting=1
hostname: frigate
memory: 4096
mp0: NVR:vm-103-disk-0,mp=/media/frigate,size=1860G
net0: name=eth0,bridge=vmbr0,firewall=0,gw=10.0.14.254,hwaddr=BC:24:11:CD:DC:11,ip=10.0.14.253/24,type=veth
onboot: 1
ostype: debian
rootfs: local-lvm:vm-103-disk-0,size=50G
startup: order=4
swap: 512
tags: nvr
lxc.cgroup2.devices.allow: a
lxc.cap.drop: 
lxc.cgroup2.devices.allow: c 188:* rwm
lxc.cgroup2.devices.allow: c 189:* rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file
lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.mount.entry: /dev/dri/card0 dev/dri/card0 none bind,optional,create=file
lxc.mount.entry: /dev/dri dev/dri none bind,optional,create=dir
lxc.cgroup2.cpuset.cpus: "16-19"


pfSense (VM):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
balloon: 0
bios: ovmf
boot: order=scsi0;ide2
cores: 2
cpu: host
efidisk0: local-lvm:vm-100-disk-0,efitype=4m,pre-enrolled-keys=1,size=4M
ide2: none,media=cdrom
machine: q35
memory: 8192
meta: creation-qemu=10.0.2,ctime=1760360361
name: pfSense
net0: virtio=BC:24:11:76:CB:B1,bridge=vmbr0,queues=8
net1: virtio=BC:24:11:F9:1E:3E,bridge=vmbr0,queues=8,tag=6
net2: virtio=BC:24:11:DF:AB:AE,bridge=vmbr0,queues=8,tag=4
net3: virtio=BC:24:11:34:B3:5D,bridge=vmbr0,queues=8,tag=999
net4: virtio=BC:24:11:91:AF:77,bridge=vmbr0,queues=8,tag=101
net5: virtio=BC:24:11:E4:90:C5,bridge=vmbr0,queues=8,tag=102
net6: virtio=BC:24:11:63:BA:A8,bridge=vmbr0,queues=8,tag=105
numa: 0
onboot: 1
ostype: other
scsi0: local-lvm:vm-100-disk-1,cache=writeback,discard=on,iothread=1,size=32G
scsihw: virtio-scsi-single
smbios1: uuid=1c70b95f-ea58-4332-a909-3e5a9f7c62a0
sockets: 1
startup: order=1
tablet: 0
tags: pfsn
vmgenid: 214acf76-59f0-4134-8a02-4f0ffc855f07


OMV (VM)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
affinity: 12,13
boot: order=sata0;net0
cores: 2
cpu: x86-64-v2-AES
memory: 4096
meta: creation-qemu=10.0.2,ctime=1759254290
name: OMV
net0: virtio=BC:24:11:39:4B:CE,bridge=vmbr0
numa: 0
onboot: 1
ostype: l26
sata0: local-lvm:vm-105-disk-0,size=16G
sata1: OMV_Nas:vm-105-disk-0,size=3540G
scsihw: virtio-scsi-single
smbios1: uuid=cb3caa95-28a9-46a2-bf02-b96623f945c5
sockets: 1
startup: order=5
tablet: 0
tags: nas
vga: memory=4
vmgenid: 9c2e7172-3673-4619-ba3d-31523d659809


Home Assistant (VM)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
agent: enabled=1
bios: ovmf
boot: order=scsi0
cores: 4
efidisk0: local-lvm:vm-106-disk-1,efitype=4m,size=4M
localtime: 1
machine: q35
memory: 16384
meta: creation-qemu=10.0.2,ctime=1760273017
name: homeassistant
net0: virtio=02:BA:78:E2:30:CC,bridge=vmbr0
net1: virtio=BC:24:11:66:84:A1,bridge=vmbr0,tag=101
numa: 0
onboot: 1
ostype: l26
scsi0: local-lvm:vm-106-disk-0,discard=on,size=32G,ssd=1
scsihw: virtio-scsi-pci
serial0: socket
smbios1: uuid=643c3504-ab54-4a4b-9d47-e56356ce9fb3
sockets: 1
startup: order=2
tablet: 0
tags: homeassistant
usb0: host=0403:6001
usb1: host=10c4:ea70
usb2: host=0658:0200
vmgenid: ec53030a-6b86-4187-93fa-b5861dd68e0a

  • I-Lynx
  • Registratie: April 2008
  • Laatst online: 14-11 20:21
Kleine update:

Na wat zoeken door logfiles o.a. de opstart logfiles kwam ik een error tegen in Grub.
code:
1
"BOOT_IMAGE=/boot/vmlinuz-6.14.11-4-pve intel_imommu=on",


Dat moet natuurlijk zijn
code:
1
intel_iommu=on

Door een typfoutje werkte hardware acceleration in Frigate niet goed.
Ik kan niet helemaal pinnen of Frigate daardoor automatisch de CPU ging gebruiken voor detectie - dus meer verbruik, maar na deze en nog wat andere aanpassingen is het verbruik al weer iets gezakt.

De server zit nu op 35 watt gemiddeld. Als er geen activiteit is in Frigate en OMV dan zie ik zelfs dipjes richting de 25 watt... Dat begint ergens op te lijken.

Totaal van alle apparatuur rond de 75 watt.
Er is dus 40 watt verbruik voor:
  • TP-Link PoE Switch
  • UPS
  • Voeding voor Tablet aan de muur
  • Voeding voor ESP watermeter
  • Losse voeding voor een niet PoE Acces Point
  • Phillips Hue Bridge
  • Losse voeding voor een niet PoE camera
Hier valt dus ook nog veel te tweaken.
We komen er wel.

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 21:37
Bij mij kriebelt het toch weer een beetje om thuis een NASje te draaien. Doel is voornamelijk media bibliotheekje spelen. Mijn vorige fysieke NAS thuis is jaren terug en overleed door het bekende C2550D4i probleem.

Omdat ik nog een mooie mini-ITX case heb met allemaal bays overweeg ik weer een mini-ITX bordje. Nu wil ik er geen duizend euro aan uitgeven en wat ik er mee ga doen is ook niet zo spannend.

Nu zie ik grofweg wat bordjes met 1700 socket en met 1851. Die laatste lijkt meer high end en daar kun je ook geen Celerons of i3 voor vinden. Mijn vraag is: stel dat ik nu toch voor 1851 ga met een wat duurdere cpu, een Intel i5, kan ik die combi dan toch redelijk zuinig krijgen? Ik ga TrueNAS CE draaien.
@Dennis Er zijn weinig meetgegevens voor idle voor het (dure) 1851 platform. Een minder snelle processor is niet noodzakelijk zuiniger in idle op het 1700 platform. Bij belasting zijn E cores zuinig.

Je kan het meest besparen door zo weinig mogelijk 3.5" disks te gebruiken en geen actieve redundantie toe te passen en wel zorgen voor een extere cold backup van belangrijke gegevens. Cold backup is bijvoorbeeld een via USB3 aansluitbare externe disk (de behuizing is los te koop), die alleen aan hoeft wanneer nodig. Stel dat je 20 TB wil, dan zijn 3x 8TB SSD's en 1x 4TB het zuinigst (<0,4W DC), 4x 5TB Seagate 2.5" verbruikt 3,4W DC en een enkele Toshiba MG10 disk verbruikt 4,38W DC.

Oude disks kunnen worden hergebruikt voor backups.

  • Ixus74
  • Registratie: Mei 2008
  • Laatst online: 16:23
Ik weet dat we hier in het zuinige server topic zitten, maar ik vind wel dat advies ook wel praktisch mag zijn:
Het voorbeeld van @mrmrmr is ondanks dat het feitelijk waar is, m.i. vooral bedoeld voor mensen met te veel geld.
SSD’s even snel uit de goedkoopste pricewatch gehaald:
3x8TB + 1x4TB : 3x€620 + €230  = €2.090,00
Spinning disks:
4x5TB 2,5” : 4x €140  = €560,00

Met een stroomprijs van €0,30 per kWh verdien je het verschil van €1.530 terug in:

1530:0,30= 5100 KWh .
5100 KWh : 3w = 1.700.000 uur!
Wat dus ongeveer 195 jaar is.

Kortom ik ben het niet oneens met @mrmrmr maar heel praktisch is het niet.

  • eheijnen
  • Registratie: Juli 2008
  • Niet online
Ixus74 schreef op zaterdag 8 november 2025 @ 12:33:
Ik weet dat we hier in het zuinige server topic zitten, maar ik vind wel dat advies ook wel praktisch mag zijn:
Het voorbeeld van @mrmrmr is ondanks dat het feitelijk waar is, m.i. vooral bedoeld voor mensen met te veel geld.
SSD’s even snel uit de goedkoopste pricewatch gehaald:
3x8TB + 1x4TB : 3x€620 + €230  = €2.090,00
Spinning disks:
4x5TB 2,5” : 4x €140  = €560,00

Met een stroomprijs van €0,30 per kWh verdien je het verschil van €1.530 terug in:

1530:0,30= 5100 KWh .
5100 KWh : 3w = 1.700.000 uur!
Wat dus ongeveer 195 jaar is.

Kortom ik ben het niet oneens met @mrmrmr maar heel praktisch is het niet.
Wat het voordeel van deze draad is dat zich over tijd steeds meer info over zuinige hardware verzamelt. En daaruit kun je weer een keuze maken c.q. je beslissingen op baseren mocht je aan de slag willen.

Het is hier sport om het onderste uit de kan te halen. En vaker zie je dat men een idle verbruik van 5/6/7/8 watt heeft en om daar dan nog eens twee watt vanaf te krijgen levert je financieel weinig op natuurlijk (18 Kw op jaar basis).

Ik heb zelf aan AM5 desktop die idle rond de 13/14 watt zit. Maar die set heb ik dan wel weer voor ca. € 150,-- gebruikt gekocht. Daar krijg je geen Kontron bord voor met een Intel CPU met e-cores.

Omdat het kan !!

Wie du mir, so ich dir.


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 18:26
Ixus74 schreef op zaterdag 8 november 2025 @ 12:33:
Ik weet dat we hier in het zuinige server topic zitten, maar ik vind wel dat advies ook wel praktisch mag zijn:
Het voorbeeld van @mrmrmr is ondanks dat het feitelijk waar is, m.i. vooral bedoeld voor mensen met te veel geld.
SSD’s even snel uit de goedkoopste pricewatch gehaald:
3x8TB + 1x4TB : 3x€620 + €230  = €2.090,00
Spinning disks:
4x5TB 2,5” : 4x €140  = €560,00

Met een stroomprijs van €0,30 per kWh verdien je het verschil van €1.530 terug in:

1530:0,30= 5100 KWh .
5100 KWh : 3w = 1.700.000 uur!
Wat dus ongeveer 195 jaar is.

Kortom ik ben het niet oneens met @mrmrmr maar heel praktisch is het niet.
Volgens jouw redenatie kan je misschien overwegen je data in de cloud op te slaan, dat kost jou helemaal geen elektriciteit en ook geen aanschafkosten, alleen maandelijkse abbonementskosten. Kans is aanwezig dat je nog goedkoper uit bent.
@Ixus74
Ik heb advies gegeven over het gebruik van zo weinig mogelijk 3.5" disks. Een voorbeeld: je kan economisch beter niet 6x 4TB disks à 4W DC blijven draaien als dat ook kan met een enkele 20TB disk. Je hebt de overhead van elke disk, van een extra hard disk controller (4x SATA is nu standaard) en mogelijk een onzuinig platform. Dat gaat dan wat hard disks betreft over 6 * 4W = 24W versus 4,38W: een verschil van € 515 aan operationele energiekosten bij een historische prijs van € 3 per Watt per jaar, over een periode van 7 jaar, aan de stekker (DC + overhead voeding 80%). Ook de kosten voor backup moet daarbij worden betrokken in een volledige kostenvergelijking, renteverlies hoort daar ook bij.

Bij actieve redundantie betaal je een operationele prijs. De kosten voor backup zou je ook moeten meenemen. Een gunstig scenario voor redundantie is te vinden in een professionele situatie, waar je de lonen van medewerkers zou moeten doorbetalen bij downtime, mogelijk verlies van omzet/winst.

De rest van mijn bericht geeft informatie over verbruikscijfers van diverse soorten opslag. Je mag zelf bepalen wat je kiest. Het bevat geen advies. Zie ook de topic start waar de kosten per opslagcapaciteit zijn berekend.
GioStyle schreef op zaterdag 8 november 2025 @ 14:04:
[...]


Volgens jouw redenatie kan je misschien overwegen je data in de cloud op te slaan, dat kost jou helemaal geen elektriciteit en ook geen aanschafkosten, alleen maandelijkse abbonementskosten. Kans is aanwezig dat je nog goedkoper uit bent.
Daar komen natuurlijk wel weer heel andere zaken bij kijken ;). En dan wijk je uberhaupt al af van "server" :p

En an zich vind ik het gewoon een valide punt. Ja, het kan een sport zijn om echt voor zo zuinig mogelijk te gaan. Maar de meeste, vermoed ik, hier willen gewoon een goedkoop systeem hebben, zowel in aanschaf als in bedrijf. Zuinig maakt het dan goedkoper in bedrijf, maar qua opslag bv weegt zuinig v.w.b. SSD only met veel capaciteit lang niet op tegen ouderwetse HDDs als je kijkt naar de aanschafprijs.

Uiteraard kun je daar ook weer (andere) afwegingen in maken. Moet je echt 24/7 3x 8TB opslag beschikbaar hebben? Of is dat helemaal niet nodig en heb je ook voldoende aan een "cache" en de opslag op externe HDDs of een NAS like systeem dat je alleen aansluit / opstart als je het nodig hebt. Zo staat mijn uit "2020 zuinige server" intussen 90% van de tijd uit. De 3 HDDs maken het niet echt zuinig (30-40W in totaal) en vrijwel alles wat ik wil kan ik met mijn 2 N5105 systemen (waarvan 1 mijn router is, en de oude router ("een echte", UniFi Security Gateway) gebruikte 8W, en de nieuwe gebruikt dat ook, dus 0 extra verbruik). En bv backups van PCs etc gaat live (Syncthing) naar het servertje, en als de "grote bak" eens aan staat ook daar heen. En de opslag van oude Linux ISOs staat dan op de "grote bak" en ISOs die ik nodig heb zijn of vers gedownload op de router of zet ik op voorhand op het andere servertje.

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 18:26
RobertMe schreef op zaterdag 8 november 2025 @ 14:34:
[...]

Daar komen natuurlijk wel weer heel andere zaken bij kijken ;). En dan wijk je uberhaupt al af van "server" :p

En an zich vind ik het gewoon een valide punt. Ja, het kan een sport zijn om echt voor zo zuinig mogelijk te gaan. Maar de meeste, vermoed ik, hier willen gewoon een goedkoop systeem hebben, zowel in aanschaf als in bedrijf. Zuinig maakt het dan goedkoper in bedrijf, maar qua opslag bv weegt zuinig v.w.b. SSD only met veel capaciteit lang niet op tegen ouderwetse HDDs als je kijkt naar de aanschafprijs.

Uiteraard kun je daar ook weer (andere) afwegingen in maken. Moet je echt 24/7 3x 8TB opslag beschikbaar hebben? Of is dat helemaal niet nodig en heb je ook voldoende aan een "cache" en de opslag op externe HDDs of een NAS like systeem dat je alleen aansluit / opstart als je het nodig hebt. Zo staat mijn uit "2020 zuinige server" intussen 90% van de tijd uit. De 3 HDDs maken het niet echt zuinig (30-40W in totaal) en vrijwel alles wat ik wil kan ik met mijn 2 N5105 systemen (waarvan 1 mijn router is, en de oude router ("een echte", UniFi Security Gateway) gebruikte 8W, en de nieuwe gebruikt dat ook, dus 0 extra verbruik). En bv backups van PCs etc gaat live (Syncthing) naar het servertje, en als de "grote bak" eens aan staat ook daar heen. En de opslag van oude Linux ISOs staat dan op de "grote bak" en ISOs die ik nodig heb zijn of vers gedownload op de router of zet ik op voorhand op het andere servertje.
Mijn nas staat ook gewoon uit als ik hem niet gebruik, of om preciezer te zijn: in standby die ik kan opstarten door middel van wake on lan. Als ik een aantal films/series wil kijken, dan kopieer ik het naar één van de servers die wel 24/7 aanstaat. Ik denk dat dat de ultieme besparing is. ;) Neemt alleen niet weg dat als mijn nas volledig uit ssd's zou bestaan ik niet meer de moeite neem om hem uit te zetten. :P
GioStyle schreef op zaterdag 8 november 2025 @ 15:28:
[...]


Mijn nas staat ook gewoon uit als ik hem niet gebruik, of om preciezer te zijn: in standby die ik kan opstarten door middel van wake on lan. Als ik een aantal films/series wil kijken, dan kopieer ik het naar één van de servers die wel 24/7 aanstaat. Ik denk dat dat de ultieme besparing is. ;)
Jip. Exact hetzelfde als wat ik doe. Alleen gaat die uit en kan die aan met Intel AMT (web interface "van op het mobo", incl. een "boot" optie). Standby geeft denk ik niet echt voordeel? Iets hoger verbruik mogelijk en in opstarten/afsluiten zal het niet heel veel schelen in tijd.
Neemt alleen niet weg dat als mijn nas volledig uit ssd's zou bestaan ik niet meer de moeite neem om hem uit te zetten. :P
En dit uiteraard. Als ik had geweten wat SSDs nu kosten had ik op het "hoogtepunt" nog wel een 8TB 870 QVO gekocht voor ~300 of zoiets was het. Nu is het gebleven bij 2x 4TB voor 200 - 250 IIRC, maar dan wel de EVO en niet de QVO

  • pimlie
  • Registratie: November 2000
  • Laatst online: 17:43
@GioStyle @RobertMe Vergeten jullie niet om minimaal 1x maand een volledige scrub te doen? Als jullie je NAS elke keer weer uitzetten dan heeft hij daar wellicht niet goed tijd voor. Beetje pool duurt al snel 12-24 uur om volledig te scrubben.
Zou zonde zijn als je anders door het uitzetten uiteindelijk toch tegen silent data corruption oploopt

[ Voor 3% gewijzigd door pimlie op 08-11-2025 18:00 ]


  • _Apache_
  • Registratie: Juni 2007
  • Laatst online: 21:57

_Apache_

For life.

GioStyle schreef op zaterdag 8 november 2025 @ 14:04:
[...]


Volgens jouw redenatie kan je misschien overwegen je data in de cloud op te slaan, dat kost jou helemaal geen elektriciteit en ook geen aanschafkosten, alleen maandelijkse abbonementskosten. Kans is aanwezig dat je nog goedkoper uit bent.
Die berekening gaat echt snel in het voordeel van thuis hosting.
Transip 2TB is 15eu/mnd. Een WD purple 2TB is 80eu.
Na een half jaar ga je dus al in het voordeel zijn. En dan negeer ik egress/ingress kosten nog, (als die er zijn).
Dit is als je puur - en alleen - naar de prijs kijkt.

Zero SR/S 17.3kWh / 2.7 kWP PV / Xtend WP 5kW + HRSolar zonneboiler

pimlie schreef op zaterdag 8 november 2025 @ 17:59:
@GioStyle @RobertMe Vergeten jullie niet om minimaal 1x maand een volledige scrub te doen? Als jullie je NAS elke keer weer uitzetten dan heeft hij daar wellicht niet goed tijd voor. Beetje pool duurt al snel 12-24 uur om volledig te scrubben.
Zou zonde zijn als je anders door het uitzetten uiteindelijk toch tegen silent data corruption oploopt
Werkt prima. Een scrub kun je ook pauzeren, en als je afsluit..., gaat die de volgende boot ook netjes verder.

Betekend overigens wel dat ik de bak ongeveer elk weekend een "hele" dag moet laten draaien (zeg ~10 tot 7, als de paneeltjes op het dak ook wat doen :P) zodat die aan het eind van de maand weer klaar is :P

En of het moet.... Want er zijn natuurlijk ook niet veel mutaties etc en de belangrijke zaken zijn backups van*. Scrub schema is AFAIK meer iets dat je zelf wilt / je je comfortabel bij voelt. Er is geen guideline dat het elke maand moet. Als je vind dat elke 3 maanden ook kan is dat ook prima, zolang je het kunt beargumenteren. En als je vind dat het elke week moet, is dat ook prima.


* originele PC staat het op, op het servertje staat het, de grote bak staat het "kinda". En zowel servertje als "grote bak" maken snapshots waarbij van beide de snapshots naar een off-site locatie gaat (Orange Pi, ook met een 4TB EVO :P) en de snapshots van het serverjte gaan ook nog eens naar de grote bak. Dus zelfs zonder "grote bak" staat de data van PCs op 3 locaties waarvan op 1 plek gesnapshot wordt.

  • Detmer
  • Registratie: Juni 2011
  • Laatst online: 16:05

Detmer

Professioneel prutser

De 2 genoemde ATX voedingen uit de TS zijn al een tijdje moeilijk tot niet leverbaar. Ook 2e hands tot nu toe geen kunnen vinden. Zijn er alternatieven in ATX formaat die het overwegen zijn?

Verkoopt gebruikte computers, laptops en meer: https://tweakers.net/aanbod/user/412392/ | https://www.ipsumcomputerservice.com

andru123 schreef op zondag 9 november 2025 @ 03:13:
Sommige in det topic halen goede verbruik cijfers met be quiet pure power 13, de laatste generatie. Die zijn niet uitgebreid getest, dus niet op de eerste pagina.
Bij circa 11W zou de efficientie 69,68% zijn voor de 550W variant volgens Cybenetics, dat betekent een verbruik aan de stekker van ongeveer 15,8W. Ter vergelijking: een zuinige adapter zou bij die belasting ~91% halen, dat is 12,1W aan de stekker.

@Detmer
Als je idle verbruik hoger zal zijn dan dit niveau, bijvoorbeeld 25W aan de stekker, dan zal het verschil in efficientie geleidelijk afnemen (meestal tot circa 40W). Het is ook niet duidelijk hoeveel het verschil in absolute getallen zou zijn.

  • pimlie
  • Registratie: November 2000
  • Laatst online: 17:43
RobertMe schreef op zaterdag 8 november 2025 @ 18:49:
Betekend overigens wel dat ik de bak ongeveer elk weekend een "hele" dag moet laten draaien zodat die aan het eind van de maand weer klaar is :P
Erhm, dan doe je toch precies waar ik voor waarschuw? :?
En of het moet....
Sorry, maar wat wil je nu eigenlijk zeggen met dit hele verhaal? Backups hoeft/moet ook niet, is ook je eigen keus. Maar er bestaan zaken zoals best practices, en voor scrubbing wordt daar over het algemeen 1x maand aangehouden. Je post kan bij minder ervaren mensen alleen maar voor onduidelijkheid zorgen.

Ik plaatste die opmerking dus niet noodzakelijk voor jullie, maar vooral ook voor andere/onervaren mensen die wellicht overwegen net als jullie de data pool op hun NAS merendeel uit te hebben staan. Scrubben is nu eenmaal een belangrijke eigenschap van self-healing file systems.

  • Detmer
  • Registratie: Juni 2011
  • Laatst online: 16:05

Detmer

Professioneel prutser

mrmrmr schreef op zondag 9 november 2025 @ 03:37:
[...]


Bij circa 11W zou de efficientie 69,68% zijn voor de 550W variant volgens Cybenetics, dat betekent een verbruik aan de stekker van ongeveer 15,8W. Ter vergelijking: een zuinige adapter zou bij die belasting ~91% halen, dat is 12,1W aan de stekker.

@Detmer
Als je idle verbruik hoger zal zijn dan dit niveau, bijvoorbeeld 25W aan de stekker, dan zal het verschil in efficientie geleidelijk afnemen (meestal tot circa 40W). Het is ook niet duidelijk hoeveel het verschil in absolute getallen zou zijn.
Ik moet even kijken wat het systeem doet nadat ik de huidige 4 HDD's voor 2 HDD's heb vervangen. Momenteel doet het systeem ~30w met HDD in spin down. Dus ik verwacht hier nog iets in te winnen.

Verkoopt gebruikte computers, laptops en meer: https://tweakers.net/aanbod/user/412392/ | https://www.ipsumcomputerservice.com


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 18:26
pimlie schreef op zondag 9 november 2025 @ 12:32:
[...]


Erhm, dan doe je toch precies waar ik voor waarschuw? :?


[...]


Sorry, maar wat wil je nu eigenlijk zeggen met dit hele verhaal? Backups hoeft/moet ook niet, is ook je eigen keus. Maar er bestaan zaken zoals best practices, en voor scrubbing wordt daar over het algemeen 1x maand aangehouden. Je post kan bij minder ervaren mensen alleen maar voor onduidelijkheid zorgen.

Ik plaatste die opmerking dus niet noodzakelijk voor jullie, maar vooral ook voor andere/onervaren mensen die wellicht overwegen net als jullie de data pool op hun NAS merendeel uit te hebben staan. Scrubben is nu eenmaal een belangrijke eigenschap van self-healing file systems.
Als mijn nas 90 tot 95% van de tijd uit staat, dan valt er toch ook weinig te scrubben in vergelijking met mijn server die 24/7 aan staat? Het gaat erom dat je silent data corruption wil opsporen en herstellen, maar zoiets gebeurt alleen tijdens actieve gebruiksperioden, niet als de schijven uitstaan. En daarnaast gebruik ik mijn nas voor films/series. Ik kan me daar echt niet meer druk om maken als daar een bitje flipt.
pimlie schreef op zondag 9 november 2025 @ 12:32:
[...]


Erhm, dan doe je toch precies waar ik voor waarschuw? :?
Nee. Jij zegt dat het systeem 24 uur aan een stuk aan moet. Ik zeg dat ik 4x ~6 uur doe. Dat is dus iets totaal anders. Oftewel: je kunt prima rebooten, of afsluiten, of een scrub handmatig op pauze zetten. En later (bij opstarten of na expliciete pauze ook een expliciete resume) gaat die weer vrolijk verder waar die gebleven was. Aan het eind van een scrub staat er dus ook heel mooi "took 20 days and ... hours" of whatever. Uiteraard duurt die niet letterlijk zo lang, effectief dus ergens rond de 24 uur dat het systeem aan staat.
[...]


Sorry, maar wat wil je nu eigenlijk zeggen met dit hele verhaal? Backups hoeft/moet ook niet, is ook je eigen keus. Maar er bestaan zaken zoals best practices, en voor scrubbing wordt daar over het algemeen 1x maand aangehouden. Je post kan bij minder ervaren mensen alleen maar voor onduidelijkheid zorgen.

Ik plaatste die opmerking dus niet noodzakelijk voor jullie, maar vooral ook voor andere/onervaren mensen die wellicht overwegen net als jullie de data pool op hun NAS merendeel uit te hebben staan. Scrubben is nu eenmaal een belangrijke eigenschap van self-healing file systems.
Wat @GioStyle ook aaangeeft. Als mijn systeem elke week een uur of 6 aan staat is de kans op silent corruption vrij laag. En veel van de data is statisch ("Linux ISOs"), als ik die verlies, so be it. En zaken als documenten etc die ik niet opnieuw kan downloaden heb ik in principe op 3 plekken staan (in ieder geval na elke 6 uur sync waarmee backups van het servertje naar off-site gaan. Dan heb ik het origineel op een PC, een live sync (+ snapshot als backup) naar het servertje, en elke 6 uur een send & receive snapshot "sync" naar off-site backup).
Maar bij bedrijfs kritieke toepassingen, en als het op snelle opslag staat (of een snelle "layout", een stripe of mirrors is volgens mij ook sneller in scrubben dan een RAIDZ1) kun je prima besluiten om vaker te scrubben.
mrmrmr schreef op zondag 9 november 2025 @ 03:37:
[...]


Bij circa 11W zou de efficientie 69,68% zijn voor de 550W variant volgens Cybenetics, dat betekent een verbruik aan de stekker van ongeveer 15,8W. Ter vergelijking: een zuinige adapter zou bij die belasting ~91% halen, dat is 12,1W aan de stekker.
~70% is in lijn met pure power 12M, dus het is vergelijkbaar, denk ik. 90% is meer picoPSU gebied.

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 16:16
Over scrubben en weinig aan staan gesproken. Zelf gebruik ik ZFS, OMV en de autoshutdown plugin. Die laatste ziet helaas niet dat er scrubbing aan de gang is waardoor de parameter if HDD traffic > 410KB niet werkt en de scrub wordt onderbroken.

Het blijkt dat iemand een patch voorgesteld heeft die prima lijkt te werken maar helaas nog niet in de officiële release zit: https://github.com/OpenMe...t-autoshutdown/issues/132

Wellicht handig voor wie tegen hetzelfde probleem aanloopt.

spoor12b


  • pimlie
  • Registratie: November 2000
  • Laatst online: 17:43
@RobertMe Ik denk dat je mijn bericht verkeerd hebt gelezen / begrepen want dat heb ik helemaal niet gezegd. Daarnaast zou dat raar zijn, want mijn NAS staat ook altijd uit behalve tijdens het maken van backups ;)
GioStyle schreef op zondag 9 november 2025 @ 16:47:
Het gaat erom dat je silent data corruption wil opsporen en herstellen, maar zoiets gebeurt alleen tijdens actieve gebruiksperioden, niet als de schijven uitstaan.
De zekerheid waarmee je dat zegt is niet juist, de kans is kleiner maar zeker niet 0. Er zijn genoeg externe factoren te bedenken die voor bit flips en/of degradatie van sectoren op de platters kunnen zorgen, laat staan dat opstarten van het systeem zelf ook voor extra problemen kan zorgen ;)

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 18:26
pimlie schreef op maandag 10 november 2025 @ 17:29:

De zekerheid waarmee je dat zegt is niet juist, de kans is kleiner maar zeker niet 0. Er zijn genoeg externe factoren te bedenken die voor bit flips en/of degradatie van sectoren op de platters kunnen zorgen, laat staan dat opstarten van het systeem zelf ook voor extra problemen kan zorgen ;)
Ik heb het over opsporen en herstellen van data corruption, jij hebt het over ontstaan ervan. Dat is een andere discussie. :P

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 21:21

ParaWM

Pro Prutser

Waarschijnlijk bekend bij de pro's hier, maar voor mij nieuw:

Net bezig met een eerste all-SSD NAS. Eerste keer ook dat ik met unRaid werk, kwam er deze week achter dat je ook het stroomverbruik van de SSDs kan zien hiermee. Zit nogal flink verschil in zeg.

Afbeeldingslocatie: https://tweakers.net/i/gxcMfom6fFx3vyws1B1B61C7714=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/c1aKl2hNKmm8z1ImbjfZXBWu.jpg?f=user_large

Dit zijn allemaal TLC schijven. De twee kleine WD's en de Xedor hebben dram, de rest niet. Flink verschil vooral in de laag-verbruik cijfers. Ook het aantal power states (als dat het goede woord is....). Ik had er eerst nog een Fanxiang S880E (QLC) in zitten, maar die had maar 2 states, en beide 3.50w. Constant verbruik dus. Zonde voor in een (redelijke) low-power NAS. Die heb ik omgewisseld met de Lexar uit mijn PC, welke nu blijkt inderdaad beter power management heeft. Die gaat zelfs super laag, lijkt bijna niet reëel met 0.0025W.

Al doende leert men.... Dit zal met de controllers en kwaliteit NAND te maken hebben?

Sinterklaas wil bier !


  • bjp
  • Registratie: Januari 2010
  • Laatst online: 22:01

bjp

ik denk niet alleen de hardware, maar ook hoeveel aandacht er was in de firmware van die dingen.

Blij alvast met mijn 2TB Lexar NM790 (hoewel er ooit stabiliteitsproblemen waren met "niet uit slaap komen").

[ Voor 37% gewijzigd door bjp op 14-11-2025 18:27 ]

8.3kW Oost-West PV en 7.7kWh thuisbatterij | WP EcoForest 1-6 PRO en dWTW | Stromer ST1 & ST3

@ParaWM Anandtech had ooit een goede beschrijving van ASTP states, dat zijn de power states van SSD's. Er zijn een paar groepen SSD's te onderscheiden: datacenter SSD's die geen power states hebben, SSD's die wel power states hebben, maar niet lager gaan dan de actieve stand (3-9W), SSD's die meer dan 0,05W verbruiken (tot 1,5W) en SSD's die minder dan 0,001W verbruiken, dat is de stand die laptops vaak benutten.

Op een zuinige computer/server wil je minder dan circa 60mW idle verbruik per SSD, gecombineerd met een goede tijd (latency) in en uit deze spaarstand.

De prijzen van SSD's zijn de lucht in geschoten. Ik heb Samsung 8TB SSD's die nu 3x de laagste prijs kosten. Het is goed te letten op de ontwerpkwaliteit, met name van Chinese partijen (Lexar hoort daar ook bij) en bedrijven die voorheen deden in USB sticks. Dat kan wel eens tegenvallen. De firmware geeft bijvoorbeeld verkeerde latency tijden aan. Dat kan ervoor zorgen dat een SSD onder Linux op een pcie of SSD uitzonderingslijst beland waardoor soms low power states niet meer worden gebruikt.

Performance SSD's zijn de laatste jaren steeds meer gaan gebruiken en het is wel erg de vraag of je van die performance iets merkt als de data van of naar het netwerk gaat. Ga dus voor een thuisserver niet voor de snelste SSD, maar beter voor een zuinige. Snelle SSD's zijn prima voor je desktopcomputer waar de bron en doel lokaal zijn. Elke SSD kan downloads van 1 Gbps aan, dat is 100 MB/s. Ook hoef je niet bang te zijn voor streamingproblemen omdat tv's vaak nog op 100Mbps zitten, dat raakt geen enkele limiet van een SSD.

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 20:37

heuveltje

KoelkastFilosoof

Mijn thuis-server/nasje is aan het overlijden :(
Deze bestaat nu nog uit een AMD e5150 en 8gb en draait
Fileserver (2x 14 tb disk, wil eigenlijk uitbreiden naar 3x14 met parity)
plex (geen transcoding)
sickbeard/sonar download client
Home asistant
En ik wil in de toekomst ook nog een lichte webserver draaien

Echter het mobo/cpu is aan het overlijden, deze word nu nog gevoed door een 12v voedingsblok. En de behuizing is een veel te grote atx kast.

Dus ik zoek vervanving voor bijna heel de server, alleen de disken wil ik behouden
Hoewel de amd te traag aan het worden was, trok hij het nog wel. Dus ik heb geen zware processor nodig.
en 32 of 16gb ram zou genoeg moeten zijn. en 4 sata poorten is voldoende en liefst een m2 slot

Doel is het ten eerste goedkoop mogelijk te houden, en daarnaast zo zuinig mogelijk. Ik heb nog 32gb ddr4 liggen, dus als dat gebruikt kan worden is dat een plus

Ik was naar budget procs <100E aan het kijken, maar alles daar heeft geen igpu, of is al generaties oud (amd 3400g)
Ik ben benieuwd of er iets is van een soort 4bay nas met ingebouwd x86 processor die windows kan draaien. Of welke mobo/cpu combi aan te raden is ?

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Videopac
  • Registratie: November 2000
  • Laatst online: 16:52

Videopac

Rommelt wat aan.

heuveltje schreef op zaterdag 15 november 2025 @ 15:28:
Mijn thuis-server/nasje is aan het overlijden :(
Deze bestaat nu nog uit een AMD e5150 en 8gb en draait
Fileserver (2x 14 tb disk, wil eigenlijk uitbreiden naar 3x14 met parity)
plex (geen transcoding)
sickbeard/sonar download client
Home asistant
En ik wil in de toekomst ook nog een lichte webserver draaien

Echter het mobo/cpu is aan het overlijden, deze word nu nog gevoed door een 12v voedingsblok. En de behuizing is een veel te grote atx kast.

Dus ik zoek vervanving voor bijna heel de server, alleen de disken wil ik behouden
Hoewel de amd te traag aan het worden was, trok hij het nog wel. Dus ik heb geen zware processor nodig.
en 32 of 16gb ram zou genoeg moeten zijn. en 4 sata poorten is voldoende en liefst een m2 slot

Doel is het ten eerste goedkoop mogelijk te houden, en daarnaast zo zuinig mogelijk. Ik heb nog 32gb ddr4 liggen, dus als dat gebruikt kan worden is dat een plus

Ik was naar budget procs <100E aan het kijken, maar alles daar heeft geen igpu, of is al generaties oud (amd 3400g)
Ik ben benieuwd of er iets is van een soort 4bay nas met ingebouwd x86 processor die windows kan draaien. Of welke mobo/cpu combi aan te raden is ?
Odroid H4+ met ¨zelfbouwkast".

Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)

Pagina: 1 ... 117 118 Laatste