Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
unezra schreef op vrijdag 26 oktober 2018 @ 09:34:
[...]


Niet helemaal waar. Een mirror, stripe of mirrored stripe kun je óók niet uitbreiden.
Iedere vorm van RAID die je gebruikt maakt dat je de set niet kunt vergroten, hooguit de disks kunt vervangen...

Ondertussen ben ik zelf tóch weer opnieuw aan het kijken naar een servertje. Nog steeds formaat HP Microserver of iets groter, maar dan met fatsoenlijke 4-core+HT of beter CPU, 32G of meer maximaal geheugen (liefst 64G).

Helaas kan ik werkelijk helemaal niets vinden behalve zelfbouw en dát wil ik niet. Shuttles voldoen aan alle eisen, alleen hebben die maar 2 stuks 3,5" drivebays, terwijl ik er 4 wil hebben plus nog de mogelijkheid voor en NVME of 2,5" (liefst 2 stuks) voor het OS. (Ok, ze hebben maar 1 of 2 NIC's maar da's op te lossen. Ik heb nog een paar 4xGBit kaarten van HP liggen die er prima in passen. Met 4xGBit ben ik op dit moment wel klaar. Sure, ik wil ooit naar 10G maar vind het nu nog te duur voor thuis.)

Mijn huidige setup bestaat uit 3x HP MIcroserver Gen8 (2x hypervisor, 1x NAS) en qua stroomverbruik vind ik dat veel te gortig worden. Geheel doet inclusief apparatuur als switches meer dan 150W. Leuk om de gang te verwarmen maar zonde van de stroom.

Als ik van die 3 machines 1 machine maak, kan ik meteen mijn switch vervangen door 1 enkel PoE exemplaar: pricewatch: TP-Link JetStream 24-Port Gigabit Smart PoE+ Switch with 4 SFP Sl...

Scheelt ook weer stroom. Kan ik mijn Zyzel PoE switch weer op de plank leggen. (Of verkopen.)
Snapraid kun je uitbreiden :).

Zie trouwens dat Seagate gestopt is met de Archive schijven, jammer tot nu toe prima ervaringen mee! Absurde random write prestaties en tot heden geen defecten.

Ook geen klachten over deze CM voeding, in 2016 in mijn NAS gezet, nu ook 1 in mijn desktop gezet aangezien die grootste deel van de tijd pak hem beet 50W verbruikt:
Afbeeldingslocatie: https://tpucdn.com/reviews/CoolerMaster/V550/images/avg_efficiency_low_loads.png

[ Voor 9% gewijzigd door sdk1985 op 29-10-2018 00:23 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

sdk1985 schreef op zondag 28 oktober 2018 @ 23:57:
[...]
Snapraid kun je uitbreiden :).
Het ging hier vrij specifiek over ZFS. :)

Daarbij kan het niet. (Al staat het dacht ik wel op de roadmap.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
unezra schreef op maandag 29 oktober 2018 @ 07:13:
[...]


Het ging hier vrij specifiek over ZFS. :)

Daarbij kan het niet. (Al staat het dacht ik wel op de roadmap.)
Let wel dat je jezelf een bepaalde richting in duwt. Als je ZFS loslaat dan kunnen individuele schijven naar standby gaan. Daarmee vervalt tevens de noodzaak voor meer rekenkracht en ecc geheugen. In ieder geval wat betreft je data integriteit.

Verder weet ik niet wat je precies draait voor de stichting maar tegenwoordig heb je dedicated servers voor 3,99 per maand. Dus dat kan al snel interessant worden, mits het niet al te veel rekenkracht eist. Is dat geen optie dan kun je de data die daar betrekking op heeft natuurlijk ook op een SSD gooien. Dan hoeven geen van je schijven te gaan spinnen bij die incidentele IO.

TLDR: Zfs past eigenlijk niet bij een zuinige server. ZFS, Btrfs en storage spaces vallen af omdat daar bij 1 file request alles gaat draaien. SnapRAID, unRaid en FlexRAID blijven over. Welke daarvan handig is hangt vooral af wat voor soort data je gebruikt. Persoonlijk komt op mijn NAS vooral statische data terecht en is een snapshot systeem dus handig.

[ Voor 13% gewijzigd door sdk1985 op 30-10-2018 00:38 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

sdk1985 schreef op dinsdag 30 oktober 2018 @ 00:35:
[...]
Let wel dat je jezelf een bepaalde richting in duwt. Als je ZFS loslaat dan kunnen individuele schijven naar standby gaan. Daarmee vervalt tevens de noodzaak voor meer rekenkracht en ecc geheugen. In ieder geval wat betreft je data integriteit.
Qua geheugen valt ZFS mee. Met 2G of 4G kun je al heel goed ZFS draaien, FreeNAS eist 8G.
Weinig andere systemen beschermen zó goed tegen bitrot dan ZFS.
Verder weet ik niet wat je precies draait voor de stichting maar tegenwoordig heb je dedicated servers voor 3,99 per maand. Dus dat kan al snel interessant worden, mits het niet al te veel rekenkracht eist. Is dat geen optie dan kun je de data die daar betrekking op heeft natuurlijk ook op een SSD gooien. Dan hoeven geen van je schijven te gaan spinnen bij die incidentele IO.
Met het stoppen van de activiteiten, heb ik de website van de stichting (praktisch het enige dat nog operationeel is), verplaatst naar infra die ik toch al thuis heb. Meer dan wat geheugen en een beetje CPU power vraagt het niet. :)

Wat we hadden was een DL180G6 met 2 4-core Xeon CPU's, 96G geheugen, HBA, etc. De bedoeling was om daar enkele tientallen VM's op te draaien. Dat plan is mislukt. Zo'n machine heeft overigens niets te maken met een energiezuinige server. Per vm is het relatief zuinig maar in regulier bedrijf deed het ding 200W.
TLDR: Zfs past eigenlijk niet bij een zuinige server. ZFS, Btrfs en storage spaces vallen af omdat daar bij 1 file request alles gaat draaien. SnapRAID, unRaid en FlexRAID blijven over. Welke daarvan handig is hangt vooral af wat voor soort data je gebruikt. Persoonlijk komt op mijn NAS vooral statische data terecht en is een snapshot systeem dus handig.
Als je vm's draait heb je hoe dan ook te maken met IO. In mijn beleving is het niet ZFS of welk filesystem dan ook dat een server minder zuinig maakt dan kan, maar of je op de eoa manier IO genereert of niet. In alle gevallen zul je bij IO een spinup van je disks hebben. Met vm's heb je dat doorlopend. Alleen bij een NAS die niet 24/7 gebruikt word heb je het voordeel dat je een spindown kunt doen, maar spindowns zijn weer relatief slecht voor disks dus ik weet niet of het uit kan qua kosten.

Voor mij is een zuinige server óók een die 24/7 kan draaien, met disks. Ik draai thuis het eea virtueel. Persoonlijk is voor mij een eis 4 disks in een striped mirror plus 2 OS disks. Die laatste mogen SSD's zijn. (De datadisks ook, maar SSD is veel duurder dan HDD dus weegt de besparing in stroom niet op tegen de extra kosten die je moet maken voor de disks. Je verbruikt misschien wat meer stroom, economisch is het wel.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

unezra schreef op dinsdag 30 oktober 2018 @ 08:45:
[...]


Qua geheugen valt ZFS mee. Met 2G of 4G kun je al heel goed ZFS draaien, FreeNAS eist 8G.
Weinig andere systemen beschermen zó goed tegen bitrot dan ZFS.
Bij ZFS (in FreeNAS) is er toch de vuistregel 8GB + 1GB per TB opslag? Of is dat alleen voor intensief gebruik.

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

  • Tomba
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:03

Tomba

Quis custodiet ipsos custodes?

sdk1985 schreef op dinsdag 30 oktober 2018 @ 00:35:
[...]

[..]

TLDR: Zfs past eigenlijk niet bij een zuinige server. ZFS, Btrfs en storage spaces vallen af omdat daar bij 1 file request alles gaat draaien. SnapRAID, unRaid en FlexRAID blijven over. Welke daarvan handig is hangt vooral af wat voor soort data je gebruikt. Persoonlijk komt op mijn NAS vooral statische data terecht en is een snapshot systeem dus handig.
Behalve als je je niet beperkt tot een Linux/BSD variant;
https://stablebit.com/drivepool

Draai DrivePool al jaren tot volle tevredenheid (oorspronkelijk op WHS2011, nu op Windows2012R2 Essentials en Windows 2016) en de support is ook top. (Tot aan een afspraak kunnen maken voor remote support en dat voor een one-off bedrag. Tevens te gebruiken icm CloudDrive, ondersteuning voor ReFS etc)

Met Windows kun je (mits je fatsoenlijke hardware gebruikt) in mijn ervaring ook nog een lager verbruik faciliteren.

[ Voor 6% gewijzigd door Tomba op 30-10-2018 11:46 ]

tomba.tweakblogs.net || Mijn V&A


Acties:
  • 0 Henk 'm!

  • borft
  • Registratie: Januari 2002
  • Laatst online: 15-09 16:33
Ik heb het systeem (LVM + LUKS) op een ssd staan, die staat dus altijd aan, logs worden daar ook naartoe geschreven. Daarnaast heb ik een ZFS volume over 4 3.5" disks van 10TB, die worden automatisch uitgezet als ze idle zijn en dat werkt prima. zit geen enkele fan in de server, dus als de disks uitstaan is het superstil (en zuinig).

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Raven schreef op dinsdag 30 oktober 2018 @ 11:36:
[...]
Bij ZFS (in FreeNAS) is er toch de vuistregel 8GB + 1GB per TB opslag? Of is dat alleen voor intensief gebruik.
Nee, absoluut niet. Het is zelfs een urban legend. :)

Ook voor FreeNAS is die vuistregel er niet. FreeNAS heeft 8G nodig, punt. Waarom weet ik niet, maar daar is voor gekozen.

Je kunt met een minimale hoeveelheid geheugen prima ZFS draaien, het word alleen trager omdat hij cached in geheugen. Hoe meer geheugen, hoe sneller ZFS theoretisch word. That's all.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 18-09 13:23
Ik weet niet of je wel eens naar het geheugengebruik hebt gekeken van FreeNAS, maar het leeuwendeel gaat naar ZFS, als je die een keer laat autotunen (of handmatig instelt) dan werkt FreeNAS prima met 4Gb RAM. De standaard instellingen bij FreeNAS zijn gebaseerd op 8Gb RAM, vandaar dat je ZFS even een beetje moet inbinden ;)

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

base_ schreef op dinsdag 30 oktober 2018 @ 12:15:
Ik weet niet of je wel eens naar het geheugengebruik hebt gekeken van FreeNAS, maar het leeuwendeel gaat naar ZFS, als je die een keer laat autotunen (of handmatig instelt) dan werkt FreeNAS prima met 4Gb RAM. De standaard instellingen bij FreeNAS zijn gebaseerd op 8Gb RAM, vandaar dat je ZFS even een beetje moet inbinden ;)
Ik dacht dat FreeNAS domweg niet wil installeren bij minder dan 8G. Of vergis ik me daarin?

ZFS moet je eigenlijk altijd inbinden, anders vreet het domweg ál je geheugen op. Het pakt het vrije beschikbare geheugen, da's niet altijd wenselijk. (Al tuned het dacht ik wel zelf terug als het nodig is.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

unezra schreef op dinsdag 30 oktober 2018 @ 11:59:
[...]


Nee, absoluut niet. Het is zelfs een urban legend. :)

Ook voor FreeNAS is die vuistregel er niet. FreeNAS heeft 8G nodig, punt. Waarom weet ik niet, maar daar is voor gekozen.

Je kunt met een minimale hoeveelheid geheugen prima ZFS draaien, het word alleen trager omdat hij cached in geheugen. Hoe meer geheugen, hoe sneller ZFS theoretisch word. That's all.
Hmm, ik kom die vuistregel nog steeds zo nu en dan tegen, ook op https://www.freenas.org/hardware-requirements/ :?

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Raven schreef op dinsdag 30 oktober 2018 @ 12:40:
[...]
Hmm, ik kom die vuistregel nog steeds zo nu en dan tegen, ook op https://www.freenas.org/hardware-requirements/ :?
Bizar dat dat nog steeds op de site van FreeNAS staat. Het is nota bene door de developers van ZFS en ZoL allang debunked. Het idiote is, als je deduplication gaat doen, heb je er zelfs te kort aan, voor vrijwel alle andere applicaties is het niet per-se nuttig.

Het kán nuttig zijn en 1G per T kán je snelheid verhogen, maar hell, alsof je 1G per T nodig hebt als je met 5 man op een thuisNAS zit... Dat werkt ook prima met 4G of 8G totaal, ook al heb je 20T netto in je NAS zitten.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
https://www.freenas.org/b...rpose-and-best-practices/

Hier staat de genuanceerde uitleg, en die is best behoorlijk. Niet zo flamen ;)

Wel stat er dat 8GB echt een harde requirement is, dat heb ik nooit ervaren. Ik heb het ook wel met minder geinstalleerd dacht ik... Vreemd...
How Much RAM is needed?

FreeNAS requires 8 GB of RAM for the base configuration. If you are using plugins and/or jails, 12 GB is a better starting point. There’s a lot of advice about how RAM hungry ZFS is, how it requires massive amounts of RAM, an oft quoted number is 1GB RAM per TB of storage. The reality is, it’s complicated. ZFS does require a base level of RAM to be stable, and the amount of RAM it needs to be stable does grow with the size of the storage. 8GB of RAM will get you through the 24TB range. Beyond that 16GB is a safer minimum, and once you get past 100TB of storage, 32GB is recommended. However, that’s just to satisfy the stability side of things. ZFS performance lives and dies by its caching. There are no good guidelines for how much cache a given storage size with a given number of simultaneous users will need. You can have a 2TB array with 3 users that needs 1GB of cache, and a 500TB array with 50 users that need 8GB of cache. Neither of those scenarios are likely, but they are possible. The optimal cache size for an array tends to increase with the size of the array, but outside of that guidance, the only thing we can recommend is to measure and observe as you go. FreeNAS includes tools in the GUI and the command line to see cache utilization. If your cache hit ratio is below 90%, you will see performance improvements by adding cache to the system in the form of RAM or SSD L2ARC (dedicated read cache devices in the pool).

[ Voor 69% gewijzigd door FireDrunk op 30-10-2018 12:47 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 18-09 13:23
Ik heb er een paar draaien op FreeNAS 9.x met 4GB RAM, die doen het prima, de hebben echter minder als 12Tb storage en een lage load.

Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
borft schreef op dinsdag 30 oktober 2018 @ 11:53:
Ik heb het systeem (LVM + LUKS) op een ssd staan, die staat dus altijd aan, logs worden daar ook naartoe geschreven. Daarnaast heb ik een ZFS volume over 4 3.5" disks van 10TB, die worden automatisch uitgezet als ze idle zijn en dat werkt prima. zit geen enkele fan in de server, dus als de disks uitstaan is het superstil (en zuinig).
Hoe zorg je ervoor dat de schijven uitgezet worden - heb je dat geregeld met hddparm?

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
unezra schreef op dinsdag 30 oktober 2018 @ 08:45:
[...]


Qua geheugen valt ZFS mee. Met 2G of 4G kun je al heel goed ZFS draaien, FreeNAS eist 8G.
Weinig andere systemen beschermen zó goed tegen bitrot dan ZFS.


[...]


Met het stoppen van de activiteiten, heb ik de website van de stichting (praktisch het enige dat nog operationeel is), verplaatst naar infra die ik toch al thuis heb. Meer dan wat geheugen en een beetje CPU power vraagt het niet. :)

Wat we hadden was een DL180G6 met 2 4-core Xeon CPU's, 96G geheugen, HBA, etc. De bedoeling was om daar enkele tientallen VM's op te draaien. Dat plan is mislukt. Zo'n machine heeft overigens niets te maken met een energiezuinige server. Per vm is het relatief zuinig maar in regulier bedrijf deed het ding 200W.


[...]


Als je vm's draait heb je hoe dan ook te maken met IO. In mijn beleving is het niet ZFS of welk filesystem dan ook dat een server minder zuinig maakt dan kan, maar of je op de eoa manier IO genereert of niet. In alle gevallen zul je bij IO een spinup van je disks hebben. Met vm's heb je dat doorlopend. Alleen bij een NAS die niet 24/7 gebruikt word heb je het voordeel dat je een spindown kunt doen, maar spindowns zijn weer relatief slecht voor disks dus ik weet niet of het uit kan qua kosten.

Voor mij is een zuinige server óók een die 24/7 kan draaien, met disks. Ik draai thuis het eea virtueel. Persoonlijk is voor mij een eis 4 disks in een striped mirror plus 2 OS disks. Die laatste mogen SSD's zijn. (De datadisks ook, maar SSD is veel duurder dan HDD dus weegt de besparing in stroom niet op tegen de extra kosten die je moet maken voor de disks. Je verbruikt misschien wat meer stroom, economisch is het wel.)
Punt was even dat wanneer je bijvoorbeeld 8 drives hebt er in ZFS 8 gaan draaien. Bij de andere oplossingen is dit niet het geval, die beperken zich met spinnen van de drive waarop de data daadwerkelijk te vinden is; 1. Als je de data van de website vm dan tevens op je OS ssd zet dan worden het er 0. Daarom is ZFS inherent onzuiniger.

Belangrijk om daarbij ook nog even te wijzen op het feit dat je in bijvoorbeeld Snapraid ook asynchrome setups kunt opnemen. Dus een 250GB ssd + oude 3 TB hdd + state of the art 8 TB ironwolf is geen probleem. Dat kan bij ZFS ook, alleen later een extra schijf toevoegen kan een probleem worden. Bij snapraid kun je zelfs schijven toevoegen waar al data op staat. Dus wanneer je gaat praten over kosten efficiëntie dan kom ik zelf eigenlijk ook niet bij ZFS uit.


Bitrot protectie is ook geen factor in ZFS vs snapraid.
[3] - ZFS and Btrfs provide a bit-rot protection at the same level of SnapRAID, always checking data before using it. In this regards all the three solutions represent the state-of-the-art.
A cons of ZFS is that the default Fletcher checksum is a choice that favorites speed over quality. The same for the default CRC32C used by Btrfs. The 128 bits SpookyHash used by SnapRAID is instead the state-of-the-art in checksumming quality, without compromising in speed.
Another cons of ZFS is that it lacks a fast RAID implementation in assembler. It only has a C implementation, that is from two to four times slower than SnapRAID/Btrfs.
ZFS also uses a sub-optimal RAID-Z3 algorithm, that requires double computations than the equivalent SnapRAID's z-parity.
Instead, both SnapRAID and Btrfs use top-notch assembler implementations to compute the RAID parity, always using the best known RAID algorithm and implementation.
Enige factor die overblijft is dat ZFS een realtime data protectie systeem levert en snapraid een snapshot systeem is. Heb jij hot data die elk kwartier wijzigt dan gaat het niet werken.

Persoonlijk had ik toevallig pas per ongeluk disk spindown uitstaan en nadat ik dit weer corrigeerde ging er 7 euro per maand af bij mijn stroommeter (niet 1 op 1 te relateren aan alleen de NAS, hele computerkamer zit er op). Standby ging iets van 60W af en dat kost bij 24/7 gebruik 60/1000*24*30=43,2 Kwh = 9,072 per maand. Ik heb dan overigens wel 8 disks + ssd dus dan gaat het harder ;).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • yorroy
  • Registratie: Februari 2005
  • Laatst online: 19-09 11:22
mrmrmr schreef op dinsdag 30 oktober 2018 @ 13:54:
De Fujitsu D3643-H met B360, 4x SATA, 1x M.2 PCIe is inmiddels op voorraad bij een distributeur. c't heeft een tijd terug een korte test ervan online gezet.
Lekker dan, ik kon niet langer wachten dus heb een uur geleden het hele zwikje besteld, met een ander moederbord.
Enig idee wat die gaat kosten?


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

sdk1985 schreef op dinsdag 30 oktober 2018 @ 13:57:
[...]
Punt was even dat wanneer je bijvoorbeeld 8 drives hebt er in ZFS 8 gaan draaien. Bij de andere oplossingen is dit niet het geval, die beperken zich met spinnen van de drive waarop de data daadwerkelijk te vinden is; 1. Als je de data van de website vm dan tevens op je OS ssd zet dan worden het er 0. Daarom is ZFS inherent onzuiniger.
Dat is bij ieder systeem waarbij data over meerdere disks word verspreid. Effectief: Ieder systeem dat RAID doet.
Of je moet een systeem hebben dat onder water meerdere arrays heeft en alleen die array aan zet waar je data op te vinden is. Bij ZFS kan dat prima, door zelf je data te verspreiden over meerdere RAID sets.
Belangrijk om daarbij ook nog even te wijzen op het feit dat je in bijvoorbeeld Snapraid ook asynchrome setups kunt opnemen. Dus een 250GB ssd + oude 3 TB hdd + state of the art 8 TB ironwolf is geen probleem. Dat kan bij ZFS ook, alleen later een extra schijf toevoegen kan een probleem worden. Bij snapraid kun je zelfs schijven toevoegen waar al data op staat. Dus wanneer je gaat praten over kosten efficiëntie dan kom ik zelf eigenlijk ook niet bij ZFS uit.
Het hangt er helemaal vanaf hoe je je setup in richt. Persoonlijk koop ik liever 1 set disks, donder daar al mijn data op en vervang die als 'ie vol is door een grotere array. Het is misschien iets meer plannen en vooruit zien. Zo'n systeem is inderdaad goedkoper als je telkens 1 of meerdere disks bij koopt. Voor mij zou dat niet passen. Misschien ten onrechte, maar voor zoiets als mijn NAS denk ik misschien te bedrijfsmatig, ook thuis.
Bitrot protectie is ook geen factor in ZFS vs snapraid.
Het doet zo te zien checksumming, dus wellicht, inderdaad.

Doet het ook atomic writes (copy-on-write)? Dat vind ik even zo snel niet. Het is een van DE key-features van ZFS.
[...]
Enige factor die overblijft is dat ZFS een realtime data protectie systeem levert en snapraid een snapshot systeem is. Heb jij hot data die elk kwartier wijzigt dan gaat het niet werken.
ZFS snapshots moet je ook aanzetten, dat is niet standaard. Je moet ze schedulen. Het is niet dat ZFS out of the box automatisch ieder uur een snapshot maakt. Of is het zo dat snapraid uberhaupt niet realtime RAID doet, maar zeg 1x per dag scheduled wat er is veranderd, dáár een checksum van maakt en die weg schrijft?
Persoonlijk had ik toevallig pas per ongeluk disk spindown uitstaan en nadat ik dit weer corrigeerde ging er 7 euro per maand af bij mijn stroommeter (niet 1 op 1 te relateren aan alleen de NAS, hele computerkamer zit er op). Standby ging iets van 60W af en dat kost bij 24/7 gebruik 60/1000*24*30=43,2 Kwh = 9,072 per maand. Ik heb dan overigens wel 8 disks + ssd dus dan gaat het harder ;).
Ik probeer mijn storage te beperken tot 4 disks en met de hoeveelheid data die ik thuis heb, is dat prima te doen. Ik heb nu 4x5T, dat is nog lang niet vol. Inmiddels zijn er al consumenten disks ver boven de 10T per stuk, goed voor meer dan 20T netto. (Zonder ZFS compressie.)

Over compressie gesproken, ik zie daar niets over bij SnapRAID. Doet het dat helemaal niet? Dat kan echt een factor 1.5 en meer schelen, afhankelijk van je data, terwijl het qua CPU power veel beter is. Het is qua kloktikken goedkoper om data te comprimeren, dan niet te comprimeren. Scheelt ook nog eens in je storage behoefte.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
yorroy schreef op dinsdag 30 oktober 2018 @ 14:08:
[...]

Lekker dan, ik kon niet langer wachten dus heb een uur geleden het hele zwikje besteld, met een ander moederbord.
Enig idee wat die gaat kosten?
Rond 95 euro vermoedelijk. Ik denk dat die morgen of overmorgen bij Azerty en/of Sicomputers te bestellen zal zijn. Ook aangeboden door Maxict.

Edit: 2018-10-31: nu ook verkrijgbaar bij Sicomputers voor 90 euro.

[ Voor 6% gewijzigd door mrmrmr op 31-10-2018 13:13 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
@unezra
Volgens mij praten we zo langs elkaar heen. Had dit al in de eerste post hierover gemeld: zowel SnapRAID unRAID en FlexRAID verdelen je data NIET over meerdere disks. Daarom zijn deze systemen inherent zuiniger dan ZFS.

Zo lang jij er steeds vanuit gaat dat ZFS het beste systeem ooit is en er niets anders bestaat dan komen we niet verder :P. Het is gewoon een heel ander concept dan ZFS met eigen voor en nadelen. Zodra je die voor en nadelen omarmt zal je zien dat al die ouderwetse wetmatigheden als het moeten gebruiken van ECC voor je dataveiligheid, het tegelijk moeten vervangen van al je schijven, enz uit het raam kunnen.

Inhoudelijk: Snapraid doet dus geen compressie, het is bovendien ook totaal niet cpu intensief ik haal iets van 900 MB/s met een G4560. Het is een optel som van je bitjes op een parity disk. Het aantal parity disks kun je zelf kiezen en ook later uitbreiden. Zo kun je tot maximaal 6 disk failures opvangen. Per blok wordt bijgehouden wanneer het voor het laats 'scrubbed' is. Zelf scrub ik data ouder dan 30 dagen. Mijn setup is 3 / 3 / 8 / 8 / 8 + 2x 8 parity. Ik ben begonnen met een 1 / 2 / 3 / 3 / 8 + 8 parity setup. Wanneer ik ruimte tekort kom vervang ik een oude schijf.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • borft
  • Registratie: Januari 2002
  • Laatst online: 15-09 16:33
mdbraber schreef op dinsdag 30 oktober 2018 @ 13:45:
[...]


Hoe zorg je ervoor dat de schijven uitgezet worden - heb je dat geregeld met hddparm?
Ik heb het een beetje lelijk opgelost ;) Ik zet bij het booten met hdparm een aantal settings, en verder heb ik een cronjob die die draaischijfjes uitzet met hdparm -y

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

sdk1985 schreef op dinsdag 30 oktober 2018 @ 14:41:
@unezra
Volgens mij praten we zo langs elkaar heen. Had dit al in de eerste post hierover gemeld: zowel SnapRAID unRAID en FlexRAID verdelen je data NIET over meerdere disks. Daarom zijn deze systemen inherent zuiniger dan ZFS.
Oh, zo...

Nee, dan snap ik het. :) (Dan snap ik ook waarom ik zelf heel ver blijf van dat soort systemen.)
Zo lang jij er steeds vanuit gaat dat ZFS het beste systeem ooit is en er niets anders bestaat dan komen we niet verder :P. Het is gewoon een heel ander concept dan ZFS met eigen voor en nadelen. Zodra je die voor en nadelen omarmt zal je zien dat al die ouderwetse wetmatigheden als het moeten gebruiken van ECC voor je dataveiligheid, het tegelijk moeten vervangen van al je schijven, enz uit het raam kunnen.
Oh, neuh, ZFS is zeker niet het beste systeem ooit. Wel vind ik het key features hebben die voor mij belangrijk zijn. Zoals compression, snapshots, bitrot protection, snelheid, etc. Een SnapRAID systeem zal NOOIT sneller worden dan 1 disk, ZFS wel, met een mirrored stripe haal je bijna dubbele snelheden. Afhankelijk van de situatie kan dat belangrijk zijn.

En ECC heb je niet nodig voor je dataveiligheid. ECC word sterk aangeraden. Het kan ook op andere manieren.

In the end moet ieder doen waar hij/zij prettig bij voelt, maar persoonlijk voel ik me niet prettig bij een systeem dat niet werkelijk data verspreid over meerdere disks. (Hardware RAID geloof ik overigens ook niet meer in. Dat heeft zijn tijd gehad. Leuk in 1996, nu niet meer.)
Inhoudelijk: Snapraid doet dus geen compressie, het is bovendien ook totaal niet cpu intensief ik haal iets van 900 MB/s met een G4560. Het is een optel som van je bitjes op een parity disk. Het aantal parity disks kun je zelf kiezen en ook later uitbreiden. Zo kun je tot maximaal 6 disk failures opvangen. Per blok wordt bijgehouden wanneer het voor het laats 'scrubbed' is. Zelf scrub ik data ouder dan 30 dagen. Mijn setup is 3 / 3 / 8 / 8 / 8 + 2x 8 parity. Ik ben begonnen met een 1 / 2 / 3 / 3 / 8 + 8 parity setup. Wanneer ik ruimte tekort kom vervang ik een oude schijf.
Juist. :)

Nja, zoals gezegd, het zal zeker een goed systeem zijn, maar persoonlijk vind ik iets als dat niet prettig. Dan maar iets minder zuinigheid.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
unezra schreef op dinsdag 30 oktober 2018 @ 14:58:
[...]


Oh, zo...

Nee, dan snap ik het. :) (Dan snap ik ook waarom ik zelf heel ver blijf van dat soort systemen.)


[...]


Oh, neuh, ZFS is zeker niet het beste systeem ooit. Wel vind ik het key features hebben die voor mij belangrijk zijn. Zoals compression, snapshots, bitrot protection, snelheid, etc. Een SnapRAID systeem zal NOOIT sneller worden dan 1 disk, ZFS wel, met een mirrored stripe haal je bijna dubbele snelheden. Afhankelijk van de situatie kan dat belangrijk zijn.

En ECC heb je niet nodig voor je dataveiligheid. ECC word sterk aangeraden. Het kan ook op andere manieren.

In the end moet ieder doen waar hij/zij prettig bij voelt, maar persoonlijk voel ik me niet prettig bij een systeem dat niet werkelijk data verspreid over meerdere disks. (Hardware RAID geloof ik overigens ook niet meer in. Dat heeft zijn tijd gehad. Leuk in 1996, nu niet meer.)


[...]


Juist. :)

Nja, zoals gezegd, het zal zeker een goed systeem zijn, maar persoonlijk vind ik iets als dat niet prettig. Dan maar iets minder zuinigheid.
Gevoelsmatig wellicht. Niet spreiden is objectief veiliger. In mijn setup kunnen er twee van de vijf disks wegvallen en dan kun je de vervangende disks sequentieel vullen. Ondertussen werken je andere schijven normaal door. De twee parity disks kun je ook verliezen, mits data nog heel is. Elke schijf is itt bij zfs immers zelfstandig functioneel. Dus stel je zou nog meer verliezen dan is het grote voordeel dat pro datarecovery je data er nog af kan trekken (kost wel paar centen).
How is it different than ZFS/Btrfs snapshots and NTFS Shadow Copy?
SnapRAID creates a file-system snapshot conceptually similar at other snapshot solutions. The difference is that the purpose of SnapRAID is to be able to recover a disk to the saved state after a complete disk failure.

SnapRAID is more similar at the RAID-Z/RAID functionality of ZFS/Btrfs. Compared to them, SnapRAID has the following advantages:

If the failed disks are too many to allow a recovery, you lose the data only on the failed disks. All the data in the other disks is safe.
You can start with already filled disks.
You can add disks at any time (not possible with ZFS, but possible with Btrfs).
It doesn't lock-in your data. You can stop using SnapRAID at any time without the need to reformat or move data.
To access a file, a single disk needs to spin, saving power and producing less noise.
You can have up to six parity levels compared to the three of ZFS RAID-Z and the two of Btrfs RAID-5/6.
Obviously ZFS/Btrfs have other advantages, like being real-time solutions. What is best for you, depends on your specific use case
Bekend succes story, 4 disks failure https://sourceforge.net/p.../1677233/thread/eca5ed3d/

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

sdk1985 schreef op dinsdag 30 oktober 2018 @ 15:58:
[...]

Gevoelsmatig wellicht. Niet spreiden is objectief veiliger. In mijn setup kunnen er twee van de vijf disks wegvallen en dan kun je de vervangende disks sequentieel vullen. Ondertussen werken je andere schijven normaal door. De twee parity disks kun je ook verliezen, mits data nog heel is. Elke schijf is itt bij zfs immers zelfstandig functioneel. Dus stel je zou nog meer verliezen dan is het grote voordeel dat pro datarecovery je data er nog af kan trekken (kost wel paar centen).


[...]

Bekend succes story, 4 disks failure https://sourceforge.net/p.../1677233/thread/eca5ed3d/
Als ik het goed begrijp heb je voor een 4 disk faillure, 4 parity disks nodig. Dan is het inderdaad vergelijkbaar met een RAIDZ configuratie en je voordeel van minder disks ben je dan wel kwijt. :)

Plus, snelheid. RAIDZ is traag, maar enkele disks zijn ook niet bepaald snel. Het leuke van RAID10 of equivalent, is dat je 2 disks kunt verliezen in een setup van 4 disks. (50% van je disks.) De énige catch is dat het de juiste disks moeten zijn...

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
Dan is RAIDZ2 beter, kan je 2 willekeurige disks verliezen. Enige nadeel is dan snelheid.
Maar goed, we gaan erg offtopic denk ik :)

Even niets...


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
Mwa als een alternatieve raid variant je standby verbruik met 50W doet dalen vind ik dat toch relevant voor het zuinige server topic. Beetje zonde van de moeite om net dat betere voeding en moederbord uit te zoeken als je daarna je schijven allemaal tegelijk laat draaien.
unezra schreef op dinsdag 30 oktober 2018 @ 16:14:
[...]


Als ik het goed begrijp heb je voor een 4 disk faillure, 4 parity disks nodig. Dan is het inderdaad vergelijkbaar met een RAIDZ configuratie en je voordeel van minder disks ben je dan wel kwijt. :)
Yes. Dus verlies je 1 data disk dan zet je er een nieuwe schijf in en bouw je sequentieel terug vanaf je party+werkende schijven. Verlies je 1 parity disk dan moet je een nieuwe sync draaien om de parity weer te vullen. Vervolgens bepaalt het aantal schijven hoeveel volledige disk failures je kunt opvangen. Vanaf 5 schijven wordt 2 parity aangeraden, vanaf 15 schijven 3 parity, enz. Is geen verplichting, heb zelf tijdje 5 op 1 gedraaid. Mooiste is dat je eigenlijk geen waste hebt bij schijven van verschillende grootte. Kreeg echter een keer een sync probleem toen ik data onderling aan het verschuiven was tussen 3 disks. Doe je dat vaak dan is 2 parity een aanrader (of tussendoor een sync draaien).

[ Voor 4% gewijzigd door sdk1985 op 30-10-2018 23:22 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

sdk1985 schreef op dinsdag 30 oktober 2018 @ 23:20:
Mwa als een alternatieve raid variant je standby verbruik met 50W doet dalen vind ik dat toch relevant voor het zuinige server topic. Beetje zonde van de moeite om net dat betere voeding en moederbord uit te zoeken als je daarna je schijven allemaal tegelijk laat draaien.
Oh, dat is zeker waar. Alternatieve RAID varianten zijn absoluut iets om te overwegen. Ook voor mij is het interessant om naar te kijken, alleen voel ik me niet comfortabel bij iets dat niet realtime RAID doet.

Om 50W idle te besparen moet je wel vrij wild doen volgens mij, dat zijn meer dan 10 disks... Alleen relevant dus als je heel veel disks hebt. Zelf heb ik liever minder maar grotere disks. Er zijn tegenwoordig al 14T disks te krijgen, in een RAID10 of equivalent setup levert je dat 28T netto op, 42T als je een RAID-5 of equivalent doet.

Misschien heb ik een wat lagere databehoefte, ik heb op dit moment 4x5T in mijn server zitten, goed voor 10T netto. Daarvan is 4.8T in gebruik en ik haal een compression rate van 2.3x. Het lijkt zelfs meer data dan het is, ik maak dagelijks een snapshot en hoewel snapshots zélf geen ruimte in beslag nemen, duurt het wel lang voordat iets dat je hebt verwijderd uit het systeem verdwijnt. :) (In mijn geval 100 jaar. Waarschijnlijk ga ik dat nog wel terug brengen maar zolang ik nog meer dan de helft ruimte over heb, is daar geen noodzaak voor.)

Mijn complete setup, 3 HP Microservers, 2 switches, router en (Ziggo Zakelijk) modem doen op het moment volgens mijn UPS 165W. Dat is te veel en een van de belangrijke redenen om opnieuw na te denken over een vereenvoudiging van mijn setup. Van 2 naar 1 switch, van 3 servers naar 1. (Reden dat ik 2 switches heb is PoE. De PoE switch is een 5 poorts ZyXEL GS1200-5HP. pricewatch: ZyXEL GS1200-5HP )

Ik hoop alles terug te kunnen brengen naar rond de 50-75W, inclusief switch, router, etc. Mijn server mag dan rond de 50W gebruiken, wat hopelijk realistisch is met 4 HDD's, 1 of 2 SSD's, 32G geheugen en een CPU met voldoende *oomph* om een paar vm's te draaien. (Ofwel, krachtiger is dan 2x Celeron G1660T bij een lager energieverbruik.)

Fin, iedereen zal zijn eigen beeld hebben bij een zuinige server. Voor mij gaat het niet om die laatste 5W minder, maar om een goede mix tussen functionaliteit/performance en zuinigheid. Ik ga niet op 1x Gbit draaien omdat dat 1W scheelt ten opzichte van 2xGBit (willekeurig getal), ook wil ik geen RAID setups die volledig asynchroon zijn. Wel wil ik het aantal servers, disks en switches terug brengen tot een aanvaardbaar niveau én bij keuze van de apparatuur rekening houden met het stroomverbruik.
[...]
Yes. Dus verlies je 1 data disk dan zet je er een nieuwe schijf in en bouw je sequentieel terug vanaf je party+werkende schijven. Verlies je 1 parity disk dan moet je een nieuwe sync draaien om de parity weer te vullen. Vervolgens bepaalt het aantal schijven hoeveel volledige disk failures je kunt opvangen. Vanaf 5 schijven wordt 2 parity aangeraden, vanaf 15 schijven 3 parity, enz. Is geen verplichting, heb zelf tijdje 5 op 1 gedraaid. Mooiste is dat je eigenlijk geen waste hebt bij schijven van verschillende grootte. Kreeg echter een keer een sync probleem toen ik data onderling aan het verschuiven was tussen 3 disks. Doe je dat vaak dan is 2 parity een aanrader (of tussendoor een sync draaien).
Juist. Misschien is regelmatig losse disks bij kopen wel iets dat vaker gedaan word. Zelf heb ik die behoefte niet. Mijn NAS en servers zijn zo veel mogelijk statisch. 1x voorzien van de juiste hardware en klaar, tot het moment dat ze vervangen moeten worden omdat ze op zijn of niet meer voldoende performance hebben voor mijn behoefte op dat moment. (Al hou ik bij mijn server herinrichting wel rekening mee met NU 4x5T plaatsen en later die disks vervangen door grotere exemplaren. Ik heb nog 4x5T op de plank liggen, dus dat zou een goedkope intermediate oplossing zijn.)

Voor mij speelt de waste dus niet echt. Zelfs niet zou een van mijn 5T's het begeven en er geen nieuwe 5T beschikbaar zijn. Dan zou ik 'm vervangen door een grotere in afwachting van vervanging van de hele array, of het als een goed excuus gebruiken om de hele array te voorzien van grotere disks. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • +4 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Inmiddels heb ik het Fuijitsu 3644-B enige tijd naar tevredenheid in gebruik met de i3-8100 en 32GB ECC geheugen (in combinatie met Proxmox). Op dit moment doet het bord ~9W idle met 2x LAN (1x on-board, 1x Intel i210 PCIe), 6x storage (1x m.2 SSD, 4x 2.5" HDD en 1x normale SSD - met de disks in spindown) en Arctic Freezer PWM koeler (geen casefans). Gemeten met een Brennenstuhl PM231.

Een paar dingen die wellicht handig zijn als je ook overweegt om dit moederbord aan te schaffen:

- De fancontroller op het moederbord is niet geschikt voor een volledige fanless koeling (zoals bijv. de Arctic Freezer 33). Wanneer een fan op 0 RPM draait denkt de PWM controller dat deze 'kapot' is en slingert deze weer aan waardoor je een soort constante 'op en neer' beweging van de fan krijgt (0-960-0-960 RPM etc). Je kan beter een koeler kopen die minimaal 300RPM doet bij 30%PWM (bijv. de Noctua NF-F12). Zie ook deze post van juggernaut op het heise.de forum: https://www.heise.de/foru...te/posting-33331942/show/

- Voor het uitlezen van de fans/voltages op het moederbord is een aparte kernel module nodig, zie hier de beschrijving van juggernaut en de links naar de downloads van Fujitsu: https://www.heise.de/foru...te/posting-33318722/show/

Verder is mijn ervaring dat in een Fractal Design Define Mini de temperaturen zonder casefans niet boven de 40C uit komen (en in idle slechts rond de 32C zijn). Qua geluidsproductie zijn de 2.5" disks het meest 'luidruchtig' maar logischerwijs met spindown niet te horen...

/cc @Bolk @mrmrmr @wessel145

[ Voor 3% gewijzigd door mdbraber op 31-10-2018 09:24 ]


Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

Thanks dat is nuttige info. Ik heb de Artic Freezer al besteld helaas. Leverdatum voor mij staat op vandaag, ik zal zo nog eens navragen.

Ik ga zelf aan de gang met FreeBSD/FreeNAS en zal m'n bevindingen hier posten :)

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • +2 Henk 'm!
@mdbraber @Bolk

Volledig fanless werkt prima op mijn D3417-B2's, waarschijnlijk hetzelfde op de D3644-B.

Zonder cpu fan verschijnt wel een foutmelding "error: fan absent" tijdens opstarten. Die kun je uitzetten in de BIOS onder Advanced, Fan startup check, disabled.

Als je heel weinig wilt koelen (cpu+systeem), dus met een laag toerental dan is een niet-PWM fan aan te bevelen. Dat kan ook worden geregeld door PWM naar een 2/3 pin kabeltje. Daardoor wordt de fan niet opnieuw aangeslingerd, want dan weet het moederbord niet wat het toerental is.

[ Voor 17% gewijzigd door mrmrmr op 31-10-2018 10:28 ]


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

mdbraber schreef op woensdag 31 oktober 2018 @ 09:21:
Inmiddels heb ik het Fuijitsu 3644-B enige tijd naar tevredenheid in gebruik met de i3-8100 en 32GB ECC geheugen (in combinatie met Proxmox).
Heb je toevallig een PW-linkje naar de gebruikte RAM-modules? Kan ik die vast op de wenslijst zetten ;)

Waarom zijn die Fujitsu plankjes eigenlijk nog lang niet overal leverbaar? :?

[ Voor 8% gewijzigd door Raven op 31-10-2018 11:07 ]

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Raven schreef op woensdag 31 oktober 2018 @ 10:24:
[...]
Heb je toevallig een PW-linkje naar de gebruikte RAM-modules? Kan ik die vast op de wenslijst zetten ;)
Deze: pricewatch: Crucial CT2K16G4WFD824A
Waarom zijn die Fujitsu plankjes eigenlijk nog lang niet overal leverbaar? :?
Omdat ze nog best nieuw zijn? :-) Ik had geen problemen met de levertijd van die van mij, besteld bij SiComputers.

Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
mrmrmr schreef op woensdag 31 oktober 2018 @ 09:56:
@mdbraber @Bolk
Volledig fanless werkt prima op mijn D3417-B2's, waarschijnlijk hetzelfde op de D3644-B.

Zonder cpu fan verschijnt wel een foutmelding "error: fan absent" tijdens opstarten. Die kun je uitzetten in de BIOS onder Advanced, Fan startup check, disabled.

Als je heel weinig wilt koelen (cpu+systeem), dus met een laag toerental dan is een niet-PWM fan aan te bevelen. Dat kan ook worden geregeld door PWM naar een 2/3 pin kabeltje. Daardoor wordt de fan niet opnieuw aangeslingerd, want dan weet het moederbord niet wat het toerental is.
Bedoel je met volledig fanless dat je 'm ook helemaal zonder casefans draait? Of zonder CPU koeler maar met casefans?

Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

Thanks :)
mdbraber schreef op woensdag 31 oktober 2018 @ 11:20:
Omdat ze nog best nieuw zijn? :-) Ik had geen problemen met de levertijd van die van mij, besteld bij SiComputers.
Dus ze zijn leverbaar, maar waarom alleen bij 3 specifieke shops? Nou ja 3, een specifieke bestel ik nooit wat en gezien de reputatie zal dat niet veranderen :P

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!
mdbraber schreef op woensdag 31 oktober 2018 @ 11:21:
Bedoel je met volledig fanless dat je 'm ook helemaal zonder casefans draait? Of zonder CPU koeler maar met casefans?
Allebei. alleen passief (Arctic Alpine 11 Passive) zonder fans. Of passief en een systeemfan op laag toerental (7V ipv 12V). Die laatste werkt met de pulsen. Maar dat heeft bij mij weinig effect op het verbruik. Het is ook niet te horen (dat is fan-afhankelijk denk ik). De fan is wel een type die weinig verbruikt en ook op 12V al op laag rpm draait. De fans staan op 'auto'. Disabled is geen optie in het dropdown menu.

Als je een hybride passive/active fan gebruikt moet je wel goed oppassen of het samenwerkt met het moederbord.

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 14:21

OMX2000

By any means necessary...

Het lijkt erop dat de voeding van mijn server is overleden. Dus ik moet snel een nieuwe hebben. Ik zie hier vooral de Coolermaster V550 geadviseerd worden omdat die bij lage belasting ook heel efficient is. Is dat nog steeds zo, of is er inmiddels een andere sub 100 euro voeding die efficienter is?

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!
Welke voeding efficient is in jouw geval hangt af van het systeem dat je draait. Gaat het over een server die altijd aanstaat met een idle verbruik van minder 25W en weinig 3.5" hard disks? Dan is het meestal beter een PicoPSU te kiezen. Als je server veel 3.5" HDD's heeft dan is de V550 misschien geschikter.

De vraag is dus: hoe ziet je systeem eruit?

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 14:21

OMX2000

By any means necessary...

mrmrmr schreef op woensdag 31 oktober 2018 @ 12:39:
Welke voeding efficient is in jouw geval hangt af van het systeem dat je draait. Gaat het over een server die altijd aanstaat met een idle verbruik van minder 25W en weinig 3.5" hard disks? Dan is het meestal beter een PicoPSU te kiezen. Als je server veel 3.5" HDD's heeft dan is de V550 misschien geschikter.

De vraag is dus: hoe ziet je systeem eruit?
Er zitten op dit moment 4 HDD’s in en twee SSD’s, Asrock B85M Pro moederbord, 32 GB geheugen. Maar er komen mogelijk nog hdd’s bij.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • +1 Henk 'm!
4 x 3.5" 7200 rpm HDDs hebben ergens tussen 80 en 100W nodig om op te kunnen starten. Je systeem heeft afhankelijk van de processor ook ergens tussen 30 en 50W nodig. Als je er nog twee 3.5" HDD's bijplaatst komt er 40-50W bij, dan heb je ook een SATA uitbreidingskaart nodig die ook stroom verbruikt. De V550 is dan geschikt.

Het kan ook veel zuiniger met alleen 2.5" HDD's, die verbruiken maximaal 6W tijdens opstarten en 1,1W wanneer ze draaien. Dan is een PicoPSU wel een optie.

Acties:
  • +8 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Tip voor iedereen die de sensors van z'n Fujitsu bord in Linux wil uitlezen:

- Lees de handleiding door die hier staat: ftp://ftp.ts.fujitsu.com/...1-Sensors_HowTo-en-US.pdf
- Installeer het lm-sensors package en doorloop de configuratie (bijv op Debian via apt)
apt install lm-sensors

- Installeer je kernel-headers, bij mij was dat bijv op Proxmox
apt install pve-headers-4.15.17-1-pve

- Download de ftsteutates drivers van: ftp://ftp.ts.fujitsu.com/...tates-module_20180307.zip
- Unzip de gedownloade drivers in een directory
- Compileer de kernel module met de commando's:
make -C /lib/modules/$(uname -r)/build M=$(pwd) modules
make -C /lib/modules/$(uname -r)/build M=$(pwd) modules_install

- Installeer de module met
modprobe ftsteutates

- Maak een file aan in /etc/modprobe.d zodat de module ook na een reboot geladen wordt met de volgende inhoud:
code: ftseutates.conf
1
modprobe ftseutates

- Maak een conf file aan voor de sensors in /etc/sensors.d. Zie de directory assets in de zip file voor voorbeelden. Voor mijn 3644-B met 1 fan aangesloten heb ik het volgende gemaakt:
code: ftseutates.conf
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
chip "ftsteutates-*"
# Fujitsu Technology Solutions, "Teutates"-Chip

# Temperatures
    label temp1 "CPU"
    compute temp1 (@*1000)-64,(@+64)/1000
    label temp2 "Ambient"
    compute temp2 (@*1000)-64,(@+64)/1000
    label temp3 "Core"
    compute temp3 (@*1000)-64,(@+64)/1000
    label temp4 "Graphics"
    compute temp4 (@*1000)-64,(@+64)/1000
    label temp5 "Memory"
    compute temp5 (@*1000)-64,(@+64)/1000
    label temp6 "PCH"
    compute temp6 (@*1000)-64,(@+64)/1000

    ignore temp7
    ignore temp8
    ignore temp9
    ignore temp10
    ignore temp11
    ignore temp12
    ignore temp13
    ignore temp14
    ignore temp15
    ignore temp16

#    label temp7 "n.a."
#    compute temp7 (@*1000)-64,(@+64)/1000
#    label temp8 "n.a."
#    compute temp8 (@*1000)-64,(@+64)/1000
#    label temp9 "n.a."
#    compute temp9 (@*1000)-64,(@+64)/1000
#    label temp10 "n.a."
#    compute temp10 (@*1000)-64,(@+64)/1000
#    label temp11 "n.a."
#    compute temp11 (@*1000)-64,(@+64)/1000
#    label temp12 "n.a."
#    compute temp12 (@*1000)-64,(@+64)/1000
#    label temp13 "n.a."
#    compute temp13 (@*1000)-64,(@+64)/1000
#    label temp14 "n.a."
#    compute temp14 (@*1000)-64,(@+64)/1000
#    label temp15 "n.a."
#    compute temp15 (@*1000)-64,(@+64)/1000
#    label temp16 "n.a."
#    compute temp16 (@*1000)-64,(@+64)/1000

# Fans
    label fan1 "Fan 1"
    compute fan1 @*60,@/60

    ignore fan2
    ignore fan3
    ignore fan4
    ignore fan5
    ignore fan6
    ignore fan7
    ignore fan8

#    label fan2 "Fan 2"
#    compute fan2 @*60,@/60
#    label fan3 "Fan 3"
#    compute fan3 @*60,@/60
#    label fan4 "Fan 4"
#    compute fan4 @*60,@/60
#    label fan5 "n.a."
#    compute fan5 @*60,@/60
#    label fan6 "n.a."
#    compute fan6 @*60,@/60
#    label fan7 "n.a."
#    compute fan7 @*60,@/60
#    label fan8 "n.a."
#    compute fan8 @*60,@/60

# Voltages
    label in1 "VCC 3.3V"
    compute in1 ((@*11*330)/256),(@*256)/(11*330)
    label in2 "3.3V AUX"
    compute in2 ((@*11*330)/256),(@*256)/(11*330)
    label in3 "V_IN (12V)"
    compute in3 ((@*39*330)/256),(@*256)/(39*330)
    label in4 "VBAT 3.0V"
    compute in4 ((@*10*330)/256),(@*256)/(10*330)

- Lees de sensors uit met commando
sensors

- Et voila - Bob is je oom! :+
root@zark:/etc/sensors.d# sensors
ftsteutates-i2c-0-73
Adapter: SMBus I801 adapter at efa0
VCC 3.3V:     +3.30 V
3.3V AUX:     +3.30 V
V_IN (12V):  +12.07 V
VBAT 3.0V:    +2.72 V
Fan 1:          480 RPM
CPU:          +31.0°C
Ambient:      +23.0°C
Core:         +25.0°C
Graphics:     +22.0°C
Memory:       +24.0°C
PCH:          +34.0°C


/EDIT: Nog een nagekomen tip voor de mensen die op zoek zijn naar ECC geheugen voor de 3644-B. Fujitsu heeft specifiek modules getest die het beste werken qua stabiliteit op Coffee Lake. Zie hier het overzicht: ftp://ftp.ts.fujitsu.com/...umentation/Specification/ (in de link staat ook een overzicht van de 'officiele' m.2 SSDs).

Het meeste intereressant is wsl. dat er maar één officiele 16GB ECC module genoemd wordt: Samsung M391A2K43BB1-CTD. Via de Pricewatch kon ik 'm niet vinden maar als je even een search doet zie je dat ie bij verschillende shops gewoon te koop is (Azerty, Centralpoint etc.). Zelfs ~20eu goedkoper dan de ECC modules die ik nu heb, maar da's waarschijnlijk omdat het Samsung geheugen 2133MHz is - terwijl ik nu 2400MHz heb.

Meer info in de post van juggernaut: https://www.heise.de/foru...te/posting-33350319/show/

/cc @Raven @Bolk @mrmrmr @wessel145

[ Voor 12% gewijzigd door mdbraber op 01-11-2018 07:54 . Reden: tip ECC geheugen ]


Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

mdbraber schreef op donderdag 1 november 2018 @ 01:51:

[..]

/EDIT: Nog een nagekomen tip voor de mensen die op zoek zijn naar ECC geheugen voor de 3644-B. Fujitsu heeft specifiek modules getest die het beste werken qua stabiliteit op Coffee Lake. Zie hier het overzicht: ftp://ftp.ts.fujitsu.com/...umentation/Specification/ (in de link staat ook een overzicht van de 'officiele' m.2 SSDs).

Het meeste intereressant is wsl. dat er maar één officiele 16GB ECC module genoemd wordt: Samsung M391A2K43BB1-CTD. Via de Pricewatch kon ik 'm niet vinden maar als je even een search doet zie je dat ie bij verschillende shops gewoon te koop is (Azerty, Centralpoint etc.). Zelfs ~20eu goedkoper dan de ECC modules die ik nu heb, maar da's waarschijnlijk omdat het Samsung geheugen 2133MHz is - terwijl ik nu 2400MHz heb.

Meer info in de post van juggernaut: https://www.heise.de/foru...te/posting-33350319/show/

/cc @Raven @Bolk @mrmrmr @wessel145
Thanks. Ik heb alles binnen behalve geheugen. Gisteren uit pure frustratie m'n geheugen gecancelled en bij Aces Direct een order ingeschoten (hadden ruime voorraad volgens hun site). Weer niet verzonden gisteren... Frustraties beginnen te komen nu...

Zelfde geheugen als jij btw.

/edit: DPD propte het net volgas door de brievenbus 8)7

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • 0 Henk 'm!

  • MrDry
  • Registratie: December 2001
  • Laatst online: 19-09 12:28

MrDry

Desperados!

Ik ben op zoek naar een nieuwe voeding voor mijn linux servertje. Het is een headless server welke draait op Ubuntu 14.04 LTS (het wordt weer eens tijd voor een OS upgrade).

Specs van mijn server:
  • CPU: Intel(R) Celeron(R) CPU G1840 @ 2.80GHz, 2 cores
  • MB: Asus B85M-E
  • MEM: 2x Kingston 2GB DDR3 1333MHz PC3-10600 240-Pin DIMM non-ECC
  • HD1: WD Red WD30EFRX, 3TB
  • HD2: Samsung HD204UI, 2TB
  • HD3: Samsung EcoGreen F2 EG HD154UI, 1,5TB
  • HD4: Samsung Spinpoint F4 EG HD204UI, 2TB
Ik twijfel tussen een pricewatch: be quiet! Pure Power 10 300W en een pricewatch: Mini-box picoPSU 90

De HD's verbruiken allemaal ca 5-6 watt. De TDP van de CPU is 53 Watt, van het MB kan ik geen gegevens vinden maar ik schat in een watt of 10. Totaal is dat ca 80-90 watt.

IDLE verbruikt het geheel volgens mijn Energycheck3000 ca 50watt. Hier moet nog wat in te winnen zijn dmv hdparm en lmsensors.

Is die 90w Pico PSU dan voldoende of kan ik net zo goed voor een 80W Gold voeding gaan?

Quod licet lovi, non licet bovi


Acties:
  • 0 Henk 'm!

  • LigeTRy
  • Registratie: Juli 2010
  • Laatst online: 18-09 22:42
MrDry schreef op donderdag 1 november 2018 @ 08:26:


De HD's verbruiken allemaal ca 5-6 watt. De TDP van de CPU is 53 Watt, van het MB kan ik geen gegevens vinden maar ik schat in een watt of 10. Totaal is dat ca 80-90 watt.
Ik denk dat je tijdens de boot net iets meer zal verbruiken dan de 90 watt, maar idle kan die picoPSU het prima aan, picoPSU heeft ook nog een iets krachtigere versie, namelijk de 160-XT. zelf heb ik deze draaien i.c.m 5 harde schijven en een SSD en loopt als een zonnetje. Ik heb zlef ook een atx voeding geprobeerd (300watt), maar door de lage efficientie gebruikte ik daarmee zo'n 7 watt meer.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
Je zou ook kunnen overwegen om een nieuwe server te bouwen. Een nieuwe server welke rond de 10W verbruikt.

Als je dat dan vergelijkt met je huidige verbruik dan bespaar je op jaarbasis zo’n €80.

Als je dan je nieuwe server in 5 jaar tijd afschrijft heb je een €400 te besteden. Verkoop je je oude server plus schijven dan heb je misschien €500 te besteden. Daar kan je wel wat leuks van bouwen.

Acties:
  • 0 Henk 'm!
MrDry schreef op donderdag 1 november 2018 @ 08:26:
Ik ben op zoek naar een nieuwe voeding voor mijn linux servertje. Het is een headless server welke draait op Ubuntu 14.04 LTS (het wordt weer eens tijd voor een OS upgrade).

Specs van mijn server:
  • CPU: Intel(R) Celeron(R) CPU G1840 @ 2.80GHz, 2 cores
  • MB: Asus B85M-E
  • MEM: 2x Kingston 2GB DDR3 1333MHz PC3-10600 240-Pin DIMM non-ECC
  • HD1: WD Red WD30EFRX, 3TB
  • HD2: Samsung HD204UI, 2TB
  • HD3: Samsung EcoGreen F2 EG HD154UI, 1,5TB
  • HD4: Samsung Spinpoint F4 EG HD204UI, 2TB
Ik twijfel tussen een pricewatch: be quiet! Pure Power 10 300W en een pricewatch: Mini-box picoPSU 90

De HD's verbruiken allemaal ca 5-6 watt. De TDP van de CPU is 53 Watt, van het MB kan ik geen gegevens vinden maar ik schat in een watt of 10. Totaal is dat ca 80-90 watt.

IDLE verbruikt het geheel volgens mijn Energycheck3000 ca 50watt. Hier moet nog wat in te winnen zijn dmv hdparm en lmsensors.

Is die 90w Pico PSU dan voldoende of kan ik net zo goed voor een 80W Gold voeding gaan?
Waar het bij de keuze van een PicoPSU met name om gaat is of er voldoende vermogen is om op te starten. Een 3.5" mechanische hard disk verbruikt dan het meest, zo'n 20-25W afhankelijk van het type. Als de schijven eenmaal draaien vragen ze veel minder vermogen.

Wat je kan doen is meten wat het verbruik is tijdens het opstarten, dus het maximale piekverbruik. Daarvoor moet je wel een aantal keer opnieuw opstarten, omdat er wel wat variatie in kan zitten doordat pieken wel of niet samenvallen.

De TDP is een indicatie van de warmteonwikkeling. Het komt niet precies overeen met het daadwerkelijke verbruik.

Een PicoPSU 160-XT met Leicke 120W 12V (verkrijgbaar bij amazon.de, zoek even in dit topic voor links) zou je nu kunnen kiezen voor als je later overgaat op 2.5" HDD's. Die zijn bij opstarten energiezuiniger, ongeveer 6W en 1,1W als ze eenmaal draaien. Externe hard disks van Seagate en Maxtor zijn veel goedkoper dan losse 2.5" disks en ze bevatten de gewone SATA interface waardoor ze uit het plastic zijn te halen en intern kunnen worden gebruikt. Zie de topic start.

Linux kan zuiniger worden gemaakt met powertop --autotune na iedere herstart.

Acties:
  • 0 Henk 'm!

  • Nazario
  • Registratie: Januari 2014
  • Laatst online: 18-09 20:00
mrmrmr schreef op donderdag 1 november 2018 @ 11:15:

Linux kan zuiniger worden gemaakt met powertop --autotune na iedere herstart.
Hoe zorg je er dan voor dat wake-on-lan blijft werken? 'powertop --autotune' zet namelijk je netwerkkaart uit bij een shutdown.

Acties:
  • +1 Henk 'm!

  • Cranberry
  • Registratie: Juni 2004
  • Laatst online: 08:13
Als vervanger voor m'n RPi en BPi heb ik een Asrock Beebox (gebruikt) gescored. Deze voldoet voor mijn doelen ruimschoots.
In deze NUC zit een Celeron N3000, 4GB memory en een 128GB sata SSD. Een 1GB HDD voor m'n audiobestanden moet nog worden ingebouwd.
Vanmorgen heb ik Debian 9 geïnstalleerd.
Qua idleverbruik kom ik nu op 4,7W (Voltcraft Energy Logger 4000) na gebruik van Powertop (was 5,1W)

offtopic:
Met powertop wil ik nog wat optimaliseren. Ik krijg bij het powertop --auto-tune consequent de melding 'File will be loaded after taking minimum number of measurement(s) with battery only'.
Natuurlijk bezit dit device helemaal geen batterij/accu.
Hoe werk ik daar om heen?

Acties:
  • 0 Henk 'm!

  • GermanPivo
  • Registratie: September 2010
  • Laatst online: 18:41
Op dit moment heb ik een 2012 Mac Mini (Windows in bootcamp) als download, HTPC en Plex server i.c.m. 4x8TB NAS. Mac Mini doet het op zich nog prima, maar kriebelt om wat nieuws in elkaar te zetten. En gezien hij 24/7 aan staat, moet het verbruik natuurlijk niet te gek worden. De processor staat vast, maar verder open voor suggesties. :)
Red ik denk ik niet met een: pricewatch: Mini-box picoPSU 90?

#ProductPrijsSubtotaal
1Intel Core i3-8100 Tray€ 135,50€ 135,50
1ASRock B360M-ITX/ac€ 100,50€ 100,50
1Fractal Design Node 202€ 69,95€ 69,95
1Noctua NH-L9i€ 39,71€ 39,71
1Crucial CT8G4DFS824A€ 62,90€ 62,90
1Seasonic SSP-300SFG 300W 80+ Gold€ 51,-€ 51,-
1Crucial MX500 2,5" 500GB€ 78,50€ 78,50
Bekijk collectie
Importeer producten
Totaal€ 538,06

9040 Wp | Zendure 15,4 kWh | MHI SCM60/SCM40/SRC25


Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

Deze handige Harry koopt een PicoPSU zonder 12 aux voor de CPU |:(

Weet iemand een adresje voor de 160-XT? Pricewatch geeft geen prijzen aan. Mag buitenland zijn, speel nu met een 550 Watt voeding om te testen :)

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • 0 Henk 'm!
Je kan prima molex/sata naar P4 los kopen.

pricewatch: Delock Adapter P4 Kabel 4St Molex/4St P4 15cm

[ Voor 66% gewijzigd door FireDrunk op 01-11-2018 21:57 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

I know, maar ik heb 2 weken geleden besloten dat ik het met een PicoPSU 80 ging redden. Maar onder full load begin ik een beetje te twijfelen. Misschien toch iets te enthousiast geweest.

6x 2,5" disks + Fujitsu + i3-8300. Maargoed, voor een euro kan ik het ook even testen natuurlijk.

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • +3 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

mrmrmr schreef op donderdag 1 november 2018 @ 23:28:
Als je langdurig boven 70-80W of boven de specificatie van 5V zit dan zou je kunnen overwegen om een PicoPSU 160-XT met 120W Leicke adapter te kiezen, die zijn het makkelijkst verkrijgbaar bij amazon.de.
Mogelijk wat simultane plex transcodes. Ik ga het meten en kom er op terug.

Wel wat andere first findings. Ik gebruik FreeNAS en ik heb natuurlijk m'n planning niet helemaal goed op orde :+. FreeNAS is een appliance, en gebruikt de volledige SSD. Je kan daar dus geen VM's oid op kwijt. Nu vind ik 256GB een beetje teveel van het goede. Gelukkig heeft de Fujitsu een interne USB poort op het bord zitten. Ik ga FreeNAS dus verhuizen naar een 32GB USB drive.

Daarnaast dacht ik dat m'n ZFS pool gruwelijk traag was, maar ifconfig gaf me meer duidelijkheid:

[pre]media: Ethernet autoselect (10baseT/UTP <full-duplex>)[/]
Ik ben aan het uitzoeken of dat een chipset dingetje is of dat ik iets kan forceren. Anders zet ik er tijdelijk een Intel netwerkkaart in. Die heb ik nog op de plank liggen.


/edit: na een reboot gefixt. Schijnbaar pakte FreeNAS 'm niet lekker op terwijl het systeem aan stond.

Nog een footootje voor de liefhebber (zonder voeding nog):

Afbeeldingslocatie: https://tweakers.net/ext/f/fPML79ksnMyolqpZTauXY5Cx/full.jpg

[ Voor 4% gewijzigd door Bolk op 02-11-2018 11:41 ]

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • 0 Henk 'm!

  • hardware-lover
  • Registratie: Augustus 2005
  • Niet online

hardware-lover

verder kijken dan ......

[weg] info al gedeeld zie ik.

[ Voor 92% gewijzigd door hardware-lover op 02-11-2018 12:27 ]

Testing, one, two ...


Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

mrmrmr schreef op vrijdag 2 november 2018 @ 11:52:
+1 voor alleen al de foto :)

Wat is dat bordje in een insteekslotdekplaat?
Fan controller van Fractal. Kunnen 3 casefans op aangesloten worden. Zit een potmetertje aan.

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • 0 Henk 'm!

  • Raydo88
  • Registratie: April 2012
  • Laatst online: 05-09 21:51
Bolk schreef op vrijdag 2 november 2018 @ 11:39:
[...]


Mogelijk wat simultane plex transcodes. Ik ga het meten en kom er op terug.

Wel wat andere first findings. Ik gebruik FreeNAS en ik heb natuurlijk m'n planning niet helemaal goed op orde :+. FreeNAS is een appliance, en gebruikt de volledige SSD. Je kan daar dus geen VM's oid op kwijt. Nu vind ik 256GB een beetje teveel van het goede. Gelukkig heeft de Fujitsu een interne USB poort op het bord zitten. Ik ga FreeNAS dus verhuizen naar een 32GB USB drive.

Daarnaast dacht ik dat m'n ZFS pool gruwelijk traag was, maar ifconfig gaf me meer duidelijkheid:

[pre]media: Ethernet autoselect (10baseT/UTP <full-duplex>)[/]
Ik ben aan het uitzoeken of dat een chipset dingetje is of dat ik iets kan forceren. Anders zet ik er tijdelijk een Intel netwerkkaart in. Die heb ik nog op de plank liggen.


/edit: na een reboot gefixt. Schijnbaar pakte FreeNAS 'm niet lekker op terwijl het systeem aan stond.

Nog een footootje voor de liefhebber (zonder voeding nog):

[Afbeelding]
Die sleeved SATA kabels. :9~

Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Bolk schreef op vrijdag 2 november 2018 @ 11:39:
[...]
Mogelijk wat simultane plex transcodes. Ik ga het meten en kom er op terug.

Wel wat andere first findings. Ik gebruik FreeNAS en ik heb natuurlijk m'n planning niet helemaal goed op orde :+. FreeNAS is een appliance, en gebruikt de volledige SSD. Je kan daar dus geen VM's oid op kwijt. Nu vind ik 256GB een beetje teveel van het goede. Gelukkig heeft de Fujitsu een interne USB poort op het bord zitten. Ik ga FreeNAS dus verhuizen naar een 32GB USB drive.
Die interne USB header is wel interessant - ik was aan het overwegen of je daar bijv ook een L2ARC van zou kunnen maken, of dat een USB / flashdrive daar niet geschikt voor is...

Maar klopt het dan dat je deze hele setup voor alleen FreeNAS hebt? Dan heb je aardig wat speelruimte (vooral qua CPU) :-) FreeNAS op een USB is idd een goed idee. Ik ben zelf aan het overwegen of ik ook evt. FreeNAS als appliance wil installeren voor m'n 4x 5TB pool - op dit moment maakt die gebruik van de ZFSonLinux installatie op de Debian host. Behalve een GUI en wat betere meldingen zie ik nog niet een heel groot voordeel. Wellicht heeft iemand hier nog redenen waarom FreeNAS te verkiezen dan het direct beschikbaar maken via de Proxmox host?
Nice - dat ziet er verdacht bekend uit ;-) Heb je iets van rubber onder je 2.5" HDDs zitten of zie ik dat verkeerd? Nog iets anders: heb bewust geen verdere actieve CPU koeler in gebruik?

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

mdbraber schreef op vrijdag 2 november 2018 @ 13:30:
[...]
Die interne USB header is wel interessant - ik was aan het overwegen of je daar bijv ook een L2ARC van zou kunnen maken, of dat een USB / flashdrive daar niet geschikt voor is...
USB is traag en CPU intensief. Ik zou het niet doen.
Dan liever wat meer geheugen in je machine.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
Wat zou nou eigenlijk de getallen waar op wordt gerekend? Van de V550 weet ik dat 40W is 87.85% en 50W is 90.48%. Hoever gaat een picopsu+adapter daar overheen?

Hoe zit dat met 6x 2.5''. Ik zie, zonder bron, 1W idle voorbij komen. Dan praat je bij 6 disk idle over 6W en bij 3 x Ironwolf over 9W. Dat zou dan inderdaad 3W moeten schelen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
sdk1985 schreef op vrijdag 2 november 2018 @ 13:50:
Wat zou nou eigenlijk de getallen waar op wordt gerekend? Van de V550 weet ik dat 40W is 87.85% en 50W is 90.48%. Hoever gaat een picopsu+adapter daar overheen?

Hoe zit dat met 6x 2.5''. Ik zie, zonder bron, 1W idle voorbij komen. Dan praat je bij 6 disk idle over 6W en bij 3 x Ironwolf over 9W. Dat zou dan inderdaad 3W moeten schelen.
Ik heb 4x2.5" in een build met i3-8100, 32GB ECC, 2x NIC, 1x m.2 NVMe en en 1x normale SSD. Met de disks actief doet het systeem ~23-24W, met de disks in idle doet het systeem ~9W. Ik gebruik een PicoPSU 160-XT met Leicke 120W adapter.

Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

mdbraber schreef op vrijdag 2 november 2018 @ 13:30:
[...]


Die interne USB header is wel interessant - ik was aan het overwegen of je daar bijv ook een L2ARC van zou kunnen maken, of dat een USB / flashdrive daar niet geschikt voor is...

Maar klopt het dan dat je deze hele setup voor alleen FreeNAS hebt? Dan heb je aardig wat speelruimte (vooral qua CPU) :-) FreeNAS op een USB is idd een goed idee. Ik ben zelf aan het overwegen of ik ook evt. FreeNAS als appliance wil installeren voor m'n 4x 5TB pool - op dit moment maakt die gebruik van de ZFSonLinux installatie op de Debian host. Behalve een GUI en wat betere meldingen zie ik nog niet een heel groot voordeel. Wellicht heeft iemand hier nog redenen waarom FreeNAS te verkiezen dan het direct beschikbaar maken via de Proxmox host?


[...]


Nice - dat ziet er verdacht bekend uit ;-) Heb je iets van rubber onder je 2.5" HDDs zitten of zie ik dat verkeerd? Nog iets anders: heb bewust geen verdere actieve CPU koeler in gebruik?
Ik heb de rubbertjes van de externe HDD cases afgeknipt en eronder gelegd. Dan staan ze wat stabieler met een beetje demping.

Ik gebruik idd geen cpu fan, wel de casefan. Onder full load lijkt dat geen probleem.

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • 0 Henk 'm!
Bolk schreef op vrijdag 2 november 2018 @ 12:27:
Fan controller van Fractal. Kunnen 3 casefans op aangesloten worden. Zit een potmetertje aan.
Handig, maar dat kan ook extra verbruik opleveren.

Ik heb fan controllers op mijn Aerocool DS200 kasten met display en tiptoetsen, maar ze verbruiken te veel. Ik heb het ook niet nodig voor mijn toepassing.

Acties:
  • +1 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
GermanPivo schreef op donderdag 1 november 2018 @ 16:17:
Op dit moment heb ik een 2012 Mac Mini (Windows in bootcamp) als download, HTPC en Plex server i.c.m. 4x8TB NAS. Mac Mini doet het op zich nog prima, maar kriebelt om wat nieuws in elkaar te zetten. En gezien hij 24/7 aan staat, moet het verbruik natuurlijk niet te gek worden. De processor staat vast, maar verder open voor suggesties. :)
Wil je die 4-bay NAS houden of die MacMini+NAS beide vervangen door 1 server? Dat maakt nogal uit qua config natuurlijk. Voor beide opties is wat te zeggen, al zal consolideren naar 1 systeem in principe het zuinigst uitpakken. Een beetje recente 4-bay NAS plus een 2012 Mac Mini levert samen tweedehands ws zodanig veel op dat je er nauwelijks geld bij hoeft te leggen.

Houd je de NAS draaiend dan zou ik voor een zo compact en stil mogelijk Thin-mITX of zelfs Mini-STX systeem gaan met SODIMMs en een M.2 SSD, wil je beide combineren dan kom je idd uit bij een wat uitgebreider mATX of mITX systeem in een flinke kast met dito voeding & koeling.

[ Voor 6% gewijzigd door Dreamvoid op 02-11-2018 21:03 ]


Acties:
  • 0 Henk 'm!
@sdk1985
1,1W draaiend wordt genoemd in de topic start bij een specifiek 2.5" model, bron is de spec sheet.

Een PicoPSU kies je niet voor 40W idle verbruik maar voor lager verbruik. Hoe lager het idle verbruik, hoe groter het relatieve voordeel van PicoPSU ten opzichte van ATX voedingen. De efficientie van ATX voedingen is doorgaans slecht bij laag verbruik. Er zijn enkele uitzonderingen (bepaalde Seasonic's), maar die zijn fors duurder.

Als je een server optuigt met allerlei extra's dan is het snel over met de zuinigheid, ook al heb je een zuinig moederbord, als het besturingssysteem spaarstanden niet benut en er allerlei extra hardware in hangt zoals 10 Gbe of quad LAN kaarten of 3.5" hard disks, dan worden de mogelijkheden niet optimaal benut.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
mrmrmr schreef op vrijdag 2 november 2018 @ 21:03:
@sdk1985
1,1W draaiend wordt genoemd in de topic start bij een specifiek 2.5" model, bron is de spec sheet.

Een PicoPSU kies je niet voor 40W idle verbruik maar voor lager verbruik. Hoe lager het idle verbruik, hoe groter het relatieve voordeel van PicoPSU ten opzichte van ATX voedingen. De efficientie van ATX voedingen is doorgaans slecht bij laag verbruik. Er zijn enkele uitzonderingen (bepaalde Seasonic's), maar die zijn fors duurder.

Als je een server optuigt met allerlei extra's dan is het snel over met de zuinigheid, ook al heb je een zuinig moederbord, als het besturingssysteem spaarstanden niet benut en er allerlei extra hardware in hangt zoals 10 Gbe of quad LAN kaarten of 3.5" hard disks, dan worden de mogelijkheden niet optimaal benut.
Mja oke maar neem aan dat er wel getallen zijn. Je gaat toch niet op de gok moeite doen? Niemand die bij de genoemde 20W een pico psu met een V550 heeft vergeleken?

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
Hardware.info heeft vergelijkingsmateriaal op 22,5W. Je kunt niet zomaar cijfers van verschillende testers vergelijken als het belastingsprofiel over de verschillende spanningslijnen anders is. En ook de rest van de testprocedures kunnen danig van elkaar verschillen.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
mrmrmr schreef op vrijdag 2 november 2018 @ 22:02:
Hardware.info heeft vergelijkingsmateriaal op 22,5W. Je kunt niet zomaar cijfers van verschillende testers vergelijken als het belastingsprofiel over de verschillende spanningslijnen anders is. En ook de rest van de testprocedures kunnen danig van elkaar verschillen.
Dat snap ik daarom vraag ik ook of iemand een directe vergelijking heeft gemaakt :). Zelf toevallig recent mijn HX750W in mijn desktop pc vervangen voor een V550 en toen meteen even uitgemeten wat idle en load het verschil was. Kan me voorstellen dat iemand die met een pico psu gaat bouwen er voor de zekerheid ook even een v550 aan hangt (30 dagen retour ftw). Concreter dan zo'n test wordt het niet.

Op review vergelijken en extrapoleren is inderdaad erg lastig. Bij uitzoeken nieuwe voeding opgemerkt dat er tussen twee modellen uit een serie enorme verschillen kunnen bestaan. HWI was een goede suggestie, even paar in tabelletje gezet https://nl.hardware.info/...243571/sdk/voedingen-pico Dat is dan tot 80W en dan win je ongeveer 2% op 22.5W. Of die 22.5W van HWI dan 1 op 1 vergelijkbaar is met wat je op een echte NAS zou zien is natuurlijk een andere vraag.

De PicoPSU Power kit 150 + 102W Adapter is met 77% bij HWI 5% slechter, de hierboven aangeraden combo met 120W adapter moet zich in dat licht dan wel nog bewijzen. Op basis van de HWI resultaten zou het zo maar kunnen dat de V550 het beter doet... Maar zonder test kun je daar echt niets over zeggen. Echter dat het aangeraden wordt impliceert daardoor het wel onderzocht is. Wellicht een test die ik over het hoofd heb gezien?

[ Voor 4% gewijzigd door sdk1985 op 02-11-2018 23:12 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • GermanPivo
  • Registratie: September 2010
  • Laatst online: 18:41
Dreamvoid schreef op vrijdag 2 november 2018 @ 21:00:
[...]

Wil je die 4-bay NAS houden of die MacMini+NAS beide vervangen door 1 server? Dat maakt nogal uit qua config natuurlijk. Voor beide opties is wat te zeggen, al zal consolideren naar 1 systeem in principe het zuinigst uitpakken. Een beetje recente 4-bay NAS plus een 2012 Mac Mini levert samen tweedehands ws zodanig veel op dat je er nauwelijks geld bij hoeft te leggen.

Houd je de NAS draaiend dan zou ik voor een zo compact en stil mogelijk Thin-mITX of zelfs Mini-STX systeem gaan met SODIMMs en een M.2 SSD, wil je beide combineren dan kom je idd uit bij een wat uitgebreider mATX of mITX systeem in een flinke kast met dito voeding & koeling.
NAS wil ik op dit moment blijven gebruiken, staat sowieso niet 24/7 te draaien. Goede suggestie om voor een Thin-mITX systeem te gaan. i3-8100 i.c.m. Thin-MITX beperkt de keuze qua mobo flink. Denk dat het dan iets als onderstaande gaat worden :).

#ProductPrijsSubtotaal
1Intel Core i3-8100 Tray€ 132,-€ 132,-
1Asus Prime H310T€ 88,75€ 88,75
1Silverstone PT13€ 52,90€ 52,90
1Silverstone NT07 (SST-NT07-115X)€ 21,90€ 21,90
1Crucial CT8G4SFS824A€ 59,90€ 59,90
1Mini-box picoPSU 80 + 60W Adapter Power Kit€ 48,-€ 48,-
1Crucial MX500 m.2 500GB€ 81,-€ 81,-
Bekijk collectie
Importeer producten
Totaal€ 484,45

9040 Wp | Zendure 15,4 kWh | MHI SCM60/SCM40/SRC25


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

mrmrmr schreef op vrijdag 2 november 2018 @ 20:43:
[...]


Handig, maar dat kan ook extra verbruik opleveren.
En wat als je er zelf een maakt? Een PWM-fan-controller is met 2 555jes en wat andere standaard componenten zo gemaakt. Geen verlies in verbruik omdat het pulssignaal voor de snelheid niet afhankelijk is van een spanningsregelaar, terwijl 3-pins fans die wel nodig hebben met verliezen in verbruik tot gevolg.

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!
@sdk1985

Zie de topic start voor meer informatie. De Edac 102W adapter uit de kit van JPF is vreselijk slecht, er zit zelfs een ventilatortje in om de zaak te koelen (warmte = hoog energieverbruik). Aangezien de adapter de bron is van alles, kan de PicoPSU daar niets meer aan verbeteren. Het is dus zaak een goede zuinige adapter te kiezen.

De Duitse Leicke 120W adapter heeft zich uitgebreid bewezen in de praktijk, het draait bij onze oosterburen in vele energiezuinige systemen. Zie de topic start (2e post onderaan) voor de zuinigheidslijst van Hardwareluxx en kijk welke adapters goed scoren.

Je moet weten dat de meeste ATX voedingen een steeds stijlere duik nemen bij minder dan zo'n 40W, bij 1% belasting kan het uitkomen op ~25% efficientie. Bij 10W verbruik aan de stekker is het heel normaal dat meer dan de helft van het vermogen verloren gaat aan warmteontwikkeling in een ATX voeding. Een tamelijk goede ATX voeding scoort 64% efficientie (zie TS) bij 16,4W. Dat wil zeggen dat 6W verloren gaat.

10-15W is de ruimte waaronder de meeste redelijk zuinig moederborden presteren als server (SSD/USB toetsenbord/muis/monitor/netwerk). Bepaalde Fujitsu's zijn buitencategorie, die zijn nog behoorlijk wat zuiniger (ongeveer de helft, als je appels met appels vergelijkt). Bij zuinige systemen is het nog meer van belang een zuinige voeding te hebben.

@Raven

Weerstanden verliezen energie, maar de vraag is hoeveel. Je kunt ventilatoren misschien beter electronisch regelen via het BIOS of als je weinig koeling nodig hebt door de ventilator permanent een lagere spanning te geven (7V of zelfs 5V) of een zuinige laag RPM ventilator te kiezen.

[ Voor 9% gewijzigd door mrmrmr op 03-11-2018 11:31 ]


Acties:
  • +1 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
GermanPivo schreef op zaterdag 3 november 2018 @ 10:22:
[...]


NAS wil ik op dit moment blijven gebruiken, staat sowieso niet 24/7 te draaien. Goede suggestie om voor een Thin-mITX systeem te gaan. i3-8100 i.c.m. Thin-MITX beperkt de keuze qua mobo flink. Denk dat het dan iets als onderstaande gaat worden :).

Je hebt geen PicoPSU meer nodig met dat bordje, die heeft zelf al een 19V aansluiting achterop. Je hebt alleen een willekeurige laptop voeding (met zo'n dikke ronde plug, 7.4mm) nodig, bv eentje van Dell of HP. 65W zal voldoende zijn.

Voor WiFi/Bluetooth zal je nog een extra M.2 kaartje nodig hebben, maar als je 'm via ethernet aan je netwerk hangt (lijkt me handig met die NAS) hoeft dat natuurlijk niet echt.

Acties:
  • 0 Henk 'm!

  • necessaryevil
  • Registratie: September 2005
  • Laatst online: 12-09 14:20
Ik heb vandaag een verkoper op marktplaats aangeschreven voor twee Dell voedingen, de H235E-00 en de L235p-01. Ik zal ze binnenkort eens load testen. Ik heb overigens nog geen zuinige server dus dat worden een paar dikke weerstanden :)

De belangstelling komt vanuit deze twee test van twee gelijkende Dell voedingen, ze doen het beter dan de picopsu onder lage belasting.

Acties:
  • 0 Henk 'm!
Bij voedingen bedoelt voor kant-en-klaar merkcomputers moet je oppassen dat je een echte ATX voeding koopt met 3,3V, 5V en 12V. Veel grote computermerken maken 12V moederborden en gebruiken een (zuinige) voeding die alleen 12V heeft.

De tests op het silentpcreview forum meten pas bij ~18W en de meeste moederborden doen ~10W in standaard zuinige server configuratie. Ze specificeren niet nauwkeurig welke adapter er is toegepast, maar dat is toch erg belangrijk. Met een onzuinige adapter kan het nooit iets worden. De PicoPSU geeft 12V rechtstreeks door en produceert zelf alleen 3,3V en 5V. Deze test is dus niet voldoende betrouwbaar. De metingen bij hoge belasting zijn niet van toepassing bij de meeste servers aangezien die het grootste deel van de tijd niets doen. Daarom is juist het verbruik onder idle zo belangrijk.

Op de markt is er een groot gat wat betreft voedingen met laag vermogen. Het is mogelijk voedingen veel zuiniger te bouwen, maar ze worden niet aangeboden aan consumenten (te duur?). Wat meer concurrentie voor PicoPSU wat betreft zuinigheid zou ook niet verkeerd zijn. Er zijn inmiddels zuinige voedingonderdelen verkrijgbaar. Zie elders in dit topic.

[ Voor 75% gewijzigd door mrmrmr op 03-11-2018 12:53 ]


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

mrmrmr schreef op zaterdag 3 november 2018 @ 10:24:
@Raven

Weerstanden verliezen energie, maar de vraag is hoeveel. Je kunt ventilatoren misschien beter electronisch regelen via het BIOS of als je weinig koeling nodig hebt door de ventilator permanent een lagere spanning te geven (7V of zelfs 5V) of een zuinige laag RPM ventilator te kiezen.
Maar daar heb je bij PWM-fancontrollers toch geen last van? Energieverlies via weerstanden bedoel ik dan, omdat de spanning niet aangepast wordt, er moet echter wel een pulssignaal gemaakt worden. Een 555 verbruikt zo uit mijn hoofd 30mW bij 5V, voor PWM 2 nodig en dan valt het alsnog mee qua verbruik.
(Even er van uitgaand dat er geen PWM-aansluiting voor casefans aanwezig is.)

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

  • necessaryevil
  • Registratie: September 2005
  • Laatst online: 12-09 14:20
De Dell voedingen zijn waarschijnlijk geen ATX,maar er komen wel dezelfde spanningen uit. Ik moet dus wat gaan modden. In de links op SPCR wordt er een 200W fanless brick van shuttle gebruikt, maar ik zal proberen een goeie test te doen van de voedingen. Ik denk dat de grootste beperking de energiemeter is, ik heb een Cresta RCE-1106. Die komt goed uit de test maar misschien moet ik nog iets anders verzinnen.

//edit
Hier een spreadsheet van mij, gebaseerd op de getallen van hardware.info; ~10W lijkt het minimum wat de Cresta goed kan meten.

[ Voor 11% gewijzigd door necessaryevil op 03-11-2018 15:48 ]


Acties:
  • +1 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

Zo, m'n PicoPSU 160-XT is binnen. De Brennenstuhl meet het volgende voor deze build:

#ProductPrijsSubtotaal
1Intel Core i3-8300 Boxed€ 168,19€ 168,19
1Fujitsu D3644-B€ 147,50€ 147,50
1Fractal Design Define Mini€ 81,02€ 81,02
6Seagate Backup Plus Portable Drive (STDR) 5TB Zwart€ 130,-€ 780,-
1Crucial CT2K16G4WFD824A€ 375,92€ 375,92
1Mini-box picoPSU PicoPSU-160-XT€ 0,-€ 0,-
1Samsung 970 Evo 500GB€ 126,47€ 126,47
Bekijk collectie
Importeer producten
Totaal€ 1.679,10


Ik ben nog niet heel erg onder de indruk:

Standby0.9W
Boot (max)57W
Idle22W
Idle (dubbele casefan)24W
Full load52W


Het verschil tussen een 120W Leicke adapter en een 60W Seasonic is -1W in het voordeel van de Seasonic.

In FreeNAS heb ik autotune en powerd enabled. Ik ga me verdiepen in het finetunen van FreeNAS/FreeBSD en hopelijk kan ik er (veel) meer uithalen nog. To be continued...

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • +2 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 18-09 19:08
Bolk schreef op zaterdag 3 november 2018 @ 14:23:
Zo, m'n PicoPSU 160-XT is binnen. De Brennenstuhl meet het volgende voor deze build:



Ik ben nog niet heel erg onder de indruk:



Het verschil tussen een 120W Leicke adapter en een 60W Seasonic is -1W in het voordeel van de Seasonic.

In FreeNAS heb ik autotune en powerd enabled. Ik ga me verdiepen in het finetunen van FreeNAS/FreeBSD en hopelijk kan ik er (veel) meer uithalen nog. To be continued...
Bij de 60W voeding is de piekbelasting 95% en idle 40%. Bij 120W 47% en 20%. Gevoelsmatig kan het wel kloppen dat je bij een idle belasting van 40% een hoger rendement haalt dan bij een idle belasting van 20%. Zeg maar 5% verschil bij 22W, dat maakt 1,1W. Scheelt op jaarbasis toch weer 2 euro aan elektriciteit. Dat lijkt lachwekkend weinig maar met veel apparaten in huis begint het toch aan te tikken. Een lager gebruik betekent minder geld uitgeven, minder energie opgewekt en daarmee het milieu een stukje minder belast. Mensen redeneren doorgaans in deze volgorde :)

Acties:
  • +3 Henk 'm!
mrmrmr schreef op zaterdag 3 november 2018 @ 10:24:
10-15W is de ruimte waaronder de meeste redelijk zuinig moederborden presteren als server (SSD/USB toetsenbord/muis/monitor/netwerk). Bepaalde Fujitsu's zijn buitencategorie, die zijn nog behoorlijk wat zuiniger (ongeveer de helft, als je appels met appels vergelijkt). Bij zuinige systemen is het nog meer van belang een zuinige voeding te hebben.
Hmmmm, 10-15W als zuinige server in 2018!

Even een trip down memory lane 8)

Zoals in de TS te zien, is een 10-15W verbruik gelabeld als Afbeeldingslocatie: https://ic.tweakimg.net/camo/a797f2b4f27c66f665eb1f0bbe00d0ed2bbee82f/?url=http%3A%2F%2Fi47.tinypic.com%2Fvsge8m.png.

Afbeeldingslocatie: https://ic.tweakimg.net/camo/638b7a99d062bfb472b4cf36151281e7c7941adc/?url=http%3A%2F%2Fi45.tinypic.com%2F2na1dgx.png


Het label Afbeeldingslocatie: https://ic.tweakimg.net/camo/a797f2b4f27c66f665eb1f0bbe00d0ed2bbee82f/?url=http%3A%2F%2Fi47.tinypic.com%2Fvsge8m.png heb ik in februari 2013 (!!) bedacht omdat ik mijn net gebouwde server een leuk label wilde geven. De rest van de labels kwam daaruit voort.

Mijn server, gebaseerd op een Intel DH77DF en 3570K als CPU zat met PicoPSU op 11,2W in idle en met een BeQuiet E9/400 op 13,5W. Een verschil dus van 2,3W in idle. Vanwege een zes-tal aantal 3.5" schijven was een PicoPSU geen optie om mee door te gaan. Deze server met 6 3.5" schijven draait nog steeds en met de schijven in idle en wat USB apparatuur komt deze net boven de 22W idle uit.

Je ziet ook dat @mux 6 jaar geleden al in staat was om een bestaand moederbord zodanig te modden dat het van een idle verbruik van 11,6W naar 6,5W ging. Een flinke prestatie als je nu kijkt wat er nu mainstream is.

Afbeeldingslocatie: http://i66.tinypic.com/n20nqh.png

Afhankelijk hoe je kijkt zijn er in 6 jaar heel wat stappen gemaakt en zitten we inmiddels op een Afbeeldingslocatie: https://static.tweakers.net/ext/f/HWywPvrcGq9FGj1AlUSuxhwk/full.png label:
  • _/-\o_ Een Fujitsu systeem is met 3W in idle zuiniger dan een gemiddelde 3.5" schijf in idle
  • _/-\o_ Met 2.5" schijven is een idle systeemverbruik van ruim onder de 10W mogelijk geworden
Aan de andere kant zou je na 6 jaar ook mogen verwachten dat dit eerder gemeengoed is dan uitzondering, want zover zijn we nog niet:
  • }:O Veel tweakers zijn nog steeds blij als hun setup zonder schijven onder de 10W uitkomt
  • }:O ATX voedingen zijn nog steeds niet echt gemaakt op die zuinige sub-3W systemen. Waar blijven de Platinum ATX voedingen van 150W met een rendement van 90% bij 5W load?
Maar we zijn op de goed weg. Nog even en een Raspberry PI 3B+ met zijn 2W in idle wordt verslagen 8)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Topicstarter
Plank2 staat niet in die lijst, die deed 4W uit het stopcontact :)

Acties:
  • +1 Henk 'm!
Bolk schreef op zaterdag 3 november 2018 @ 14:23:
Zo, m'n PicoPSU 160-XT is binnen. De Brennenstuhl meet het volgende voor deze build:



Ik ben nog niet heel erg onder de indruk:



Het verschil tussen een 120W Leicke adapter en een 60W Seasonic is -1W in het voordeel van de Seasonic.

In FreeNAS heb ik autotune en powerd enabled. Ik ga me verdiepen in het finetunen van FreeNAS/FreeBSD en hopelijk kan ik er (veel) meer uithalen nog. To be continued...
Trek de schijven er voor de grap eens uit ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Bolk schreef op zaterdag 3 november 2018 @ 14:23:
Zo, m'n PicoPSU 160-XT is binnen. De Brennenstuhl meet het volgende voor deze build:



Ik ben nog niet heel erg onder de indruk:



Het verschil tussen een 120W Leicke adapter en een 60W Seasonic is -1W in het voordeel van de Seasonic.

In FreeNAS heb ik autotune en powerd enabled. Ik ga me verdiepen in het finetunen van FreeNAS/FreeBSD en hopelijk kan ik er (veel) meer uithalen nog. To be continued...
Is idle met de schijven ook idle of de schijven spinning?

Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

mdbraber schreef op zaterdag 3 november 2018 @ 16:22:
[...]


Is idle met de schijven ook idle of de schijven spinning?
Spinning. Wat voor O/S draai jij momenteel?
FireDrunk schreef op zaterdag 3 november 2018 @ 16:20:
[...]

Trek de schijven er voor de grap eens uit ;)
Ga ik nog doen idd :)

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • 0 Henk 'm!
mux schreef op zaterdag 3 november 2018 @ 16:03:
Plank2 staat niet in die lijst, die deed 4W uit het stopcontact :)
Ja zeg, die is uit 2014. Dit is nog de originele lijst die ik in Februari 2013 heb gemaakt 8)

Overigens zit je mSata naar Sata bordje ook nog steeds in mijn server uit 2012!

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!
@Raven

Het is misschien beter de fancontroller op het moederbord of een lagere spanning te gebruiken. Niet altijd, omdat elke situatie anders is. Bij een zuinige ventilator is het verbruik ongeveer 0,2W (200mW). Als je 30mW zou verbruiken om het verbruik omlaag te halen naar 100mW (+30mW) is er duidelijk profijt, maar de vraag is of het niet nog zuiniger kan via de manieren die ik al noemde (on board PWM of spanning verlagen).

Een normale fan gebruikt ongeveer 0,5-1,0W. Daar is het profijt dus hoger. Wat ik dus zeg is: het is situatieafhankelijk wat het beste is. Soms is een fancontroller van de kast voorzien van een molex voeding en dat betekent vaak niet veel goeds qua verbruik, dat kan relatief behoorlijk oplopen, zelfs meer dan de fan zelf verbruikt. Daarom raad ik aan die te vermijden.

Alle kleine verbruikjes tellen natuurlijk op.

@Bolk

Bedankt voor de metingen, dat geeft aan iedereen inzicht. De standby waarde komt exact overeen met wat ik meet op een Fujtisu D3417-B2.

Je hebt een op *BSD gebaseerd besturingssysteem. Daarmee zit je in een standaard configuratie op circa 8W AC (het kan een tijdje duren voordat het afdaalt naar dit niveau). De harde schijven verbruiken ca. 1.2W per stuk volgens Seagate, dat is dus 7,2W (DC). Dat is samen 15,2W. Door draaiende processen komt er grof geschat mogelijk nog eens 5W bij. Dat is ~20W. Dus daar zit je al dicht bij. Met wat tuning zoals je al van plan was kun je daar misschien wel op terecht komen. Kijk ook eens naar de kleine verbruikers zoals ventilatoren, fan controllers, lampjes. Meet het maar eens met alle fans en fan controller uitgezet, dan kun je het verschil zien.

Als je wilt zien waartoe je systeem in staat is, dan kun je het beste testen met Windows 10 en de laatste video en Intel SATA drivers. Als het goed is kun je het gewoon op een andere SATA SSD installeren zodat je werk niet verloren gaat. Misschien kun je de FreeNAS functies die je wilt ook op een zuinige Linux distributie bereiken. Linux is meestal zuiniger, op wat archaische distributies na.

[ Voor 41% gewijzigd door mrmrmr op 03-11-2018 21:14 ]


Acties:
  • +9 Henk 'm!
Ik heb een Fujitsu D3643-H12 moederbord getest met B360 chipset en een Pentium Gold G5400 met Windows 10 Pro 1703, passieve koeling en de laatste Intel drivers en standaard BIOS instellingen.

#ProductPrijsSubtotaal
1Intel Pentium Gold G5400 Boxed€ 79,-€ 79,-
1Fujitsu D3643-H€ 90,-€ 90,-
1Cooler Master MasterBox Q300L€ 36,-€ 36,-
1Mini-box P4 convertercable (for PicoPSU)€ 4,26€ 4,26
1Arctic Alpine 11 Passive€ 11,95€ 11,95
1G.Skill Value F4-2133C15S-8GNS€ 74,81€ 74,81
1Mini-box picoPSU 80 + 60W Adapter Power Kit€ 48,50€ 48,50
1Samsung 840 EVO 250GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 344,52

Drivers: inf install Coffee Lake, LM219 LAN, Intel RST, 610 graphics, geen IME drivers, geen Fuj0430 device driver. De wijze van installatie is handmatig, de inf via de Explorer, "Install" optie. Daardoor worden niet veel extra's geinstalleerd.

Windows 10 Fujitsu D3643-H12
VerbruikMonitorUSB muisUSB toetsenbordLAN
3,7Wslaap
3,4Wslaap--
2,9Wslaap---


Ter vergelijking de uitslag van een test met een D3417-B21 moederbord met iets andere hardware en andere driver versies.

Windows 10 Fujitsu D3417-B21
VerbruikMonitorUSB muisUSB toetsenbordLAN
4,6Wslaap
4,3Wslaap-
3,6Wslaap--
2,9Wslaap---
2,9Wstekker---


Het energieverbruik zonder randapparatuur of netwerk - niet echt praktisch, is met 2,9W even hoog als het verbruik van de D3417-B21 die eerder hier is getest. Voor installatie van de drivers was het verbruik 6,1W met Maximum Power Savings. Windows 10 gebruikt standaard een 800x600 driver en het installeert geen netwerkdriver.
Opvallend is dat het verbruik met USB invoerapparaten en netwerk actief verbeterd lijkt te zijn, van 4,6W (D3417-B21) naar 3,7W (D3643-H1). Dat zal in de praktijk merkbaar zijn.

Edit:
Met een Seagate ST4000LM024 2.5" 4TB hard disk neemt het verbruik toe van 3,7W naar 4,5W. Het idle verbruik van deze schijf is dus 0,8W. Als je er 4 zou hebben, is het verbruik te berekenen op 6,9W. Bij 6 schijven (niet mogelijk bij dit bord, daarvoor heb je de D3644-B nodig) komt de rekensom uit op 8,5W.

Als de harde schijf in spin-down gaat zakt het verbruik met 0,6W naar 3,9W. Deze standby stand verbruikt dus ongeveer 0,2W. Bij 4 disks komt de berekening uit op 6,1W en bij 6 disks 7,3W.

Bij deze meting zijn diverse services uitgeschakeld omdat die de schijf benaderen.

De testprocedure (gebruikt meetmateriaal) is min of meer beschreven in deze blogpost.

Edit2:
Nog een test met een Intel I211AT insteekkaart van LR-Link, naast de Intel LM219 die op het moederbord is geintegreerd.

Windows 10 Fujitsu D3643-H12 met LR-Link LREC9202CT
VerbruikMonitorUSB muisUSB toetsenbordLAN LM219LAN I211AT
4,3Wslaap
3,9Wslaap--
3,6Wslaap---
3,4Wslaap---
3,1Wslaap----


De server zal gebruikt worden met 2 netwerkkaarten, zonder USB apparaten (aangegeven in groen in de tabel hierboven). Het verbruik is dan 3,9W in idle onder Windows. Dit zal nog wijzigen omdat ik een ander besturingssysteem zal gebruiken en er een aantal services gaan draaien.

Uit de test blijkt dat de onboard Intel LM219 chip circa 0,2W minder verbruikt dan de PCIe insteekkaart met I211AT chip als de verbinding is verbroken. Er worden weinig LAN kaarten aangeboden met I211AT controller.

Ik ben best tevreden met deze resultaten. De keuze was tussen een minder zuinig moederbord met 2 onboard NIC's, een redelijk zuinig moederbord met 2 onboard NIC's en een zwakke N-processor of bovenstaande configuratie. De keuze van de D3643-H was een beetje een gok boven de voorganger D3401-B2. Ik had gerekend op een praktijkverbruik onder 8W, en ik heb er vertrouwen in dat dat zal lukken.

Edit3:
Ik heb vier oudere ATX voedingen vergeleken met de PicoPSU. Alle ATX formaat voedingen hebben 80plus certificatie en waren destijds (6-10 jaar geleden) betaalbare voedingen met goede efficiëntie.

De voedingen zijn:
Antec EarthWatts EA-380 (80plus)
Antec EarthWatts EA-380 Green (80plus bronze)
be quiet! StraightPower BQT E9-400W (80plus gold)
Jumper 300G (80plus gold)
Mini-Box PicoPSU 80 met Seasonic 0601HE-12 adapter (PicoPSU 80/60 kit)

De tests zijn uitgevoerd met Debian Stretch 9.6 x64 met 4.18.0 bpo kernel als besturingssysteem. Beide netwerkaansluitingen zijn actief.

Het verbruik in Watts weergegeven in een grafiek:Afbeeldingslocatie: https://tweakers.net/ext/f/4Ty6bMJ1lxlchdlYC4nAYGhA/full.png

verbruik van voedingen in Watts
statusstandEA-380E9-400W300GEA-380 GreenPicoPSU
geen lastuitgeschakeld0.10.00.10.00.4
geen lastaan1.40.20.40.30.4
computeraan14.713.013.812.58.1
powertopmonitor aan12.010.210.38.95.1
powertopmonitor uit11.19.38.77.84.2

Hieruit blijkt duidelijk dat de aanduiding 80plus Gold versus Bronze niet indicatief is voor zuinigheid bij lage belasting. De 80plus Bronze gecertificeerde Antec EarthWatts EA-380 Green doet het beter dan de Gold gecertificeerde Jumper 300G of be quiet! StraightPower E9-400 voeding bij circa 7W belasting.
Verder blijkt dat alle geteste ATX formaat voedingen waarschijnlijk onder 50% efficiëntie scoren bij de laagste belasting. Om dat eens wat beter te bekijken is de volgende tabel gemaakt, waarbij de PicoPSU de norm is (100%). In werkelijkheid is de PicoPSU zeker niet 100% efficient. Het betekent dat bijvoorbeeld een score van 50% op een werkelijke efficiëntie zou kunnen duiden van misschien zo rond 42%, gerekend met -15%.

efficiëntie vergeleken met referentie PicoPSU (=100%)
EA-380E9-400W300GEA-380 GreenPicoPSUPicoPSU (W)
400.0400.0100.00.4
28.6200.0100.0133.3100.00.4
55.162.358.764.8100.08.1
42.550.049.557.3100.05.1
37.845.248.353.8100.04.2

efficiëntie vergeleken met referentie PicoPSU (in Watts)
EA-380E9-400W300GEA-380 GreenPicoPSU
-0.3-0.4-0.3-0.40.0
1.0-0.20.0-0.10.0
6.64.95.74.40.0
6.95.15.23.80.0
6.95.14.53.60.0

Bovenstaande tabel laat de absolute verschillen zien. Een positief getal is het meerverbruik ten opzichte van de geteste PicoPSU en een negatief getal minderverbruik. De besparing op energieverbruik beweegt zich tussen 3,6 en 6,9W bij de geteste voedingen, dat levert een besparing in electriciteitskosten op van € 7,20 tot € 13,80 per jaar (€ 2 per Watt per jaar). De terugverdientijd varieert van 3,6 tot 6,7 jaar.

Edit 4:
Omdat ik ook wel nieuwsgierig was naar de verhoudingen tussen specifieke types PicoPSU en soortgelijke voedingen heb ik met de mij beschikbare voedingen tests uitgevoerd. Ik heb drie 12V adapters gebruikt in de test, een Seasonic 60W, een Leicke 120W adapter en een XP Power adapter. De XP Power VES120PS12 en Seasonic 0601HE-12 adapters hebben beide DOE Level VI certificering.

Mini-Box PicoPSU 80 met Seasonic 0601HE-12 adapter (P80+S)
Mini-Box PicoPSU 80 met Leicke NT03015 adapter (P80+L)
Mini-Box PicoPSU 80 met XP Power VES120PS12 adapter (P80+X)
Mini-Box PicoPSU 160-XT met Seasonic 0601HE-12 adapter (P160+S)
Mini-Box PicoPSU 160-XT met Leicke NT03015 adapter (P160+L)
Mini-Box PicoPSU 160-XT met XP Power VES120PS12 adapter (P160+X)
Pico-Box Z2-ATX-200 met Seasonic 0601HE-12 adapter (Z2+S)
Pico-Box Z2-ATX-200 met Leicke NT03015 adapter (Z2+L)
Pico-Box Z2-ATX-200 met XP Power VES120PS12 adapter (Z2+X)

Afbeeldingslocatie: https://tweakers.net/ext/f/L3SNtu1LI1NIrxOTfLfVzHIo/full.png

statusstandP80+SP80+LP80+XP160+SP160+LP160+XZ2+SZ2+LZ2+X
geen lastalleen adapter0.10.20.10.10.20.10.10.20.1
geen lastshutdown0.40.40.40.60.60.60.80.80.7
computeraan8.17.87.78.48.28.09.08.88.7
powertopmonitor aan5.14.94.85.55.35.16.05.75.6
powertopmonitor uit4.24.13.94.64.44.35.04.84.7

De resultaten lijken niet erg verrassend: de 200W Chinese PicoPSU kloon, waarvan de makers zich bedienen van de merknaam Pico-Box (het Amerikaanse origineel heet Mini-Box PicoPSU), is minder zuinig dan de PicoPSU 160-XT. De PicoPSU-80 is ook zuiniger dan de grotere PicoPSU 160-XT. Onverwacht was dat de Leicke adapter net wat zuiniger lijkt te zijn dan de Seasonic. Dat kan misschien verklaard worden uit het feit dat deze Leicke adapter minder functies aan boord heeft om te voldoen aan allerlei certificaten. Begin dit jaar heeft Leicke certificaten laten maken en misschien is de adapter die momenteel wordt verkocht aangepast om aan de eisen te voldoen. De geteste adapter had ik toen al in huis.

[ Voor 255% gewijzigd door mrmrmr op 16-12-2018 07:05 ]


Acties:
  • 0 Henk 'm!

  • route99
  • Registratie: Augustus 2017
  • Laatst online: 05-06-2024

route99

just passionately curious...

hoe kom je dan met schijven bezetting uit?
ik vind deze cijfers daar pas echt cool.... das immers een reële situatie, en zelfs met een mobo met 6x SATA600 ipv 4x.

[ Voor 9% gewijzigd door route99 op 04-11-2018 04:12 ]


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
route99 schreef op zondag 4 november 2018 @ 04:10:
hoe kom je dan met schijven bezetting uit?
ik vind deze cijfers daar pas echt cool.... das immers een reële situatie, en zelfs met een mobo met 6x SATA600 ipv 4x.
Je moet niet alles geloven wat op internet staat. Die link die je stuurt, die geloof ik niet.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
route99 schreef op zondag 4 november 2018 @ 04:10:
hoe kom je dan met schijven bezetting uit?
ik vind deze cijfers daar pas echt cool.... das immers een reële situatie, en zelfs met een mobo met 6x SATA600 ipv 4x.
@mrmrmr

Welke sevices schakel je uit?

Acties:
  • 0 Henk 'm!
https://www.kitguru.net/c...r-nj450-sxl-psu-review/5/

Eventueel misschien leuk alternatief voor PicoPSU gebruikers die veel schijven willen gebruiken.

Even niets...


Acties:
  • +1 Henk 'm!

  • route99
  • Registratie: Augustus 2017
  • Laatst online: 05-06-2024

route99

just passionately curious...

GioStyle schreef op zondag 4 november 2018 @ 09:42:
[...]Je moet niet alles geloven wat op internet staat. Die link die je stuurt, die geloof ik niet.
Achter cool.... stonden niet voor niets zoveel puntjes.. geeft wat rust om tussen de regels door te lezen...

Waarom: ik heb bijna dezelfde setup maar alleen een ander mobo Asus E35M1-I als daar beschreven, maar wat daar geschreven wordt haal ik totaal niet.... ik heb pas een vermogensmeter, moet het dus nog verder uitzoeken. Maar de 1e indruk is dat ik idle toch ruim boven de 20W (eerder 27W) zit.
Moet me er nog een keer in verdiepen of ik alle settings in Debian wel optimaal heb staan.

Zo'n zgn nul meting zonder usb muis/keyboard etc.... tja is aardig maar wat gebeurt er bij het echie?
Hoe betrouwbaar zijn zulke lage cijfers?

Kweenie...
Maar kan @eehbiertje zelf zijn cijfers meer toelichten dat lijkt me een mooie wederhoor zaak.

Acties:
  • +1 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
Ja, wist niet zeker hoe ik het moest lezen, dus vandaar mijn opmerking.

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 14:18

Kek

3flix

Ik ben benieuwd of een van jullie ervaring heeft met ESXI op een Fujitsu D3644-B bordje.

En dan vooral of de NVME schijf gezien wordt (en als datastore gebruikt kan worden) en de sata-poorten/controller kan worden doorgestuurd naar een VM..

Dat zou een interessante constructie voor mij zijn, aangezien ik nu nog een MS gen8 heb welke een kleine 40w weg zit te slurpen :s

Acties:
  • 0 Henk 'm!
Met name het op de achtergrond draaien van antivirus on access, de search service en allerlei "optimalisatie" en diagnostic services. Daarnaast een reeks services die geen nut hebben, zoals printen, server, workstation, etc. Bij de netwerkkaart alleen IPv4, geen WINS, SMB. De PC hing aan een hub zonder Internet.

Bij installatie was al alle telemetry uitgezet of zo weinig mogelijk gemaakt. Dat is de pest van Windows 10, het is een dataverzamelstation voor Microsoft. Zodra er een hard disk bij komt wil Windows precies weten wat daar op staat, waardoor het idle verbruik niet meer stabiel is tenzij je al die processen uitzet.

Desalniettemin is het wel een uitstekend OS om zuinigheid te testen, het verbruik met name bij een SSD is zeer stabiel.

@Kek

ESXi is getest met de voorganger van de Fujitsu D3644-B, samen met andere besturingssystemen is het beschreven in een blogpost.

ESXi heeft een beperkt aantal bespaarfuncties, maar het zal bij het gebruik van VM's altijd een hogere belasting hebben waardoor je al snel aan het dubbele verbruik zit, je stapelt namelijk besturingssystemen en programma's die elk hun eigen overhead hebben. In tegenstelling tot een enkel besturingssysteem kunnen die besturingssystemen niet bepalen wanneer een apparaat geen stroom meer nodig heeft. Het systeem draait dus deels voluit. De winst zit hem dus grotendeels in het uitsparen van extra fysieke servers.

Er is een aparte zuinige ESXi server topic.

[ Voor 32% gewijzigd door mrmrmr op 04-11-2018 16:21 ]


Acties:
  • 0 Henk 'm!
route99 schreef op zondag 4 november 2018 @ 10:14:
Zo'n zgn nul meting zonder usb muis/keyboard etc.... tja is aardig maar wat gebeurt er bij het echie?
Hoe betrouwbaar zijn zulke lage cijfers?
De testprocedure (gebruikt meetmateriaal) is beschreven in deze blogpost.

Het probleem met metingen is dat iedereen zijn eigen besturingssysteem, hard disks, configuratie, services en meetapparatuur heeft. Daardoor is het onderling niet vergelijkbaar. De oosterburen op het forum hardwareluxx.de hebben uitgevonden dat het beste is te meten met USB toetsenbord, USB muis, SSD, actief netwerk (want server!). Als je wilt weten wat elk van die componenten aan impact heeft op het totaalverbruik kan er worden gemeten met die onderdelen uitgeschakeld. Dat is precies het doel van mijn blogpost eerder dit jaar: verbruik inzichtelijk en zoveel mogelijk vergelijkbaar maken. Uiteraard komt er meer verbruik bij als je bijvoorbeeld harde schijven en services toevoegd. Of een besturingssysteem toepast dat van zichzelf niet zuinig is. Daar moet je terdege rekening mee houden.

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
route99 schreef op zondag 4 november 2018 @ 04:10:
hoe kom je dan met schijven bezetting uit?
ik vind deze cijfers daar pas echt cool.... das immers een reële situatie, en zelfs met een mobo met 6x SATA600 ipv 4x.
WTF een systeem met vijf 3.5" HDD's en een idle verbruik van 10W? Dat kan ik maar heel moeilijk geloven.
Pagina: 1 ... 32 ... 104 Laatste

Dit topic is gesloten.