Acties:
  • +1 Henk 'm!
MarFan schreef op zaterdag 25 april 2020 @ 17:12:
Na een hoop te hebben gelezen denk ik een mooie server te hebben samengesteld. Deze moet mijn thuis/werk server vervangen. Ik draai Hyper-v en heb ongeveer 5 primaire VM's draaien (dagelijks gebruik) en 5 minder belangrijke (start ik soms op voor projecten). Wel wil ik wat taken van mijn NAS (intranet / domoticz) over gaan zetten naar de server zodat de NAS 'alleen' nog maar als backup zal fungeren.

Mijn idee :

• Cooltek Coolcube Maxi of be quiet! Pure Base 600 Zilver/Zwart
• Fujitsu D3644-B
• Intel Core i3-8100 Boxed of Intel Core i3-9100 Boxed
• 4x Crucial CT16G4DFD824A
• 1x Intel 660p 512GB SSD -> Boot win Hyper-V
• 1x Intel 660p 2TB SSD (M.2 Adapter) Primaire VMs
• 2x Seagate 4TB Data + sec. VMs
• i210-T1 netwerkkaart ?
• Corsair VS Series VS550 (2018)
• Cooling ?

Is het slim om een M.2 adapter te nemen of kan je dan beter een SSD nemen ?
Andere opmerkingen zijn welkom,

Ik zit nu op 125W, dus denk een grote slag te maken.
NVMe heeft als nadeel het hogere maximum verbruik, maar dat blijft wel binnen de perken met een Intel 660p.

Met Hyper-V moet je misschien wel wat meer moeite doen om daar het maximum besparing uit te halen dan bij een gewone desktop Windows versie (of server versie). Belangrijk is o.a. de grafische driver. Ik zou vooraf de automatische updates voor drivers uitschakelen en een van de speciale methoden gebruiken om je eigen drivers (lees: die van Intel) te selecteren, zoveel mogelijk zonder de installers te gebruiken.

Het hangt van de belasting af of je actieve koeling nodig hebt. Ik zou het eerst eens zonder proberen. De kast kan het beste een natuurlijke luchtstroom van onder (in) naar boven (uit) hebben.

Acties:
  • 0 Henk 'm!

  • MarFan
  • Registratie: April 2006
  • Laatst online: 26-09 14:04
mrmrmr schreef op zondag 26 april 2020 @ 09:13:
[...]


NVMe heeft als nadeel het hogere maximum verbruik, maar dat blijft wel binnen de perken met een Intel 660p.
Bedankt voor je reactie, ik ben niet op zoek naar de bodem, kom van 125-150, dus richting 50 ben ik tevreden.
Is het qua performance echt sneller (de 512 op de m.2 aansluiting en de 2TB via een adapter)

mbt drivers, heb je een link oid waar ik daar meer over kan vinden (of goed zoeken in dit forum).

Pana WC12H9E8 / 1000L


Acties:
  • 0 Henk 'm!
@MarFan Het is een server, dus ik denk niet dat je verschil merkt tussen NVMe en SATA tenzij je database bewerkingen met flinke queuediepte doet of zoiets. Drivers kun je halen vanaf de Kontron ftp server, er zijn een paar Fujitsu specifieke devices. Voor de laatste Intel drivers kun je terecht op de Intel site.

Zelf heb ik laatst gekozen voor SATA (Samsung 860 QVO 2TB) boven NVMe voor een lokale OS/data schijf van mijn werkstation.

Het grootste verschil tussen deze twee is de doorvoersnelheid en de latency bij non-sequentiele acties. Doorvoer merk je alleen bij nogal grote bestanden en latency merk je vooral als je erg grote aantallen queries doet of simultane queries. Zoals bij uitgebreide database queries met veel clients. Komt thuis weinig voor denk ik.

In idle kun je denken aan minder dan 15W met lichte VM overhead. Als je de server altijd iets laat doen gaat dat natuurlijk omhoog. Bijvoorbeeld als je live video van camera's verwerkt. Voor dat soort toepassingen kan het beter zijn een zuinig dedicated video verwerkingsapparaat aan te schaffen.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Een 660p is wel echt een waardeloze NVMe drive, dan kun je beter voor een goede SATA drive gaan.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

mrmrmr schreef op zondag 26 april 2020 @ 19:37:
@MarFan
In idle kun je denken aan minder dan 15W met lichte VM overhead. Als je de server altijd iets laat doen gaat dat natuurlijk omhoog. Bijvoorbeeld als je live video van camera's verwerkt. Voor dat soort toepassingen kan het beter zijn een zuinig dedicated video verwerkingsapparaat aan te schaffen.
Dan moet het wel een verdomd voordelig dedicated verwerkingsapparaat zijn. Stel je server load gaat met 10W omhoog doordat je die functie daarop uitvoert, dan betaal je jaarlijks zeg zo'n 20 euro meer aan stroomverbruik. Als zo'n apparaat bij wijze van spreken 100 euro kost, duurt het 5 jaar voordat je de aanschafprijs hebt terugverdiend en dat dedicated video-apparaat moet dan ook nog eens heel zuinig zijn...

Aannames zijn fataal.


Acties:
  • 0 Henk 'm!
@GaMeOvEr
Videoverwerking kun je veel efficiënter doen met specialistische chips. Software voor x64 is suboptimaal vergeleken met specialistische devices met processoren die goed zijn in videoverwerking. In plaats van 10W op x64 kun je aan tientallen Watts denken bij een reeks bewakingscamera's, afhankelijk van wat je doet. Een specialistisch apparaat kan dat veel efficiënter.

Tesla doet ook zoiets in hun auto's, zij gebruikten eerst Nvidia Tegra chips (AP2.5), en hebben toen besloten zelf een chip te ontwikkelen die enorm veel meer frames per seconde kon verwerken met veel minder verbruik (AP3/FSD). Je kunt het ook vergelijken met bitcoin mining op gpu's in plaats van cpu's.

@|sWORDs| Intel 660p heeft een erg goede balans voor een zuinige server. Het gaat er niet om dat andere NVMe's sneller zijn of een kortere latency hebben. Dat kan wel zo zijn, maar dat gaat gepaard met een prijs vanwege het hogere actieve verbruik.

SSD's worden in plaats van steeds zuiniger, nu steeds minder zuinig. Je kunt daar op een paar manieren naar kijken, bijvoorbeeld je kan denken dat sneller betekent dat de SSD sneller in een lage power stand kan maar je kunt ook denken dat je dan rekening moet gaan houden met het maximum verbruik van zulke SSD's die zo langzamerhand in de buurt komen en soms mechanische SATA drives overtreffen in verbruik.

Acties:
  • +1 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Probleem met de 660 is de controller, performance is heel erg inconsistent en meestal minder dan een willekeurige SATA drive. Daar moet je niet meerdere VMs op willen draaien.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Dinge
  • Registratie: December 2012
  • Laatst online: 07-09 14:22
mrmrmr schreef op zondag 26 april 2020 @ 08:58:
[...]


Als je een oude energiemeter (van voor 2010) hebt dan meet die mogelijk zonder power factor. Dat kan zwaar vertekenen bij computervoedingen, die meter kan dan te veel aangeven. Soms wel 2 of 3x meer. Wat is het typenummer van de meter?

Heb je in ESXi de stroombesparing functie aangezet? Je zou ongeveer 8W moeten kunnen halen met ESXi 6.7 of 7.0 (zonder geladen VM's) met alleen de 840 SSD aangesloten op de stroomkabels. Link.

De cTDP is alleen bedoeld om het maximaal vermogen te beperken. Bijvoorbeeld als je voeding het niet aankan. Of als de koeling het niet aankan en je langdurig zware processen draait.

Je hoeft niets te veranderen in de BIOS voor zuinigheid, de standaard settings zijn al optimaal. Voor de zekerheid resetten naar default.

Welke PicoPSU en adapter heb je precies?
Even getest zonder passthrough en enkel de 840 aangesloten. Schommelt tussen de 9 en 11 watt op Esxi 6.7 (In low power, voordien op balanced aangezien er in het verleden geen winst mee werd gehaald) dus dat neigt eerder naar de verwachting.

Energiemeter is een simpele Chacon met enkel een typenr maar wel van rond 2010 denk ik.
Mini-box picoPSU-150-XT icm een gerecycleerde FSP 40watt adapter van een Popcorn Hour.

De storage controller gaat via passtrough naar de Xpenology dus ik gebruik een ASmedia1061 (2watt) voor de datastore. Een NVME gaat niet veel helpen veronderstel ik, tenzij die niet onder de Cannon lake ahci controller valt?

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

NVMe gaat niet via de AHCI SATA controller.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

mrmrmr schreef op zondag 26 april 2020 @ 22:19:
@GaMeOvEr
Videoverwerking kun je veel efficiënter doen met specialistische chips. Software voor x64 is suboptimaal vergeleken met specialistische devices met processoren die goed zijn in videoverwerking. In plaats van 10W op x64 kun je aan tientallen Watts denken bij een reeks bewakingscamera's, afhankelijk van wat je doet. Een specialistisch apparaat kan dat veel efficiënter.
Ah, dan is de impact veel zwaarder dan ik dacht. Als er inderdaad sprake is van tientallen watts, dan moet de aanschaf van een dedicated unit eerder uit kunnen. (Mits die niet heel prijzig zijn)

Alsnog zou ik de berekening maken van meerverbruik server versus aanschafprijs losse unit en het stroomverbruik daarvan, zodat je weet wat je kunt verwachten.

Aannames zijn fataal.


Acties:
  • +1 Henk 'm!
@Dinge
Ik weet niet of deze oude Chacon meter nauwkeurig is. Bij slechte meters kan er al snel een flinke afwijking zijn, meestal te veel (powerfactor "vergeten" mee te nemen), maar soms ook te weinig.

Met een PicoPSU-80 + 60W Seasonic adapter kit zou ik iets minder dan 8W verwachten onder ESXi 6.7. De PicoPSU-150-XT is vermoedelijk - net zoals de PicoPSU-160-XT - niet zo zuinig als een PicoPSU-80. FSP maakt redelijke adapters, maar misschien is dit een ouder type, en in dat geval kan het mogelijk zuiniger. Soms staat er op de adapter wat voor type het is, bijvoorbeeld Level IV (level 4). Tegenwoordig hebben we level VI (level 6) en het verschil is best groot. De adapter is de basis van het verbruik.
Die levels komen van de Amerikaanse DOE, Department of Energy, met name van de EPA (Environmental Protection Agency). Voordat Trump er was zorgde die voor energiebesparende maatregelen. Onze Europese regels lijken op de EPA standaarden.

De Samsung EVO 840 (en EVO 850) zijn zuinig. Het is een beetje complex om NVMe en SATA een op een te vergelijken. NVMe benut PCIe en die heeft een eigen overhead. NVMe heeft een extreem lage low power stand, maar dat is wel exclusief de PCIe overhead. De on-board SATA overhead is er meestal altijd, ondanks de low power settings. Daardoor kan een SATA drive zuiniger uitpakken. Anandtech en hardware.info doen energieverbruikmetingen van NVMe en SATA drives.

Als je een aparte storage controller hebt, dan is het meestal beter over te stappen naar de on board SATA controller of NVMe. De vraag is of PCIe naar NVMe convertors wel energiezuinig zijn ontworpen. Als die bijvoorbeeld de low power settings verstoren kan dat problematisch zijn.

Acties:
  • +1 Henk 'm!
mrmrmr schreef op maandag 27 april 2020 @ 00:20:
De vraag is of PCIe naar NVMe convertors wel energiezuinig zijn ontworpen. Als die bijvoorbeeld de low power settings verstoren kan dat problematisch zijn.
NVME is toch juist een protocol wat direct over PCIe gaat? Zo'n adapter is dus niks meer dan het omzetten van de M.2 formfactor naar een full size PCIe kaart/slot. Zelf heb ik afgelopen vrijdag een M.2 NVME => PCIe adapter ontvangen van ome Ali. Ik heb het ding nog niet uitgebreid bekeken, maar volgens mij zit er 0 elektronica op. Alleen het M.2 slot, PCIe contacten, en de gaatjes om de NVME drive vast te zetten, meer is het niet wat ik me zo herinner.

Volgens mij heb je wel ook "actieve" varianten. M.2 SATA kun je denk ik niet 1:1 naar PCIe doen en zal wel actief moeten met neem ik aan een SATA controller. Zal vast ook komen doordat moederborden bij M.2 slot die link al leggen. Waar de Fujitsu borden bv überhaupt geen M.2 SATA SSDs ondersteunen. Dus het M.2 slot zal intern dan vast "gelinkt" zijn als SATA drives wel werken. Als je een losse M.2 naar PCIe adapter hebt zal die dus ook iets met SATA moeten doen om om te zetten, als die ook met SATA werkt. Die wat ik nu heb staat ook expliciet bij dat die alleen met NVME drives werkt.

Acties:
  • +1 Henk 'm!
@RobertMe Veel van die PCIe>NVMe adapters hebben electronica on board. Soms vallen die SMD onderdelen niet op omdat ze zo klein zijn.

Ik zie NVMe adapters met ic's, spoelen, voltage regulators, condensatoren, weerstanden en andere onderdelen. De reden zou kunnen zijn de ondersteuning voor lees/schrijf LED's en om de stabiliteit te vergroten (condensatoren) of te waarborgen.

De vraag is bij een bepaald ontwerp is of het ontwerp consequenties heeft voor het verbruik. Dat bedoel ik letterlijk: als er weinig verschil is, dan is het ok natuurlijk.

Acties:
  • +1 Henk 'm!
mrmrmr schreef op maandag 27 april 2020 @ 10:33:
@RobertMe Veel van die PCIe>NVMe adapters hebben electronica on board. Soms vallen die SMD onderdelen niet op omdat ze zo klein zijn.

Ik zie NVMe adapters met ic's, spoelen, voltage regulators, condensatoren, weerstanden en andere onderdelen. De reden zou kunnen zijn de ondersteuning voor lees/schrijf LED's en om de stabiliteit te vergroten (condensatoren) of te waarborgen.

De vraag is bij een bepaald ontwerp is of het onwerp consequenties heeft voor het verbruik. Dat bedoel ik letterlijk: als er weinig verschil is, dan is het ok natuurlijk.
Die wat ik heb lijkt alleen maar drie ledjes, met ernaast vermoed ik drie resistors (R) te zitten (voor elk LEDje een dus), en nog twee dingetjes aangegeven van een C nummer. Dus ik vermoed nu niet echt dat dat veel extra verbruikt, nog naast dat diezelfde LEDjes wellicht ook al op het moederbord zitten bij het M.2 slot, dus effectieve verschil in verbruik is dan 0.

Daarnaast komt je standpunt, zoals ik wel vaker vind, nogal over als een overdreven idealistisch streven. Ja, je hebt gelijk, het verbruikt wellicht een paar miliwatt meer. Dus vanuit het "absolute zuinigheids perspectief" heb je gelijk. Maar ik denk dat 99% van de posters in dit topic op zoek is naar een mooie balans tussen prijs, verbruik, en moeite die erin gestoken moet worden. Want anders kun je bv ook beter alle LEDjes op het moederbord eraf solderen, etc etc.

Acties:
  • 0 Henk 'm!
Ik denk dat je hier een beetje overdrijft en je leest er meer in dan wat ik werkelijk schrijf. Zoals ik al schreef gaat het me om de mogelijke intereferentie met low power states. Kijk zelf even na hoeveel dat scheelt bij Anandtech.

Acties:
  • 0 Henk 'm!

  • pcc
  • Registratie: April 2007
  • Niet online

pcc

Afgelopen nacht heeft er één van mijn 5 Seagate 5TB schijven de geest gegeven na amper 5 maanden. Voor de zekerheid heb ik de SMART status van de andere 4 schijven opgevraagd en allemaal geven ze SMART warnings op de Load Cycle Count, deze staan tussen de 603749 en 651859.
Voor amper 5 maanden oud te zijn, zijn deze waarden veel te hoog. Na even te luisteren hoor ik effectief op 2 seconden tijd de schijven in slaap gaan en terug opspinnen.
Volgende zaken heb ik al aangepast maar geven geen verbetering: Link State Power Management op Off gezet en Turn off hard disk after: 3 min.
De andere waarden lijken mij ook enorm hoog. Afbeelding van één schijf toegevoegd, de SMART data is bij de andere schijven zo goed als hetzelfde.

OS is Windows 10, moederbord D3644-B.

Afbeeldingslocatie: https://tweakers.net/i/OpgoOALOUKXHG79YznM0jvID9gc=/800x/filters:strip_exif()/f/image/saH8cIrr5BSFQszGfljOJ8ge.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • pcc
  • Registratie: April 2007
  • Niet online

pcc

@mrmrmr Bedankt, heb het daar ook gepost, inclusief Crystalmark info

Acties:
  • 0 Henk 'm!

  • route99
  • Registratie: Augustus 2017
  • Laatst online: 05-06-2024

route99

just passionately curious...

@pcc Balen.... zo snel...
Bij ons trad het voor hun 3TB schijven net buiten de garantie op. Voor 4 van 5 schijven...
Heb toe gewoon netjes eea goed onder de aandacht gebracht via Facebook en ik kreeg toch allemaal RMA's.
Je vertrouwt dan dat merk toch niet lekkers meer...
De oude Samsungs HJ types 2TB van 2011 draaien allen nog... heb er ruim 4 j geleden nog een aantal kunnen kopen, wel het broertje HD203WI, draaien ook prima.

Gelukkig kun je je nog op garantie beroepen, maar tis wel een gedoe...
Sterkte ermee.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
Weet iemand wat het verbruik overhead van een hot-swap HDD backplates zijn? Dat is toch weer een stukje elektronica tussen je HDD en MB. Een kleine zoektocht op het grote internet geeft mij weinig resultaten.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

CurlyMo schreef op maandag 27 april 2020 @ 23:17:
Weet iemand wat het verbruik overhead van een hot-swap HDD backplates zijn? Dat is toch weer een stukje elektronica tussen je HDD en MB. Een kleine zoektocht op het grote internet geeft mij weinig resultaten.
In principe zijn die meestal passief. Dus een stukje printplaat met wat sporen erop en hier en daar een aftakking voor een HDD power/fault en activity LEDje. Dus dat zou niet voor noemenswaardig meerverbruik moeten zorgen als er geen eigen logica op de backplane zit.

Aannames zijn fataal.


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
@exepti0n Ik ben aan het kijken naar de pricewatch: Inter-Tech IPC 2U-2404S behuizing en zag dat jij die op je lijstje had staan. Bevalt die je een beetje? Zou je eventueel wat foto's kunnen plaatsen van de kast met alle componenten ingebouwd?

[ Voor 17% gewijzigd door CurlyMo op 28-04-2020 21:45 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Freakster86
  • Registratie: September 2009
  • Niet online
@pcc Wow! 5 stuks zo snel kapot :X Dat is volgens mij een record... Maakt mij een beetje huiverig...
pcc schreef op maandag 27 april 2020 @ 20:59:
[..]
Voor amper 5 maanden oud te zijn, zijn deze waarden veel te hoog. Na even te luisteren hoor ik effectief op 2 seconden tijd de schijven in slaap gaan en terug opspinnen.
Volgende zaken heb ik al aangepast maar geven geen verbetering: Link State Power Management op Off gezet en Turn off hard disk after: 3 min.
[...]
Heb je vooraf iets ingesteld? Of is dit misschien te wijten aan het besturingssysteem?

Acties:
  • 0 Henk 'm!

  • demonic
  • Registratie: November 2009
  • Laatst online: 02-08 23:01
Freakster86 schreef op dinsdag 28 april 2020 @ 21:53:
@pcc Wow! 5 stuks zo snel kapot :X Dat is volgens mij een record... Maakt mij een beetje huiverig...


[...]


Heb je vooraf iets ingesteld? Of is dit misschien te wijten aan het besturingssysteem?
zo snel kapot? 8)7 als je iedere 2 seconden je start moter van je auto zou gebruiken zal die ook na een paar maanden kapot zijn.
Ik gok iets te zuinig proberen te tunen?

Acties:
  • +1 Henk 'm!

  • Freakster86
  • Registratie: September 2009
  • Niet online
@demonic Ja, dat snap ik. Maar dan is het de vraag of dit aan de schijf (firmware) ligt of aan het systeem (tunen). En aangezien deze schijf hier door veel mensen wordt gebruikt, lijkt het mij goed om hier duidelijkheid over te krijgen. Start zelf deze week (flink wat later dan gepland helaas) met 7 stuks in een Unraid build.

Acties:
  • 0 Henk 'm!

  • demonic
  • Registratie: November 2009
  • Laatst online: 02-08 23:01
Freakster86 schreef op dinsdag 28 april 2020 @ 22:30:
@demonic Ja, dat snap ik. Maar dan is het de vraag of dit aan de schijf (firmware) ligt of aan het systeem (tunen). En aangezien deze schijf hier door veel mensen wordt gebruikt, lijkt het mij goed om hier duidelijkheid over te krijgen. Start zelf deze week (flink wat later dan gepland helaas) met 7 stuks in een Unraid build.
dat is een fair point! Lijkt me stug dat het in firmware gebeurt. maar wie weet.

Acties:
  • 0 Henk 'm!

  • pcc
  • Registratie: April 2007
  • Niet online

pcc

demonic schreef op dinsdag 28 april 2020 @ 22:14:
[...]


zo snel kapot? 8)7 als je iedere 2 seconden je start moter van je auto zou gebruiken zal die ook na een paar maanden kapot zijn.
Ik gok iets te zuinig proberen te tunen?
Dat is net het probleem, ik heb er (bij mijn weten) niets aan getuned.... Ondertussen heb ik alle data eraf gehaald en ben aan het wachten tot de schijven terug in "promotie" komen bij Amazon.

De 1ne schijf die niet meer wou opspinnen heb ik extern aangesloten op een andere pc en die doet het terug. En blijft volledig draaien zonder iedere seconde te herstarten.
Als ik deze aansluit op de D3644-B dan spint deze wel op maar blijft hangen.

Om een of andere reden begin ik de voeding te verdenken: 90w pico psu met 120watt adapter. Maar dan zou ik denken dat er nog andere problemen zouden zijn.

Acties:
  • 0 Henk 'm!

  • demonic
  • Registratie: November 2009
  • Laatst online: 02-08 23:01
pcc schreef op dinsdag 28 april 2020 @ 22:34:
[...]

Om een of andere reden begin ik de voeding te verdenken: 90w pico psu met 120watt adapter. Maar dan zou ik denken dat er nog andere problemen zouden zijn.
dat is een heel goed punt.
Mogelijk dat als alle schijven (op 1 na) draaien..
Hij de laatste schijf probeert in te schakelen en dat je voltage dan naar beneden dondert waardoor alles uitvalt?

Overigens kan het best zo zijn dat alleen je schijven daar last van hebben en bv niet je mobo/cpu. die kunnen andere spanningen gebruiken of beter beveiligd zijn tegen spanningsval ofzo?

blijft bijzonder natuurlijk... waarom stuur je die kapotte niet op voor garantie?

Acties:
  • 0 Henk 'm!
Ik denk dat een goede vraag is of het aan het besturingssysteem ligt of aan iets anders. In dit geval was het aantal cycles gemiddeld 3 keer per minuut volgens de SMART waarden. De instelling van Windows kan op zijn laagst op 1 minuut. De observatie is dat het steeds opnieuw gebeurt na enkele seconden.

Er is dus iets wat het vaker probeert. Misschien krijgt het besturingssysteem geen bevestiging waarna het het nog een keer probeert. Of misschien is er een query waardoor het meteen weer uit de slaapstand wordt getrokken. Het kunnen twee acties zijn die elkaar steeds tegenwerken. Weet iemand hoe dat komt?

De firmware is betrokken in de zin dat het opdrachten moet uitvoeren volgens het SATA protocol. Als een of beide partijen iets anders doen dan verwacht, kan je problemen krijgen.

Om ongewenst uit de slaapstand halen te voorkomen zet ik onder Windows telemetrie en Windows Search/Cortana uit en daarnaast zet ook een aantal andere services uit.

@pcc De disks gebruiken 5V, dus daar moet voldoende vermogen voor zijn. De PicoPSU kan 7A piekvermogen leveren, dat is 35W en 6A (30W) continu. Dat zou ruim voldoende moeten zijn om 6 disks tegelijk op te starten, wat in totaal 22,5W kost.

Daarnaast heeft de processor invloed, maar die gebruikt 12V van de adapter, en dat zal dus niet zo snel een probleem vormen. Het kan natuurlijk wel dat de voeding stuk is gegaan of onbetrouwbaar is geworden. En ook: als er 600.000 keer 5 disks tegelijk worden gestart dan is dat wel een belasting van de PicoPSU. Daar is die niet voor bedoeld. Ik zou die mogelijke voedingsproblemen daarom eerder zien als een gevolg dan als een oorzaak.

Condensatoren in voedingen slijten waardoor ze na lang gebruik minder vermogen kunnen gaan leveren.

Acties:
  • 0 Henk 'm!

  • pcc
  • Registratie: April 2007
  • Niet online

pcc

Even ter vervollediging: bij het bouwen van de homeserver was ik gestart met Debian. Na 2 weken ben ik er vanaf gestapt omdat het systeem om de 2 dagen vastliep (MCE errors...).
En omdat de doorvoersnelheid echt ondermaats was (starten aan 120MB/s en terugvallen naar 2MB/s bij bestanden van ong 10GB). Ik heb toen de SMART nagekeken maar enkel op CRC errors gelet en die waren er niet.

Als test heb ik toen Windows 10 geinstalleerd en deze blijft zeer stabiel. De schrijfsnelheden zijn ook ondermaats maar als oplossing plaats ik alles op de SSD en deze wordt 's nachts automatisch geleegd naar de schijven. Uiteindelijk is het maar een tijdelijke storage plaats voor bestanden die ik in de loop van de maand nodig heb. Hierna gaan ze naar mijn fileserver (helaas verbruikt mijn main fileserver ongeveer 400watt in gebruik) en dus slechts 1dag / maand aanstaat.

Aangezien er hier zoveel mensen gebruik maken van deze schijven en geen problemen hebben vermoed ik dus dat het oftewel een moederbord probleem of power probleem is.

@mrmrmr
Ik heb hier nog een Seasonic 550watt gold liggen (wel al 3 jaar oud) en zal eens testen of het probleem zich hiermee oplost.

[ Voor 6% gewijzigd door pcc op 28-04-2020 22:52 ]


Acties:
  • +1 Henk 'm!

  • pcc
  • Registratie: April 2007
  • Niet online

pcc

demonic schreef op dinsdag 28 april 2020 @ 22:40:
[...]

blijft bijzonder natuurlijk... waarom stuur je die kapotte niet op voor garantie?
De defecte schijf gaat sowieso deze week al terug naar Amazon. Deze heb ik vandaag terug mooi ingepakt in zijn behuizing en dacht bij mijzelf: toch nog eens even testen.

Afhankelijk van hoe vlot de garantie verloopt gaan de andere schijven ook terug maar ik wil eerst de oorzaak vinden.

Alsook: alsook heb ik als ervaring dat ik vroeger steeds refurbished schijven terug keer, dewelke het nog sneller de geest gaven dan de defecte. Ik denk dat ik ongeveer een 20 Seagate 3,5" 2TB schijven heb versleten op enkele jaren tijd. M.a.w. als ze een refurbished schijf terugsturen bestel ik er 5 nieuwe en krijgen de huidige schijven als bestemming: long time cold storage :)

Acties:
  • +1 Henk 'm!
Het terugkrijgen van refurbished is het grootste risico. Ik stuur defecte schijven nooit terug, ook omdat er data op staat. Gelukkig geen defecte disks meer gehad de laatste 10 jaar, ik verwisselde mijn oudere (energieslurpende) HGST disks ook steeds pro-actief om de ~3 jaar.

Ik weet niet of amazon.de nieuwe disks stuurt of ze laat repareren. Ik kan me herinneren ergens gelezen te hebben dat teruggestuurde spullen vaak niet worden gerepareerd. Als je geluk hebt krijg je een nieuwe voor die ene defecte disk.

Het tweede bericht van de topic start bevat sinds vorige week een lijstje tips hardware/software, waaronder ook de fix voor MCE foutmeldingen. Laat me weten als er iets ontbreekt.

Acties:
  • +1 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

Freakster86 schreef op dinsdag 28 april 2020 @ 22:30:
@demonic Ja, dat snap ik. Maar dan is het de vraag of dit aan de schijf (firmware) ligt of aan het systeem (tunen). En aangezien deze schijf hier door veel mensen wordt gebruikt, lijkt het mij goed om hier duidelijkheid over te krijgen. Start zelf deze week (flink wat later dan gepland helaas) met 7 stuks in een Unraid build.
Ik denk dat deze (SMR) drives nu niet de meest geschikte zijn voor in een Raid setup. Zelfs testresultaten in een Raid1 setup zijn bedroevend.

Dit gaat op voor alle SMR drives. Als je Raid wilt gaan gebruiken, moet je geen SMR drives nemen, Het grote nadeel is natuurlijk is dat er geen alternatieve, grote 2,5" drives zijn die niet SMR zijn. (Behalve extreem duur enterprise spul)

Kortom: SMR = single drive. CMR/PMR = geschikt voor Raid setups.

Het probleem is dat de drives in firmware zelf trucjes uithalen met hoe ze hun cache leegschrijven naar de daadwerkelijke disc, waardoor ze in een RAID setup raar/ander gedrag vertonen dan verwacht door de software. Er zit iets in de firmware van de schijf die dus afhankelijk van de situatie dus snel of juist heel traag kan zijn en niet consistent onder alle omstandigheden. (Zie review in linkje eerder onder "drive managed SMR")

[ Voor 47% gewijzigd door GaMeOvEr op 29-04-2020 00:43 ]

Aannames zijn fataal.


Acties:
  • 0 Henk 'm!

  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 26-09 22:35
Ik kwam de volgende recente video tegen van servethehome en vroeg me af of dit ook niet van toepassing is voor de vele harde schijf problemen die sommigen hebben
YouTube: Why We Need SMR Listed in Hard Drive Specs
Ik vraag me dan ook af of de 4 en 5 GB 2.5inch harde schijven die hier veelvuldig aangeprezen zijn wel zo geschikt zijn voor server/nas/raid gebruik.

[ Voor 29% gewijzigd door jwvdst op 29-04-2020 01:20 ]


Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

jwvdst schreef op woensdag 29 april 2020 @ 01:08:
Ik kwam de volgende recente video tegen van servethehome en vroeg me af of dit ook niet van toepassing is voor de vele harde schijf problemen die sommigen hebben
YouTube: Why We Need SMR Listed in Hard Drive Specs
Ik vraag me dan ook af of de 4 en 5 GB 2.5inch harde schijven die hier veelvuldig aangeprezen zijn wel zo geschikt zijn voor server/nas/raid gebruik.
Hangt er van af hoe je ze inzet. Als een raidset / zfs pool of iets vergelijkbaars waar dus het OS er een groot volume van maakt? Nee, niet echt. Om hoge I/O loads op te draaien met veel reads/writes? Nee, ook niet.

Als pure storage/archivering als single disk? Prima geschikt. Dus voor backups, data-opslag, etc.

Bij mij komen al mijn storage intensieve dingen op de (NVME) SSD en worden de disks als losse disken ingezet voor opslagtoepassingen van data, dus niet om VM's op te draaien of als Raidset.

Aannames zijn fataal.


Acties:
  • +1 Henk 'm!
GaMeOvEr schreef op woensdag 29 april 2020 @ 02:15:
[...]

Hangt er van af hoe je ze inzet. Als een raidset / zfs pool of iets vergelijkbaars waar dus het OS er een groot volume van maakt? Nee, niet echt. Om hoge I/O loads op te draaien met veel reads/writes? Nee, ook niet.

Als pure storage/archivering als single disk? Prima geschikt. Dus voor backups, data-opslag, etc.

Bij mij komen al mijn storage intensieve dingen op de (NVME) SSD en worden de disks als losse disken ingezet voor opslagtoepassingen van data, dus niet om VM's op te draaien of als Raidset.
Deze waarschuwing komt hier IMO echt veel te weinig langs. De Seagate schijven worden hier continu aangeraden en vrijwel geen enkele keer dat de nadelen van SMR worden benoemd en deze schijven dus niet bij elke workload geschikt zijn. Dit mag dan wel het forum van Tweakers zijn waarop iedereen zelf onderzoek doet, maar dit is ook het forum van Tweakers, dus als iedereen die schijven koopt / aanraad "dan zullen ze ook wel goed zijn".
Vooral nu SMR ook een hot topic is blijkt hoe "slecht" deze zijn en welke gevolgen deze hebben. Posts in het ZFS topic van het niet durven vervangen van schijven omdat de hele pool uit SMR disks bestaat en uit ervaring blijkt dat de kans op een failure tijdens replace (te) groot is, zelfs om een disks met bad sectors te vervangen.

Overigens zal hetzelfde dan net zo goed gelden voor die WD EFAX schijven van 2TB t/m 6TB die recent zijn exposed als SMR schijven, alleen worden die hier dan een stuk minder aangeraden.

Acties:
  • 0 Henk 'm!

  • dimmak
  • Registratie: December 2006
  • Laatst online: 26-09 09:27
Wat zijn dan wel goede zuinige schijven voor veel writes/reads?

Acties:
  • 0 Henk 'm!

  • Freakster86
  • Registratie: September 2009
  • Niet online
GaMeOvEr schreef op woensdag 29 april 2020 @ 00:30:
[...]

Ik denk dat deze (SMR) drives nu niet de meest geschikte zijn voor in een Raid setup. Zelfs testresultaten in een Raid1 setup zijn bedroevend.

Dit gaat op voor alle SMR drives. Als je Raid wilt gaan gebruiken, moet je geen SMR drives nemen, Het grote nadeel is natuurlijk is dat er geen alternatieve, grote 2,5" drives zijn die niet SMR zijn. (Behalve extreem duur enterprise spul)
[...]
Punt is dat ik de schijven al (een tijdje) in huis heb :P

Als ik op voorhand had geweten van SMR en raid had ik wellicht andere keuzes gemaakt. Nadat het nieuws uitkwam over SMR moest ik in eerste instantie even slikken, maar na wat te hebben gelezen maak ik me eigenlijk geen zorgen.

Ik ga Unraid gebruiken. Dat is allereerst al geen raid en belast de schijven / het array dus anders. Het gros van de opslag bestaat uit media die slechts één keer geschreven zal worden en voor de rest enkel gelezen. En om (random) schrijfacties te voorkomen en de prestaties te verbeteren, gebruik ik een ssd als cache drive.

Dus wat dat betreft gebruik ik de schijven eigenlijk waarvoor ze bedoeld zijn. Daarom verwacht ik niet echt problemen al ben ik wel benieuwd naar de oorzaak van het uitvallen van de 5 schijven van @pcc. Met 7 stuks zou dat een prijzige aangelegenheid worden als die na 5 maanden zijn afgeschreven... Maar goed, eerste dagen/weken anders maar even goed in de gaten houden om te kijken hoe het zich ontwikkelt.

Het nieuws omtrent SMR onderstreept maar weer het belang van het hebben van voldoende backups.

Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

Freakster86 schreef op woensdag 29 april 2020 @ 08:27:
[...]


Punt is dat ik de schijven al (een tijdje) in huis heb :P

Als ik op voorhand had geweten van SMR en raid had ik wellicht andere keuzes gemaakt. Nadat het nieuws uitkwam over SMR moest ik in eerste instantie even slikken, maar na wat te hebben gelezen maak ik me eigenlijk geen zorgen.

Ik ga Unraid gebruiken. Dat is allereerst al geen raid en belast de schijven / het array dus anders. Het gros van de opslag bestaat uit media die slechts één keer geschreven zal worden en voor de rest enkel gelezen. En om (random) schrijfacties te voorkomen en de prestaties te verbeteren, gebruik ik een ssd als cache drive.

Dus wat dat betreft gebruik ik de schijven eigenlijk waarvoor ze bedoeld zijn. Daarom verwacht ik niet echt problemen al ben ik wel benieuwd naar de oorzaak van het uitvallen van de 5 schijven van @pcc. Met 7 stuks zou dat een prijzige aangelegenheid worden als die na 5 maanden zijn afgeschreven... Maar goed, eerste dagen/weken anders maar even goed in de gaten houden om te kijken hoe het zich ontwikkelt.

Het nieuws omtrent SMR onderstreept maar weer het belang van het hebben van voldoende backups.
Ahja, als er inderdaad intelligentie is die gewoon de disken stuk voor stuk "queued" om te beschrijven ipv simultaneous writes zul je dat probleem idd niet hebben.

De reden voor defect zijn is op zich bekend, als de disken meermaals per minuut up en down spinnen, kan ik me voorstellen dat dat funest is voor je levensduur. Alleen wat dan de oorzaak is van dit gedrag is weer een tweede..

Aannames zijn fataal.


Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

dimmak schreef op woensdag 29 april 2020 @ 08:23:
Wat zijn dan wel goede zuinige schijven voor veel writes/reads?
Nou ja, dat is het probleem. Die zijn er niet. Nu ja, niet in grote TB aantallen, want alle grote 2,5" schijven zijn SMR. Dus kom je automatisch uit op 3,5" disken. (Ook daar opletten dat het geen SMR varianten zijn) En die zijn niet zuinig.

Natuurlijk zit er wel verbruiksverschil tussen een WD Blue en een WD Black, maar in vergelijk met een 2,5" verbruiken ze beide erg veel.

Aannames zijn fataal.


Acties:
  • 0 Henk 'm!

  • nonkeljos
  • Registratie: Augustus 2019
  • Laatst online: 15:37
Kun je een DeskMini 310 ook combineren met een i5 9500T of beter 9500, met het oog op zuinigheid? Ik zou graag iets samenstellen in die richting, met de DeskMini als zekerheid. Oog op zuinigheid uiteraard, vandaar de Deskmini en Intel.

Acties:
  • 0 Henk 'm!

  • exepti0n
  • Registratie: Maart 2008
  • Niet online

exepti0n

_o-

CurlyMo schreef op dinsdag 28 april 2020 @ 21:42:
@exepti0n Ik ben aan het kijken naar de pricewatch: Inter-Tech IPC 2U-2404S behuizing en zag dat jij die op je lijstje had staan. Bevalt die je een beetje? Zou je eventueel wat foto's kunnen plaatsen van de kast met alle componenten ingebouwd?
Uiteindelijk is het een pricewatch: Inter-Tech IPC 4U-4408 geworden. Deze bevalt prima, ruimte genoeg voor alle componenten maar verschilt natuurlijk nogal met een 2U ;)

Voor een ander project verwacht ik de pricewatch: Inter-Tech IPC 2U-2098-SK deze week binnen te krijgen.
Heb je specifieke vragen? Stuur anders even een DM, lijkt me niet geheel on-topic 8)

Volvo XC40 SMSR Plus (MY24)


Acties:
  • +1 Henk 'm!
nonkeljos schreef op woensdag 29 april 2020 @ 13:27:
Kun je een DeskMini 310 ook combineren met een i5 9500T of beter 9500, met het oog op zuinigheid? Ik zou graag iets samenstellen in die richting, met de DeskMini als zekerheid. Oog op zuinigheid uiteraard, vandaar de Deskmini en Intel.
Volgens ASRock kan dat, deze processor staat in het processorlijstje. De BIOS moet minstens versie P4.20 zijn. Als je nog een oud model treft moet eerst de BIOS worden geupdate met een oudere processor.

Er zitten wel wat nadelen aan zo'n 6 core processor. De normale snelheid is lager (3GHz) dan die van dual en quad core processoren (3,7 GHz). Om alle cores te kunnen benutten op hoge snelheid heb je krachtige koeling nodig in zo'n kleine kast. Tenzij je echt 6 cores (12 virtueel) gaat gebruiken denk ik dat het verstandiger is een dual core/4 thread of een quad core/8 thread processoren te selecteren zoals een Pentium G5400 of een i3-8100/i3-9100. De prijs van dual of quad core is veel gunstiger. Beide moeten in deze kast ook (semi-)actieve koeling hebben.

De 'T' processoren zijn beperkt in temperatuur of verbruik, en daarmee wordt de maximum snelheid ook beperkt zodra het verbruik stijgt. Dat is niet zo gunstig, want dan betaal je voor iets wat je weinig kan benutten.

Deskmini's hebben geen PCIe slots, wel een M.2 slot voor WiFi en een voor NVMe. Er kunnen maximaal 2 SATA disks worden aangesloten. Standaard is er geen plaats voor dikke 2.5" disks zoals de Seagate 4TB of 5TB. Er is wel plaats voor 2.5" SSD's van normale dikte. Het moederbord heeft DDR4 SODIMM's nodig.

Het moederbord formaat is mini-STX, die heeft op standaard plaatsen aansluitingen.

Acties:
  • 0 Henk 'm!

  • nonkeljos
  • Registratie: Augustus 2019
  • Laatst online: 15:37
bedankt. Aanvankelijk enkel voor 2 containers domotica te draaien (MQTT) en wellicht later BlueIris op Windows erbij voor een 4-tal camera's met beeldinterpretatie.Jammer genoeg zie ik hier geen configs met i5 9500.

[ Voor 13% gewijzigd door nonkeljos op 29-04-2020 18:27 . Reden: aanvulling tekst ]


Acties:
  • +1 Henk 'm!
Ah, dan begrijp ik waar je de cores voor nodig hebt. Ik zou eens kijken of er zuinige apparaten zijn die de beeldprocessing kunnen doen. Dat is op een x64 processor niet zo energieëefficiënt als op een sommige "dedicated devices", kastjes die daarvoor in de handel zijn.

Heb je nu al een apparaat die continu 4 streams verwerkt? Hoeveel verbruikt die nu?

Om een beetje aan de verhouding te schetsen: het verwerken van meerdere streams onder Windows x64 kan tientallen Watts kosten en met speciale hardware kan dat de helft zijn. De winst van een zuing x64 systeem op zich ligt tussen 5 en 10W. Daardoor kan het voordeliger zijn aparte systemen te gebruiken.

Een ander punt is dat zuinigheid in idle is ook een ander gegeven is dan zuinigheid tijdens belasting. Een systeem kan onder idle zuinig zijn en niet zuinig onder belasting, en andersom. Het zou verstandig kunnen zijn een processor te kiezen die een goede performance per Watt heeft. Dan komen AMD's op 7nm of ARM processoren ook in beeld. Die AMD's zijn in idle vooralsnog niet zuinig, maar wel onder flinke belasting.

Het kiezen van de beste oplossing is tamelijk ingewikkeld. Het is ook nog niet voldoende duidelijk wat de verbruiksperformance van AMD nieuwste processoren is met zuinige desktop moederborden - met de juiste chipset.

Acties:
  • 0 Henk 'm!

  • daan166
  • Registratie: Maart 2017
  • Laatst online: 15-09 12:49
Ook ik ben in deze tijden aan het knutselen geslagen en wil mijn eerste NAS/Server/Computer in elkaar gaan knutselen:

Wat wil ik hardwarematig?
Hardwarematig beperkende factoren
  1. Ik wil een dat de behuizing niet te groot wordt
  2. Ik heb 1x 3.5"HDD en 1x 3.5SSD die ik wil gebruiken
  3. daarnaast wil ik meerdere HDD kunnen plaatsen voor een RAID (5?) setup
  4. En dit uiteraard zo energiezuinig mogelijk :?
Wat heb ik tot nu toe geconcludeerd?
De behuizing:
  1. Moet groot genoeg zijn om meerdere HDD te kunnen plaatsen
  2. Moet gebouwd zijn voor een mini ITX moederbord
  • Ik heb mijn oog laten vallen op de Fractal Design Node 304
De processor:
  • Ik denk dat de Intel G5400 een mooie is (prijs/prestaties)
Het moederbord
  1. Moet een mini ITX moederbord zijn
  2. Moet > 2 SATA poorten hebben
  3. Moet zo energiezuinig mogelijk zijn
  4. Socket 1151
  • De Fujitsu moederborden vallen af want deze hebben enkel 2 SATA poorten. Ook geen PCI-e slot om het aantal SATA poorten uit te bereiden
  • De Asrock H310 en H370 hebben beide een bluetooth en wifi adapter. Dit zijn functies die ik niet nodig heb en vermoed dat deze ook meer stroom zullen trekken. Daarnaast zijn ze relatief goedkoop voor het aantal (extra) functies, en dat vind ik altijd verdacht
  • Dan zijn er twee moederborden die overblijven: Supermicro X11SCV-L en de Asus P11C-I (laatsgenomede kan ook ECC RAM aan). Deze zijn wel €50-€100 euro duurder dan de Asrock, dit is niet meer te rechtvaardigen op stroomverbruik, wellicht wel op kwaliteit.
CPU koeling
  • Ik zit aan de Arctic Alpine 12 passive te denken
Opslag:
  • 1x SSD 128gb (heb ik nog liggen)
  • 1x 2TB 3.5" Seagate ironwolf NAS (heb ik al)
  • eventueel toekomst: 3x 2TB 2.5" HDD in RAID5
Voeding
  • Met wat tellen kom ik op een max belasting van 150W (ruim genomen)
  • voor een PicoPSU 150 + 150W adapter ga je al gauw richting de €100
  • de be quiet! System Power B9 300W kost €35.
  • de server moet wel heel lang draaien om de €65 verschil eruit te halen
RAM
  • een 8GB kaartje, eventueel met ECC indien ik voor het Asus moederbord ga
Mijn vragen
  • wie kan ervaringen delen over de Supermicro X11SCV-L en de Asus P11C-I? Of kan ik met een gerust hart voor de Asrock H310 of H370 gaan?
  • kan de g5400 passief gekoeld worden met de Arctic Alpine 12 passive kijkend naar de airflow in de Fractal Design Node 304?
  • ik ben benieuwd naar ervaringen met het plaatsen van een (relatief grote) PSU in de Fractal Design Node 304
  • Voor de keuze van het RAM: moet ik nog rekening houden met eventuele compatibiliteitsproblemen met de overige hardware?

Acties:
  • +2 Henk 'm!
@daan166
WiFi/Bluetooth adapters kunnen fysiek uit het moederbord worden gehaald. De zenders vragen energie als ze aan staan, maar dat kan zo worden vermeden. Ze kunnen ook worden uitgeschakeld in de BIOS of in het besturingssysteem.

In plaats van RAID zou ik kiezen voor losse disks en een goede backup. Nadelen van RAID zijn: moeilijk troubleshooten, beschermt niet tegen gebruiks- en softwarefouten, overhead (kost meer energie), meer disks dan nodig (kost meer energie). Data backup is meestal een betere keuze omdat het beschermt tegen de meeste dataverliesrisico's en -scenario's. Een reden om wel voor RAID te kiezen is als je in realtime absoluut geen data wil verliezen. Bijvoorbeeld als het een server is die data vanuit formulieren verzamelt of aan transactielogging doet. In zo'n geval zou ik dan toch eerder voor SSD's kiezen.

De 3.5" disk die je nu al hebt kun je later via USB3 aansluiten (in een externe behuizing of via een Sharkoon Quickport Pro) voor backups die je niet iedere dag doet. Dan hoeft die disk ook niet te draaien en dat scheelt weer. Het is dan een cold backup disk.

Er is 3 keer meer keuze als je ook kijkt naar mATX borden. Dat scheelt ook in het verbruik.

Jouw systeem zal tijdens opstarten ongeveer verbruiken:
30W processor + zuinig moederbord
Seagate 3.5" cmr ST2000VN004: 24W tijdens opstarten, 3,56W na opstarten, 0,5W in spindown.
(2.5" 4TB/5TB: 3,75W tijdens opstarten, 0,85W na opstarten, 0,18W in spindown.)

Het idle verbruik met de 3.5" disk kan zijn, met zuinig bord: 8W. Met een wat minder zuinig mini-ITX bord: +4W tot +8W. Met minder zuinige ATX voeding +5 tot +10W.

Ongeveer 54W piek tijdens opstarten en 60W max cpu. Daarbij past een PicoPSU-90 met 120W Leicke 12V adapter. Je hebt dan ook voldoende ruimte om uit te breiden naar 5 stuks 2.5" disks. Of 6 stuks 2.5" als je de 3.5" disk alleen nog extern via USB aansluit.

Je kan bijvoorbeeld een disk van 5TB of 2 disks van 4TB toepassen. Zie de topic start (groene highlight) over hoe je hard disk goedkoper kunt aanschaffen.

Op de andere vragen heb ik geen antwoord.

Acties:
  • +3 Henk 'm!

  • willem2668
  • Registratie: Oktober 2012
  • Laatst online: 06-08 22:12
mrmrmr schreef op vrijdag 24 april 2020 @ 01:21:
[...]
Ik heb bijvoorbeeld de indruk dat Debian Buster 10.3 niet meer zo zuinig is als de versie die ik voor vroegere metingen heb gebruikt.
Twee avonden opgeofferd om wat meer meetgegevens te sprokkelen:
1. Debian Buster 10.3.0 - Kernel 4.19.0 - Fujitsu D3674-b BIOS R1.23.0 (configuratie)
  • First boot - headless - idle: 10.5 W
  • Powertop - idle: 8.2 W (Package State PC10)
  • HDD standby - idle: 6.2 W
2. Debian Buster 10.3.0 - Kernel 5.4.0 (op bovenstaande config geïnstalleerd uit "backports")
  • identieke cijfers
3. Ubuntu Server 20.04 LTS - Kernel 5.4.0 - Fujitsu D3674-b BIOS R1.23.0
  • First boot - headless - idle: 7.5 W
  • Powertop - idle: 4.2 W (Package State PC7)
  • HDD standby - idle: 3.5 W
Ik denk hieruit te mogen concluderen dat:
  • de nieuwere bios geen invloed heeft op de cijfers voor Debian Buster;
  • Ubuntu Server 20.04 LTS zijn energiebeheer (al zeker op dit bord) goed onder controle heeft;
  • mogelijk ook de nieuwere Powertop (v 1.11-1) bij Ubuntu (gedeeltelijk) bijdraagt aan deze cijfers;
Mijn keuze voor 20.04 LTS staat ondertussen vast, tijd nu om wat zinnigs met deze build te gaan doen, ... 8)

Acties:
  • 0 Henk 'm!
@willem2668 Bedankt voor de metingen! Een vraag nog: ondanks dat het headless is, is de monitor in slaapstand gezet vanuit het besturingssysteem? Dat betekent namelijk dat er geen signaal gaat naar de videopoort, misschien is dat bij headless nog wel het geval.

Het zou (denk ik dan) best kunnen dat een nieuwere powertop beter werkt, misschien ook in samenwerking met de nieuwere kernel of met nieuwere libraries.

Op 9 mei verschijnt Debian 10.4.

Edit: Ik heb powertop 2.12 gecompileerd onder Debian en toen verplaatst naar een server met Debian 10.3. en D3643-H. De default powertop versie daarop is powertop 2.8. Er zijn verschillen in wat powertop toont aan informatie in idle stats en frequency stats en device stats, maar er is geen verschil in verbruik (momenteel 4,9W).

Als --auto-tune wordt gebruikt met een versie van powertop, dan zorgt dat voor 'bad' bij de SATA drives bij de andere versie. Na het draaien met --auto-tune is die melding verdwenen.

Powertop 2.12 toont inschattingen van het aantal milliwatts verbruik. Opvallend is dat DRAM hoog wordt ingeschat (~500 mW). Iets anders wat opvalt is dat de frequentie niet op 800 MHz draait maar op 1200 tot 1300 Mhz. Dat zorgt natuurlijk voor meer verbruik. Het probleem is wel dat het monitoren zelf de frequentie kan verhogen. De frequentie is te zien d.m.v. lscpu of via /sys/devices/system/cpu/cpu0/cpufreq/scaling_cur_freq per core, 0 t/m 3.

Een foutmelding bij mijn gecompileerde versie van powertop 2.12 is: modprobe cpufreq_stats failedLoaded 0 prior measurements. Er gaat daar iets mis.
# modprobe cpufreq_stats
modprobe: FATAL: Module cpufreq_stats not found in directory /lib/modules/4.19.0-8-amd64


Mogelijk zit die functie in de kernel en niet in een module.

# cpupower frequency-info
analyzing CPU 0:
driver: intel_pstate
CPUs which run at the same hardware frequency: 0
CPUs which need to have their frequency coordinated by software: 0
maximum transition latency: Cannot determine or is not supported.
hardware limits: 800 MHz - 3.70 GHz
available cpufreq governors: performance powersave
current policy: frequency should be within 800 MHz and 3.70 GHz.
The governor "powersave" may decide which speed to use
within this range.
current CPU frequency: Unable to call hardware
current CPU frequency: 1.30 GHz (asserted by call to kernel)
boost state support:
Supported: no
Active: no


Ik heb nog geen oplossing voor de hoge frequentie. intel_pstate luistert niet naar de 800 MHz instructie.

Na een herstart weer terug bij 4,3W - voor de herstart: 4,9W. Iets veroorzaakt het oplopen van het verbruik. Het is niet te resetten met powertop --auto-tune. Dat "iets" is bij mij de oorzaak van het hogere verbruik.

Edit: zoals ik eerder al zelf voor waarschuwde :o : een aangesloten monitor is nodig om de monitor sleep mode te activeren. Zodra een monitor aanstaat gaat die na circa een seconde in sleep mode waardoor het stroomverbruik 0,6W zakt. Daarna kan de monitor weer uit. De gpu wordt vermoedelijk daardoor uitgeschakeld of in ieder geval in low mode gezet. Mysterie opgelost, maar dit is toch niet echt handig in gebruik. Een manier om de gpu uit te schakelen zonder monitor zou wel handig zijn.

Sleepmode monitor activeren kan via een GRUB parameter in /etc/default/grub

GRUB_CMDLINE_LINUX_DEFAULT="quiet ipv6.disable=1 consoleblank=5"

Momenteel komt de machine op 3,9W met 1 actieve I211-AT netwerkaansluiting.

[ Voor 94% gewijzigd door mrmrmr op 05-05-2020 00:18 ]


Acties:
  • 0 Henk 'm!

  • willem2668
  • Registratie: Oktober 2012
  • Laatst online: 06-08 22:12
mrmrmr schreef op vrijdag 1 mei 2020 @ 08:19:
Een vraag nog: ondanks dat het headless is, is de monitor in slaapstand gezet vanuit het besturingssysteem? Dat betekent namelijk dat er geen signaal gaat naar de videopoort, misschien is dat bij headless nog wel het geval.
Bij het inpluggen van de hdmi kabel verhoogt het verbruik met 0.3 à 0.4 W, bij het aanzetten van de monitor komt onmiddellijk de login prompt van tty1, dit heeft verder geen invloed op het verbruik.
Zonder hdmi kabel valt het verbruik terug naar "normaal" (3.5 W).

Verder heb ik er geen idee van waar ik kan zien / met welk commando ik kan checken of de monitor bij een headless systeem in slaapstand staat ?

Ter info: Powertop (Ubuntu Server 20.04 LTS)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
System baseline power is estimated at 619 mW

Power est.    Usage     Device name
  513 mW      0.1%        DRAM
 64.2 mW      0.1%        CPU misc
 41.6 mW      0.1%        CPU core
    0 mW    100.0%        Display backlight
            100.0%        PCI Device: Intel Corporation Cannon Lake PCH SATA AHCI Controller
            100.0%        PCI Device: Intel Corporation Cannon Lake PCH PCI Express Root Port #5
            100.0%        PCI Device: Realtek Semiconductor Co., Ltd. RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller
            100.0%        PCI Device: Phison Electronics Corporation E12 NVMe Controller
            100.0%        PCI Device: Intel Corporation Device 3e90
            100.0%        PCI Device: Intel Corporation Device 3e0f
            100.0%        PCI Device: Intel Corporation Cannon Lake PCH Thermal Controller
            100.0%        PCI Device: Intel Corporation Cannon Lake PCH PCI Express Root Port #12
              0.9 pkts/s  Network interface: enp2s0 (r8169)
              0.0%        USB device: xHCI Host Controller
              0.0%        runtime-reg-dummy
              0.0%        runtime-iTCO_wdt
              0.0%        runtime-INT3450:00
              0.0%        runtime-eisa.0
              0.0%        runtime-microcode
              0.0%        runtime-intel_rapl_msr.0
              0.0%        runtime-Fixed MDIO bus.0
              0.0%        runtime-PNP0C0C:00
              0.0%        USB device: xHCI Host Controller
              0.0%        runtime-PNP0C0E:00
              0.0%        runtime-serial8250
              0.0%        runtime-FUJ0430:00
              0.0%        runtime-coretemp.0
              0.0%        runtime-efi-framebuffer.0
              0.0%        runtime-i2c_designware.0
              0.0%        I2C Adapter (i2c-5): i915 gmbus dpd
              0.0%        runtime-ACPI000C:00
              0.0%        runtime-alarmtimer.0.auto
              0.0%        runtime-intel_pmc_core.0
              0.0%        runtime-PNP0C04:00
              0.0%        I2C Adapter (i2c-3): i915 gmbus dpc
              0.0%        I2C Adapter (i2c-1): SMBus I801 adapter at efa0
              0.0%        I2C Adapter (i2c-6): DPDDC-A
              0.0%        I2C Adapter (i2c-4): i915 gmbus misc
              0.0%        I2C Adapter (i2c-2): i915 gmbus dpb
              0.0%        I2C Adapter (i2c-0): Synopsys DesignWare I2C adapter
              0.0%        I2C Adapter (i2c-7): DPDDC-C
              0.0%        runtime-PNP0103:00
              0.0%        PCI Device: Intel Corporation Device a303
              0.0%        PCI Device: Intel Corporation Cannon Lake PCH HECI Controller
              0.0%        PCI Device: Intel Corporation Cannon Lake PCH SPI Controller
              0.0%        PCI Device: Intel Corporation Cannon Lake PCH Serial IO I2C Controller #0
              0.0%        PCI Device: Intel Corporation Cannon Lake PCH Shared SRAM
              0.0%        PCI Device: Intel Corporation Cannon Lake PCH USB 3.1 xHCI Host Controller
              0.0%        PCI Device: Intel Corporation Cannon Lake PCH SMBus Controller
              0.0%        runtime-PNP0C14:00
              0.0%        runtime-pcspkr
              0.0%        runtime-idma64.0

Acties:
  • 0 Henk 'm!
willem2668 schreef op vrijdag 1 mei 2020 @ 23:26:
Bij het inpluggen van de hdmi kabel verhoogt het verbruik met 0.3 à 0.4 W, bij het aanzetten van de monitor komt onmiddellijk de login prompt van tty1, dit heeft verder geen invloed op het verbruik.
Zonder hdmi kabel valt het verbruik terug naar "normaal" (3.5 W).

Verder heb ik er geen idee van waar ik kan zien / met welk commando ik kan checken of de monitor bij een headless systeem in slaapstand staat ?
Het kan zijn dat Ubuntu (vooral bij een gui) het automatisch al doet. Met een gui kan het onder settings, power, blank screen.

Zonder gui kan het bijvoorbeeld bij opstarten als parameter.

Een aantal methoden staan hier beschreven:
https://askubuntu.com/que...onitor-using-command-line

Het idee is dat het besturingssysteem zo de gpu op de laagste low power stand kan zetten. Het gaat dus eigenlijk niet om de monitor zelf.

Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

Weet hier iemand een goede energiemeter die je permanent aan je server (stopcontact) kunt hangen voor verbruiksmeting die je dan vervolgens via een webinterface kunt raadplegen, wat niet zo'n standaard "chinese-unit-met-wifi" is die vervolgens alleen met een App op je telefoon kan worden geraadpleegd en met een beetje pech over 2 jaar niet meer ondersteund wordt?

Ik heb voor losse metingen een ELV Energy Master, maar voor in mijn 19" rack ben ik op zoek naar een andere oplossing. Ik was overigens niet van plan er honderden euro's aan uit te geven, zoals een 19" PDU met verbruiksmeting van APC ofzo. :P

Aannames zijn fataal.


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 15:44
GaMeOvEr schreef op zaterdag 2 mei 2020 @ 11:11:
Weet hier iemand een goede energiemeter die je permanent aan je server (stopcontact) kunt hangen voor verbruiksmeting die je dan vervolgens via een webinterface kunt raadplegen, wat niet zo'n standaard "chinese-unit-met-wifi" is die vervolgens alleen met een App op je telefoon worden geraadpleegd en met een beetje pech over 2 jaar niet meer ondersteund wordt?

Ik heb voor losse metingen een ELV Energy Master, maar voor in mijn 19" rack ben ik op zoek naar een andere oplossing. Ik was overigens niet van plan er honderden euro's aan uit te geven, zoals een 19" PDU met verbruiksmeting van APC ofzo. :P
Ik gebruik de fibaro wall plug 2. Wel opletten of je de NL of BE versie neemt. BE versie is redelijk goedkoop op dit moment.
Ik lees die uit via home assistant zwave. Dat zijn geen metingen tot op de milliwatt maar voor mij voldoende.

Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

Yarisken schreef op zaterdag 2 mei 2020 @ 11:30:
[...]

Ik gebruik de fibaro wall plug 2. Wel opletten of je de NL of BE versie neemt. BE versie is redelijk goedkoop op dit moment.
Ik lees die uit via home assistant zwave. Dat zijn geen metingen tot op de milliwatt maar voor mij voldoende.
Probleem is dat ik verder helemaal niets aan home-automation in gebruik heb, ik heb dus geen bridges en dergelijke, als ik die ook moet aanschaffen loopt dat weer zo op. Vooral ook omdat ik er voor de rest niet al te veel toepassingen voor heb wat ik zou willen automatiseren.

Maar toch bedankt voor de tip. :)

Aannames zijn fataal.


Acties:
  • +2 Henk 'm!

  • nonkeljos
  • Registratie: Augustus 2019
  • Laatst online: 15:37
Shelly plug s op wifi misschien?

Acties:
  • +2 Henk 'm!

  • Freakster86
  • Registratie: September 2009
  • Niet online
Mijn verbruik is, zonder optimalisatie, ook enigszins bekend. Ik weet alleen niet of ik dit nog een "zuinige server" mag noemen als ik het vergelijk met het verbruik van sommige andere builds :+ Maar goed, ik heb dan ook op de kosten gelet door o.a. moederbord en cpu tweedehands te kopen. Totale kosten rond de 900 euro.

Gebruik een Brennenstuhl PM 231 E en de volgende build met Unraid 6.8.3 als OS (de bedragen kloppen uiteraard niet én de voeding is in werkelijkheid een Leicke ULL 72 watt versie)
#CategoryProductPrijsSubtotaal
1ProcessorsIntel Pentium G4560 Boxed€ 65,05€ 65,05
1MoederbordenGigabyte GA-B250M-DS3H€ 0,-€ 0,-
7Interne harde schijvenSeagate Barracuda Compute 2,5", 5TB€ 168,99€ 1.182,93
1BehuizingenCooltek C2 Zwart€ 0,-€ 0,-
1Computer accessoiresLeicke ULL Power Supply 120 W€ 29,99€ 29,99
1ProcessorkoelingArctic Alpine 12 Passive€ 9,05€ 9,05
1Geheugen internCrucial Ballistix Sport LT BLS2K16G4D30AESE€ 152,34€ 152,34
1VoedingenMini-box picoPSU 90€ 39,-€ 39,-
1Solid state drivesSamsung 850 EVO 250GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 1.478,36


En een paar foto's. Het rack was even improsiveren omdat de bestelde acryl oplossing van Aliexpress niet paste. Ga hier nog een nieuwe versie met aluminium van maken en de schijven vastmaken met rubbers+duimschroeven.
Afbeeldingslocatie: https://tweakers.net/i/46zdYngjzkOHOUcERrkBdSCSdtQ=/232x232/filters:strip_icc():strip_exif()/f/image/dINomMcDaYnZwXTiF0zRuZSw.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/PSaZW3F_XME4N4lQkAKmCYhR5AA=/232x232/filters:strip_icc():strip_exif()/f/image/LFjWbQumZatgX6eYDmvAM6gC.jpg?f=fotoalbum_tile


En dan de cijfers
code:
1
2
3
4
5
1,8w (uit, geen schijven, geen randapparatuur)
2,3w (uit, 8 schijven, geen randapparatuur)
51w (opstarten (piek), 8 schijven, geen randapparatuur)
23,5w (idle, 8 schijven, geen randapparatuur)
20,5w (idle, 8 schijven waarvan 5 schijven standby, geen randapparatuur)


Dit is dus met 7x 5TB 2,5" Seagates (25TB effectief, 2 parity) en 1x 250GB Samsung Evo 840 als cache. Ik vind het sluipverbruik bij helemaal uit nogal tegenvallen, toch? De server zal waarschijnlijk toch 24/7 aanstaan, maar toch. Vergeleken met mijn DS412+ met 4x 6TB WD Blue's met 18TB effectief (~42w idle) is het ongeveer een halvering, maar dat is dan nog wel zonder dat er services draaien op de nieuwe server.


EDIT:

En helemaal vergeten: er zit ook nog een PCIe kaartje met een Marvell 88SE9215 chipset in voor 4 extra SATA poorten, omdat ik niet voldoende had aan de 6 poorten op het moederbord.
Afbeeldingslocatie: https://tweakers.net/i/UNewxQeyKYu8SspX0dAqC7VZkzk=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/e8u495Bvf0luB4I51ZbWcYKW.jpg?f=user_large

[ Voor 3% gewijzigd door Freakster86 op 02-05-2020 12:26 ]


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 15:44
GaMeOvEr schreef op zaterdag 2 mei 2020 @ 11:47:
[...]

Probleem is dat ik verder helemaal niets aan home-automation in gebruik heb, ik heb dus geen bridges en dergelijke, als ik die ook moet aanschaffen loopt dat weer zo op. Vooral ook omdat ik er voor de rest niet al te veel toepassingen voor heb wat ik zou willen automatiseren.

Maar toch bedankt voor de tip. :)
Hmm wel met een aeotec stick voor zwave en domoticz, openhab of home assistant en dan nog een fibaro plug dan ben je voor 80 - 90 euro gesteld en je kan dan altijd nog zwave devices toevoegen.
Misschien een goed excuus om is met home automation te starten :-).

Acties:
  • +4 Henk 'm!
@Freakster86

Dit is een uitzoekwerkje.

Heb je optimalisaties in de BIOS toegepast?

Eerst alles naar optimized default zetten:
Save & Exit / Load Optimized Defaults

CPU Enhanced Halt (C1E): enabled
C3 State Support: Enabled
C6/C7 State Support: Enabled
C8 State Support: Enabled
Package C State Limit: Enabled
CPU EIST Function: Enabled (als het mogelijk is, anders auto)
Voltage Optimization: Enabled
RSR: Enabled
Extreme Memory Profile (X.M.P.): disabled
Memory Frequency: 1200 MHz
Memory Enhancement Settings: Normal

Fast Boot: disabled
Windows 8/10 Features: Other OS

SATA Mode Selection: AHCI
Aggressive LPM Support: Enabled (default)
Platform Power Management: Enabled


Je hebt overclock geheugen, 1.35V en XMP denk ik. Is de BIOS ingesteld op standaard JEDEC DDR4 2133 of DDR4 2400 snelheid en spanningen? Maak dat zo veel mogelijk standaard JEDEC timings en normale spanningen voor normale DDR4's op de normale 1.2V. Geen XMP.

1,8W uit is een beetje aan de hoge kant. 1.2W is normaal na een software shutdown (shutdown op de command line) met een zuinige AC/DC adapter.

Voor meer inzicht, zou ik ook een meting doen van de adapter op zichzelf (1). Daarna van een kaal systeem (geen USB randapparaten zoals toetsenbord, muis, geen fans, geen fancontrollers, wel een monitor in slaapstand), alle hard disks compleet loskoppelen, geen uitbreidingskaarten, monitor in slaapstand. Na shutdown (2), na suspend (3) en idle (4), monitor in slaapstand.

Daarna een meting met de PCIe kaart in het x16 slot waar je het nu in hebt (monitor slaapstand...) (5). Daarna nog een keer met de PCIe kaart in een van de twee korte PCIe slots (monitor slaapstand...) (6).

Verder met 1 disk aangesloten (7) op alleen de controller tot met het aantal wat je normaal hebt aangesloten (8 e.v.). Nog geen on board SATA. Daarna nog een laatste idle meting met alles zoals het normaal draait.

Dat helpt uit te vinden waar de probleempunten zitten.

Unraid is gebaseerd op de Slackware Linux distributie. Heb je powertop --auto-tune of TLP gebruikt voor de optimalisatie van Linux? De BIOS optimalisatie moet eerst worden uitgevoerd.

Acties:
  • +1 Henk 'm!

  • Freakster86
  • Registratie: September 2009
  • Niet online
@mrmrmr Top reactie! Ik kom er komende week op terug, zodat ik ook e.e.a. kan testen/uitzoeken.

Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

nonkeljos schreef op zaterdag 2 mei 2020 @ 12:00:
Shelly plug s op wifi misschien?
Dat lijkt inderdaad een goede kandidaat te zijn, heeft een eigen webservertje. Dankjewel voor de tip. :)

Aannames zijn fataal.


Acties:
  • +1 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
@Freakster86 en @mrmrmr.. Het systeem van Freakster86 zal niet veel lager gaan, dit komt door Unraid.

Ik heb het in ieder geval niet voor elkaar gekregen om Unraid onder de 19W te krijgen bij mijn systeem terwijl via OMV (debian) met 5.4 kernel het op 9.37W uitkomt.

Mocht het toch lukken, hoor ik graag de oplossing! Unraid is wel een mooi software oplossing namelijk.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
Iemand hier ervaring met de pricewatch: Supermicro CPU Heat Sink passieve CPU cooler? Ik heb sterk de neiging om een 1U server te bouwen. Kleiner is fijner. Stille 40mm fans die wat luchtverplaatsing genereren over een Intel G5400. Zou wel moeten lukken toch?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

CurlyMo schreef op zondag 3 mei 2020 @ 20:47:
Iemand hier ervaring met de pricewatch: Supermicro CPU Heat Sink passieve CPU cooler? Ik heb sterk de neiging om een 1U server te bouwen. Kleiner is fijner. Stille 40mm fans die wat luchtverplaatsing genereren over een Intel G5400. Zou wel moeten lukken toch?
40mm en stil kan vrijwel niet. Daarnaast gaat er zo veel airflow langs de heatsink dat je flink veel flow nodig hebt om te koelen.
Voor stilte heb je echt een heatsink met directe (of via heatpipes) fan. En voor de fans is grootte echt belangrijk, in het algemeen hoe groter, hoe minder RPM er nodig is en hoe stiller het is.

Dit is één van de redenen waarom ik towers gebruik, met 19” heb je eigenlijk altijd meer geluid (en zeker met 1 of 2U).
Mijn enige alternatief is een passieve behuizing met een 7100U, maar die krijgt echt problemen als de omgevingstemperatuur boven de 24 graden komt.

[ Voor 15% gewijzigd door |sWORDs| op 03-05-2020 21:55 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
|sWORDs| schreef op zondag 3 mei 2020 @ 21:51:
[...]

40mm en stil kan vrijwel niet. Daarnaast gaat er zo veel airflow langs de heatsink dat je flink veel flow nodig hebt om te koelen.
Mijn POE switch is uitgerust met pricewatch: Noiseblocker BlackSilent XM-1, 40mm ter vervanging van de standaard fans. Dat gaat meer dan prima.

@mrmrmr Wat denk jij? Je zei eerder dat een iets forceerde luchtstroom een G5400 wel koel moet houden aangezien jij volledig passief koel in een Tower.

[ Voor 13% gewijzigd door CurlyMo op 03-05-2020 23:01 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Accretion
  • Registratie: April 2014
  • Laatst online: 16:18

Accretion

⭐⭐⭐⭐⭐ (5/5)

|sWORDs| schreef op zondag 3 mei 2020 @ 21:51:
[...]
40mm en stil kan vrijwel niet.
Je hebt van die Noctua 40mm's, zijn wel relatief duur.
Ik heb in mijn server de standaard fans vervangen voor "gelid 40mm”'s.

Dit koelt minder, maar wel genoeg voor de HDD's, zou er ook meer in kunnen zetten of de lucht wat beter geleiden naast de schijven.

Voor de CPU cooler, heb ik een "gelid polar 1U", zorgt niet echt voor een goede airflow, maar is vrij stil en werkt wel prima om de een of andere reden.

Acties:
  • 0 Henk 'm!
CurlyMo schreef op zondag 3 mei 2020 @ 22:16:
[...]

Mijn POE switch is uitgerust met pricewatch: Noiseblocker BlackSilent XM-1, 40mm ter vervanging van de standaard fans. Dat gaat meer dan prima.

@mrmrmr Wat denk jij? Je zei eerder dat een iets forceerde luchtstroom een G5400 wel koel moet houden aangezien jij volledig passief koel in een Tower.
Ik heb geen fans meer aanstaan in mijn tower kasten, er zitten wel fans in maar die gaan alleen handmatig aan als het binnen heet (> ca. 30 graden) is.

Deze 40mm 2800rpm fans zijn wel erg stil, maar het probleem is dat je veel kracht nodig hebt om de lucht horizontaal door de kast te persen en ook nog door de dicht op elkaar staande dunne vinnen van een doorsnee passieve 1U koeler van een processor. Meestal moet je de lucht geleiden door een "shroud" (plastic tunnel) om dat voor elkaar te krijgen, anders gaat de lucht er omheen.

Het is niet abnormaal dat fans in 1U dozen daardoor een hoge maximale rpm hebben, meer dan 10.000 rpm komt voor. Dat maakt een kabaal als een opstijgend vliegtuig, bijvoorbeeld bij 1U kasten van Dell, HP en Supermicro. Vooral te horen tijdens opstarten en bij zware belasting/hoge temperaturen.

Als je 1U nodig hebt en de inhoud van de kast wekt relatief weinig warmte op, en je hebt een goede lucht geleider voor de smalle koelvinnen van de processorkoeler, dan zou een aantal laag rpm fans voldoende kunnen zijn. Je bent er meestal niet met 1 fan, in een normale kast zitten er 5 of meer. Oppassen voor "dode gebieden" waar de lucht niet beweegt, zoals bij mechanische hard disks of snelle NVMe SSD's.

Passieve koeling (zoals via natuurlijke schoorsteenwerking in een tower kast) is het beste voor de zuinigheid. Actieve koeling kost energie.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Accretion schreef op zondag 3 mei 2020 @ 23:13:
[...]


Je hebt van die Noctua 40mm's, zijn wel relatief duur.
Ik heb in mijn server de standaard fans vervangen voor "gelid 40mm”'s.

Dit koelt minder, maar wel genoeg voor de HDD's, zou er ook meer in kunnen zetten of de lucht wat beter geleiden naast de schijven.

Voor de CPU cooler, heb ik een "gelid polar 1U", zorgt niet echt voor een goede airflow, maar is vrij stil en werkt wel prima om de een of andere reden.
Ik heb een bedrijf gehad in huis automatisering waarbij we Supermicro 1U gebruikten met een T CPU en de fans vervingen, dat ging prima, maar daar was de load 20% voor 30 seconden na boot en daarna 5-10%. Zo stil als twee 120mm fans was het zeker niet en met hoge load denk ik niet dat de temperatuur goed genoeg zou blijven, niet alleen CPU, maar ook VRMs en dergelijke. Er is een reden waarom Supermicro er high RPM fans instopt en zelfs dan maar een TDP tot 50W of zo support.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • GaMeOvEr
  • Registratie: Januari 2000
  • Nu online

GaMeOvEr

Is een hork.

Dat is ook de reden dat ik voor een 4U behuizing ben gegaan (ik heb gelukkig de ruimte in mijn rack) zodat ik een grote towerkoeler kan monteren met een 120mm fan, die ik vervolgens op 700 rpm ofzo kan laten draaien.

De maximale cooler-hoogte in mijn behuizing ( pricewatch: Inter-Tech IPC 4U-4408 ) is 155mm, dan heb je flink wat opties. Wel een grote kast natuurlijk.

Aannames zijn fataal.


Acties:
  • 0 Henk 'm!

  • PuijkeN
  • Registratie: Juli 2004
  • Laatst online: 26-09 23:01

PuijkeN

euhm ?

renedis schreef op zondag 3 mei 2020 @ 17:31:
@Freakster86 en @mrmrmr.. Het systeem van Freakster86 zal niet veel lager gaan, dit komt door Unraid.

Ik heb het in ieder geval niet voor elkaar gekregen om Unraid onder de 19W te krijgen bij mijn systeem terwijl via OMV (debian) met 5.4 kernel het op 9.37W uitkomt.

Mocht het toch lukken, hoor ik graag de oplossing! Unraid is wel een mooi software oplossing namelijk.
Om die reden twijfel ik ook om weg te gaan van Unraid en gewoon iets gelijkaardigs in te regelen via Ubuntu. Ik heb niets het zuinigste moederbord en (nog) geen picoPSU en zit rond de 25 Watt (pfSense VM + 10-tal containers) met alle schijven spinned down. Ik denk dat er meer is uit te halen is..

pfSense draait nu op een Intel NUC met Ubuntu 20 aan 5 watt. Ik hoop ergens rond de 15 watt uit te komen op de Unraid bak

PVOutput


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
mrmrmr schreef op maandag 4 mei 2020 @ 00:10:
[...]
Deze 40mm 2800rpm fans zijn wel erg stil, maar het probleem is dat je veel kracht nodig hebt om de lucht horizontaal door de kast te persen en ook nog door de dicht op elkaar staande dunne vinnen van een doorsnee passieve 1U koeler van een processor. Meestal moet je de lucht geleiden door een "shroud" (plastic tunnel) om dat voor elkaar te krijgen, anders gaat de lucht er omheen.
Is nu niet juist het voordeel van een 1U kast? Dat die lucht nergens anders heen kan dan horizontaal naar buiten? Oftewel, dat de hele kast de shroud is.
Het is niet abnormaal dat fans in 1U dozen daardoor een hoge maximale rpm hebben, meer dan 10.000 rpm komt voor. Dat maakt een kabaal als een opstijgend vliegtuig, bijvoorbeeld bij 1U kasten van Dell, HP en Supermicro. Vooral te horen tijdens opstarten en bij zware belasting/hoge temperaturen.
Ik ken ze, die zaten ook in mijn POE switch. Andere optie is natuurlijk Noctua fans. Wel wat duurder, maar wel static pressure, wat ze geschikter maakt een luchtkolom horizontaal te verplaatsen.
Als je 1U nodig hebt en de inhoud van de kast wekt relatief weinig warmte op, en je hebt een goede lucht geleider voor de smalle koelvinnen van de processorkoeler, dan zou een aantal laag rpm fans voldoende kunnen zijn. Je bent er meestal niet met 1 fan, in een normale kast zitten er 5 of meer. Oppassen voor "dode gebieden" waar de lucht niet beweegt, zoals bij mechanische hard disks of snelle NVMe SSD's.
Mijn idee is nu deze kast pricewatch: Inter-Tech IPC 1U-10240. Die is maar 43,5cm diep in tegenstelling tot de standaard 65cm. Dat scheelt dus een hoop in de benodigde luchtverplaatsing en dus een kortere luchtkolom.
|sWORDs| schreef op maandag 4 mei 2020 @ 00:16:
[...]
Er is een reden waarom Supermicro er high RPM fans instopt en zelfs dan maar een TDP tot 50W of zo support.
TDP van de G5400 is 58W. Iets hoger dus. De betreffende passieve cooler ondersteund CPU's tot 87W TDP.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Freakster86
  • Registratie: September 2009
  • Niet online
renedis schreef op zondag 3 mei 2020 @ 17:31:
@Freakster86 en @mrmrmr.. Het systeem van Freakster86 zal niet veel lager gaan, dit komt door Unraid.

Ik heb het in ieder geval niet voor elkaar gekregen om Unraid onder de 19W te krijgen bij mijn systeem terwijl via OMV (debian) met 5.4 kernel het op 9.37W uitkomt.

Mocht het toch lukken, hoor ik graag de oplossing! Unraid is wel een mooi software oplossing namelijk.
10watt verschil is wel erg veel zeg... Ik zal ook eens kijken welke verbruikscijfers ik met OMV krijg.

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
CurlyMo schreef op zondag 3 mei 2020 @ 20:47:
Iemand hier ervaring met de pricewatch: Supermicro CPU Heat Sink passieve CPU cooler? Ik heb sterk de neiging om een 1U server te bouwen. Kleiner is fijner. Stille 40mm fans die wat luchtverplaatsing genereren over een Intel G5400. Zou wel moeten lukken toch?
De pricewatch: Supermicro SNK-P0046P werkt beter omdat ie 2 verborgen heatpipes heeft en een vapor chamber. Werkt prima in mijn 1U ultra short (25 cm) kast met G4560. Werkte eerder ook prima icm een i5-6400.

De Noctua 40mm PWM is het beste maar ook het duurst. Next best thing is de Cooltek maar slecht verkrijgbaar. Gevaar is de lage continue brom geluiden op lagere toeren welke 40mm fans snel krijgen. De Noctua heeft dit probleem niet.

Ik zal even kijken of ik mijn 40mm fan excellijst vergelijk nog ergens heb. De eerder door mij aangegeven heatsink is echt een aanrader!

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
renedis schreef op maandag 4 mei 2020 @ 09:25:
[...]


De pricewatch: Supermicro SNK-P0046P werkt beter omdat ie 2 verborgen heatpipes heeft en een vapor chamber. Werkt prima in mijn 1U ultra short (25 cm) kast met G4560. Werkte eerder ook prima icm een i5-6400.
Fijn om te horen dat mijn wensen niet te gestoord zijn voor realistisch uitvoering :) Die cooler is alleen wel bijna twee keer zo duur.

Jij hebt er nog wel aanvullende case coolers bij voor luchtverplaatsing of helemaal passief? Ik was van plan om deze te gebruiken:
pricewatch: Noiseblocker BlackSilent XM-1, 40mm

Ik weet niet of dat voldoende zal zijn?

Welke behuizing heb jij in gebruik?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
CurlyMo schreef op maandag 4 mei 2020 @ 09:45:
[...]

Fijn om te horen dat mijn wensen niet te gestoord zijn voor realistisch uitvoering :) Die cooler is alleen wel bijna twee keer zo duur.

Jij hebt er nog wel aanvullende case coolers bij voor luchtverplaatsing of helemaal passief? Ik was van plan om deze te gebruiken:
pricewatch: Noiseblocker BlackSilent XM-1, 40mm

Ik weet niet of dat voldoende zal zijn?

Welke behuizing heb jij in gebruik?
Zie ook:
renedis in "Het grote zuinige server topic - deel 2" of renedis in "Het grote zuinige server topic - deel 2"

Dat waren wat oudere setups van mij. De 1U case die ik gebruik is deze. Destijds 3 stuks van gekocht. Er zitten ook fans bij, maar die maken veel herrie.

De pricewatch: Noiseblocker BlackSilent XM-2, 40mm raad ik niet aan. Deze verplaatst veel minder lucht (bijna de helft).

Bekijk dit eens:
https://tweakers.net/pric...173;259564;773431;315333/

De Cooltek is daarbij de beste optie als je kijkt naar m³/h en CFM. Maar in de praktijk doet de Noctua het net zo goed met minder geluid. Eigenlijk moet ik zeggen vibratie. Want dat is wat je werkelijk hoort bij de Coolteks, een soort van brom. Niet dat het storend is, want de 1U cases hangen bij mij in de meterkast. Als je je oren er bij houdt dan ga je dit verschil natuurlijk wel horen. De WAF merkt/hoort het in ieder geval niet, en dat was de eis van haar. Full-speed is de Cooltek beter en heeft deze geen brom, maar verliest wat sneller zijn airflow op lagere toeren, de Noctua heeft dat probleem niet. De Noctua is overigens ook de enige goede PWM optie.

Afbeeldingslocatie: https://tweakers.net/i/b4NqgMpPSHo0WU51lLS5F-6yW_M=/800x/filters:strip_icc():strip_exif()/f/image/epIV9KcdzA0dheM9a17R2bO5.jpg?f=fotoalbum_large

Zie foto, links een no-name full copper CPU block en rechts de SuperMicro met 2 heatpipes en vapor chamber. De SuperMicro doet het beter dan het koperblok. Dit terwijl ik met het koperblok nog ook met liquid metal aan de slag ben gegaan zonder resultaat. De SuperMicro is echt onwijs goed.

Afbeeldingslocatie: https://tweakers.net/i/GtEvZECIM_oCYovyd9P578oHYMA=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/V88kKh6726x46jqbx5efkCHq.jpg?f=user_large

Zie hier mijn quasi paint skills. De rode lijnen zijn de heatpipes. Daar onder zit de vaporchamber welke ik in oranje heb aangegeven. De SuperMicro is vierkant en kan je uiteraard in iedere airflow richting plaatsen (y)

Acties:
  • 0 Henk 'm!

  • d--amo
  • Registratie: Juli 2013
  • Laatst online: 03-09 22:03
Ik ben momenteel ook op zoek naar een nieuwe homeserver. De bedoeling is om deze te gebruiken voor het volgende:
  • Plex
  • Sonarr
  • Radarr
  • Lidarr
  • Jackett
  • Deluge
  • Pihole
  • Unifi Controller
  • Windows VM
#CategoryProductPrijsSubtotaal
1ProcessorsIntel Core i3-9100 Boxed€ 117,08€ 117,08
1BarebonesASRock DeskMini 310€ 147,50€ 147,50
1Geheugen internCrucial CT16G4SFD824A€ 67,09€ 67,09
1Solid state drivesIntel 660p 512GB€ 76,21€ 76,21
Bekijk collectie
Importeer producten
Totaal€ 407,88


Op basis van ervaringen in dit topic lijkt met dit wel een bewezen setup. Vermoedelijk zal ik dit gaan draaien op Proxmox, ofwel in een Ubuntu VM met Docker, ofwel een LXC container met Docker, of mogelijks gewoon in LXC. Er zijn nogal voor -en tegenstanders van deze setup, dus moet ik nog even uitzoeken :)

Ik ben er nog niet helemaal uit hoe ik de storage het best kan indelen. Draaien jullie zowel Proxmox als alle VM's, containers op 1 disk, of kan ik de VM's, containers best apart houden van het OS?

Met de M.2 in gebruik heb ik nog steeds 2 SATA poorten over, dus ik kan in principe nog aparte SSD's bijplaatsen.

Mijn Plex data staat op een Synology NAS, en zal als NFS share toegankelijk zijn.

[ Voor 4% gewijzigd door d--amo op 04-05-2020 10:30 ]


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
d--amo schreef op maandag 4 mei 2020 @ 10:25:
Ik ben momenteel ook op zoek naar een nieuwe homeserver. De bedoeling is om deze te gebruiken voor het volgende:
  • Plex
  • Sonarr
  • Radarr
  • Lidarr
  • Jackett
  • Deluge
  • Pihole
  • Unifi Controller
  • Windows VM
#CategoryProductPrijsSubtotaal
1BarebonesASRock DeskMini 310€ 147,50€ 147,50
1Geheugen internCrucial CT16G4SFD824A€ 67,09€ 67,09
1Solid state drivesIntel 660p 512GB€ 76,21€ 76,21
Bekijk collectie
Importeer producten
Totaal€ 290,80


Op basis van ervaringen in dit topic lijkt met dit wel een bewezen setup. Vermoedelijk zal ik dit gaan draaien op Proxmox, ofwel in een Ubuntu VM met Docker, ofwel een LXC container met Docker, of mogelijks gewoon in LXC. Er zijn nogal voor -en tegenstanders van deze setup, dus moet ik nog even uitzoeken :)

Ik ben er nog niet helemaal uit hoe ik de storage het best kan indelen. Draaien jullie zowel Proxmox als alle VM's, containers op 1 disk, of kan ik de VM's, containers best apart houden van het OS?

Met de M.2 in gebruik heb ik nog steeds 2 SATA poorten over, dus ik kan in principe nog aparte SSD's bijplaatsen.

Mijn Plex data staat op een Synology NAS, en zal als NFS share toegankelijk zijn.
VM's en docker op zelfde schijf als je OS kan prima.

Maar ik mis je gekozen CPU in dit verhaal?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
renedis schreef op maandag 4 mei 2020 @ 10:16:
[...]
Dat waren wat oudere setups van mij. De 1U case die ik gebruik is deze. Destijds 3 stuks van gekocht. Er zitten ook fans bij, maar die maken veel herrie.
Ik wil graag het bekende Fujitsu moederbord gebruiken, dus mini-itx gaat niet lukken.
De Cooltek is daarbij de beste optie als je kijkt naar m³/h en CFM.
Volgens ondersteund die Cooltek geen PWM, anders wordt het toch Noctua
Zie foto, links een no-name full copper CPU block en rechts de SuperMicro met 2 heatpipes en vapor chamber. De SuperMicro doet het beter dan het koperblok. Dit terwijl ik met het koperblok nog ook met liquid metal aan de slag ben gegaan zonder resultaat. De SuperMicro is echt onwijs goed.
Maar denkt je dat die goedkopere Supermicro niet goed genoeg gaat zijn?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

CurlyMo schreef op maandag 4 mei 2020 @ 09:45:
[...]

Fijn om te horen dat mijn wensen niet te gestoord zijn voor realistisch uitvoering :) Die cooler is alleen wel bijna twee keer zo duur.

Jij hebt er nog wel aanvullende case coolers bij voor luchtverplaatsing of helemaal passief? Ik was van plan om deze te gebruiken:
pricewatch: Noiseblocker BlackSilent XM-1, 40mm

Ik weet niet of dat voldoende zal zijn?

Welke behuizing heb jij in gebruik?
De fans die Supermicro gebruikt draaien 3x zo snel en de bladen zijn 2.8x hoger. Die zijn waarschijnlijk overkill, maar zo groot is het verschil nou ook niet.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • d--amo
  • Registratie: Juli 2013
  • Laatst online: 03-09 22:03
renedis schreef op maandag 4 mei 2020 @ 10:27:
[...]


VM's en docker op zelfde schijf als je OS kan prima.

Maar ik mis je gekozen CPU in dit verhaal?
Daar liep iets mis met die lijst 8)7 Ik heb mijn post aangepast, het gaat om een intel-core-i3-9100-boxed

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
|sWORDs| schreef op maandag 4 mei 2020 @ 10:34:
[...]

De fans die Supermicro gebruikt draaien 3x zo snel en de bladen zijn 2.8x hoger. Die zijn waarschijnlijk overkill, maar zo groot is het verschil nou ook niet.
Het nut van die straalmotoren die standaard in deze behuizingen zitten snap ik. Maar dat zijn hele andere omgevingen met een hele andere load. Ik heb precies die straalmotoren nog thuis liggen uit mijn switch. Dingen doen inderdaad 10.000RPM.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
CurlyMo schreef op maandag 4 mei 2020 @ 10:29:
[...]

Ik wil graag het bekende Fujitsu moederbord gebruiken, dus mini-itx gaat niet lukken.


[...]

Volgens ondersteund die Cooltek geen PWM, anders wordt het toch Noctua


[...]

Maar denkt je dat die goedkopere Supermicro niet goed genoeg gaat zijn?
De Cooltek heeft idd geen PWM, De Noctua wel.

De goedkopere zal denk ik prima werken, die heeft echter geen vapor chamber maar enkel 2 heatpipes.

Daarom heeft de pricewatch: Supermicro SNK-P0046P (de weergegeven foto klopt overigens niet op Tweakers) ook een TDP classificatie van 95W en de pricewatch: Supermicro CPU Heat Sink een TDP classificatie van 87W.

Om in type nummers te blijven:
- SNK-P0046P (dit is die ik heb)
- SNK-P0047+ (die is de goedkopere die jij hebt gevonden)

p.s. de SNK-P0046P is overigens gewoon compatible met socket 1151.

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
En besteld (y)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Misschien kun je als de boel binnen is een quick testje met Windows en dan temps na CPUID PowerMax van een uur?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
|sWORDs| schreef op maandag 4 mei 2020 @ 12:13:
[...]

Misschien kun je als de boel binnen is een quick testje met Windows en dan temps na CPUID PowerMax van een uur?
Ik heb nog geen behuizing. Die ben ik nog aan het uitzoeken, ik heb wel voorkeuren. Heb je eventueel ook een test die ik op Linux kan doen. Ik was niet van plan Windows te draaien.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

CurlyMo schreef op maandag 4 mei 2020 @ 12:16:
[...]

Ik heb nog geen behuizing. Die ben ik nog aan het uitzoeken, ik heb wel voorkeuren. Heb je eventueel ook een test die ik op Linux kan doen. Ik was niet van plan Windows te draaien.
De reden waarom ik die aanhaal is dat ik zeker weet dat het een betrouwbare test is. Zelf doe ik dat ook vaak (en een memtest) voor ik ESXi installeer.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
|sWORDs| schreef op maandag 4 mei 2020 @ 12:33:
[...]

De reden waarom ik die aanhaal is dat ik zeker weet dat het een betrouwbare test is. Zelf doe ik dat ook vaak (en een memtest) voor ik ESXi installeer.
Ik wil sowieso wat metingen gaan doen. Alleen vind ik Windows installeren een gedoe. Welke versie moet ik pakken? Windows 10?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Ik ben zelf ook aan het denken over hoe ik het energieverbruik terug kan brengen.
Ik heb twee gigantische servers 24/7 draaien met een 10gbit switch (650W+ totaal 'idle').

Nou ben ik aan het nadenken of ik dit niet anders kan doen met een derde zuinige server. Eigenlijk hoeft alleen maar de vCenter, een domain controller en NAS te blijven draaien en ik zou een script kunnen maken wat elke avond een export (alleen de instellingen) van de pools/farms maakt en deze verwijderd, de backend uitschakelt en de servers een shutdown geeft, dit met een powerschedule op de stekkerdozen zou zo'n 3000KwH per jaar besparen als het extra systeem zo'n 50W verbruikt. Mogelijk zelfs meer als ik het zo dat het de grote jongens alleen aan zet in weken waarin ik er echt mee bezig ben. Een ander voordeel is dat ik op de derde machine ook een VSAN witness kan draaien en zo snelle shared storage heb.
Omdat de machines in de pools/farms non-persistent zijn kunnen de pools/farms zo weer aangemaakt worden door een script, en de backend heeft alleen een power on nodig.

Probleem voor mij is de NAS (momenteel 5*3.5" en twee SSDs) en de keuze tussen Atom/Xeon E/Xeon D/AMD EPYC Embedded. IPMI is een must (AMT ook een alternatief). 10Gbit is bij de derde machine niet van belang, nice to have.

Aan de ene kant denk ik dat een Atom voldoende is, zeker zonder NAS ben ik erg gecharmeerd van:
https://www.supermicro.co.../Mini-ITX/SYS-E302-9A.cfm, maar ja dan moet er nog weer een losse NAS bij.

AMD EPYC Embedded heeft weer een groot voordeel omdat de grote jongens ook AMD EPYC zijn (dual 7542 en dual 7601), dan is life vMotion van de "zuinige" server mogelijk naar de big boys.

Xeon E heeft een prettige combinatie tussen zuinig en power en zou ook beter werken voor een NSX Edge VM.

Xeon D heeft weer net wat meer power (maar nu nog Skylake is ook weer zo wat) en 10gbit, maar verbruikt ook meer, al maakt verbruik hier niet zo heel veel uit zolang ik onder de opbrengst van mijn zonnepanelen (17*340Wp op 178 zuid, 30 graden, waarschijnlijk zo'n 5500KwH per jaar, min huis en airco blijft daar zo'n 1500-2000 van over) blijf. In de toekomst (nog even break-evenpoint berekenen met salderen) komt er een thuis accu (Tesla Powerwall o.i.d.).
CurlyMo schreef op maandag 4 mei 2020 @ 12:36:
[...]

Ik wil sowieso wat metingen gaan doen. Alleen vind ik Windows installeren een gedoe. Welke versie moet ik pakken? Windows 10?
Ik zou zelf 10 of 2019 pakken.

[ Voor 3% gewijzigd door |sWORDs| op 04-05-2020 13:27 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +2 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Ik sta redelijk perplex over het idle verbruik van mijn NUC7i3BNK. Altijd gebruikt als mediaspeler welke nu plaats heeft moeten maken voor een 4K output device (Odroid N2). Dit gaf mij mooi kans om eens te kijken wat de NUC in huis heeft.

Setup:
#CategoryProductPrijsSubtotaal
1BarebonesIntel NUC Kit NUC7i3BNK€ 287,58€ 287,58
1Geheugen internCrucial CT4G4SFS8213€ 15,72€ 15,72
1Solid state drivesSamsung SM961 256GB€ 135,-€ 135,-
Bekijk collectie
Importeer producten
Totaal€ 438,30



OS: Ubuntu Server 20.04 LTS
Kernel: 5.4.0-28
BIOS power settings: OS managed
PowerTOP: versie 2.11 uitgevoerd met --auto-tune
Aangesloten apparatuur: Alleen netwerkkabel

idle laagst gemeten: 2.91W
idle gemiddeld: 3.56W
idle met 7 containers: 3.95W
boot load: 11.12W
full load: 17.87W

Containers (docker-compose):
- pihole
- unificontroller
- netdata
- portainer
- ouroboros
- tvheadend
- oscam

Gemeten met Voltcraft meter over een tijdsperiode van +- 45 min.

Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
renedis schreef op maandag 4 mei 2020 @ 13:38:
Ik sta redelijk perplex over het idle verbruik van mijn NUC7i3BNK. Altijd gebruikt als mediaspeler welke nu plaats heeft moeten maken voor een 4K output device (Odroid N2). Dit gaf mij mooi kans om eens te kijken wat de NUC in huis heeft.

Setup:
#CategoryProductPrijsSubtotaal
1BarebonesIntel NUC Kit NUC7i3BNK€ 287,58€ 287,58
1Geheugen internCrucial CT4G4SFS8213€ 15,72€ 15,72
1Solid state drivesSamsung SM961 256GB€ 135,-€ 135,-
Bekijk collectie
Importeer producten
Totaal€ 438,30



OS: Ubuntu Server 20.04 LTS
Kernel: 5.4.0-28
BIOS power settings: OS managed
PowerTOP: versie 2.11 uitgevoerd met --auto-tune
Aangesloten apparatuur: Alleen netwerkkabel

idle laagst gemeten: 2.91W
idle gemiddeld: 3.56W
idle met 7 containers: 3.95W
boot load: 11.12W
full load: 17.87W

Containers (docker-compose):
- pihole
- unificontroller
- netdata
- portainer
- ouroboros
- tvheadend
- oscam

Gemeten met Voltcraft meter over een tijdsperiode van +- 45 min.
4W met 7 containers is echt heel netjes. Ik ben toch nog steeds benieuwd wat het is met Ubuntu 20.04 LTS waardoor het zo zuinig (lijkt) te zijn, zelfs tov andere Linux distributies. Iemand al enig idee?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
GioStyle schreef op maandag 16 maart 2020 @ 19:34:
PicoPSU 90W + Leicke 90W adapter.
Ik was van plan deze set aan te schaffen. Ben je er een beetje content mee?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Nu online
CurlyMo schreef op maandag 4 mei 2020 @ 17:30:
[...]

Ik was van plan deze set aan te schaffen. Ben je er een beetje content mee?
Ja, voldoet prima en is behoorlijk zuinig. Alleen de P4 stekker is nogal kort voor een mATX moederbord. Wil sowieso ooit nog eigen kabels maken, maar staat ergens onder aan op mijn to do lijst.

Acties:
  • 0 Henk 'm!
Ik heb op Debian 10.3 powertop 2.12 gecompileerd met behulp van standaard package dev libraries. Een van de belangrijkste wijzigingen in versie 2.12 is med_power_with_dipm ondersteuning. Dat zou corruptie moeten voorkomen bij SSD's die niet met low power kunnen omgaan. Kennelijk gebruikt Windows dat ook, volgens de Intel mensen die aan powertop sleutelen.

Maar er is geen merkbaar verschil in het stroomverbruik tussen powertop 2.8 (standaard Debian 10.3 package) en powertop 2.12 (zelf gecompileerd). Computer: D3643-H met Samsung 860 EVO SATA met aangesloten I211-AT adapter.

De laagste meetstand is momenteel 3,8W met SMTP en pop3 services actief. Dat is dus inclusief on board I219-LM, maar zonder aangesloten kabel. Dit is 0,4W meer dan Windows 10 in mijn test van eind 2018.

Overigens, als je vergelijkbaar wil testen, zorg dan dat de netwerkkabel is aangesloten op een switch met EEE ondersteuning. Als de kabel loshangt, dan is dat hetzelfde als geen kabel. Dan is het verbruik op z'n laagst.

Wat ik al eerder heb gemerkt is dat het bij bepaalde aanpassingen zoals het loshalen en weer aansluiten van kabels en dergelijke het verbruik omlaag kan gaan als je nogmaals powertop --auto-tune draait. Veel hangt dus af van hoe je precies test.

Heeft iemand het voor elkaar gekregen een config in TLP in te stellen die het beter doet dan Powertop onder Debian of Ubuntu?

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:19
@mrmrmr die medium power modus draai ik zelf al een tijdje handmatig. Denk dat het goed is voor iedereen te realiseren dat powertop ook maar wat instellingen veranderd die je ook handmatig had kunnen aanpassen. Het maakt het alleen makkelijker.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

mrmrmr schreef op dinsdag 5 mei 2020 @ 00:43:
Dat zou corruptie moeten voorkomen bij SSD's die niet met low power kunnen omgaan.
offtopic:
Linkje naar lijst? ;)

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
mrmrmr schreef op dinsdag 5 mei 2020 @ 00:43:
Wat ik al eerder heb gemerkt is dat het bij bepaalde aanpassingen zoals het loshalen en weer aansluiten van kabels en dergelijke het verbruik omlaag kan gaan als je nogmaals powertop --auto-tune draait. Veel hangt dus af van hoe je precies test.
Ik draai gewoon een cronjob om de 12 uur met “powertop --auto-tune”.

Acties:
  • 0 Henk 'm!
Raven schreef op dinsdag 5 mei 2020 @ 10:02:
[...]

offtopic:
Linkje naar lijst? ;)
Ze hebben niet aangegeven over welke SSD's het gaat. Ook niet of het over oude of recente SSD's gaat, maar ik vermoed dat het over wat oudere SSD's gaat.

Er zijn SSD's die niets doen met low power. Dat kun je zien in de metingen van Anandtech.

Acties:
  • 0 Henk 'm!

  • Jazco2nd
  • Registratie: Augustus 2002
  • Laatst online: 26-09 22:49
@renedis @N8w8 Ben toch even benieuwd naar jullie BTRFS expertise aangezien jullie de meest ervaren personen hier zijn die het gebruiken.
Ik gebruik het alleen voor mijn OS SSD (de rest is allemaal ext4), maar die gebruik ik ook als datacache (tiered caching van MergerFS) binnen mijn MergerFS pool:

Pool A ("pool", LFS):
SSD 1TB: /mnt/data/cache
HDD1 4GB: /
HDD2 5GB: /
Pool B ("archive",EPMFS):
HDD1: /
HDD2: /
Daarnaast is er nog een 3e schijf (5GB), paritydisk voor SnapRAID.

Maar ik begin me toch zorgen te maken over de default BTRFS formattering en mount van Ubuntu, zeker nu ik dit lees: https://btrfs.wiki.kernel...php/Gotchas#Fragmentation

Ik gebruik mijn (zuinige) server ook als workstation, gebruik dus Firefox (genoemd in het voorbeeld) en bewerk foto's etc. Dus er is een mogelijk fragmentatie probleem in de toekomst.
Zijn jullie hiervan op de hoogte? Gebruiken jullie nog speciale mount opties?
Ik heb tijdens de installatie van Ubuntu gewoon BTRFS gekozen. Enige mount optie is "defaults".
Overigens geldt hetzelfde voor mijn ext4 schijven, allen slechts "defaults".

Bij het maken van het ext4 bestandssysteem heb ik wel
code:
1
-m 2 -T largefile4
gebruikt voor de datadisks (2% gereserveerd voor parity overhead) en "m 0" voor de paritydisk (0% gereserveerd, deze disk maximaal benutten).

Maar ik vraag me dus af of ik het BTRFS bestandssysteem met speciale opties had moeten aanmaken (ipv doorklikken tijdens Ubuntu installatie) en of je advies hebt over (veiligere) mount opties.

[ Voor 17% gewijzigd door Jazco2nd op 05-05-2020 23:46 ]


Acties:
  • +1 Henk 'm!

  • N8w8
  • Registratie: Mei 2000
  • Niet online
@Jazco2nd, ik had daar idd van gehoord en dat ooit onderzocht, maar ben ik weer vergeten.
Maar vziw waren er iig geen essentiele mkfs opties die daar invloed op hebben (iig niet zonder bijwerkingen), en ik neem ook wel aan dat ze goed over de defaults hebben nagedacht.

Ik ben wel het typ dat altijd naar de mkfs opties kijkt, maar ik mkfs zo weinig, dat onthoud ik niet.
Dit zijn iig de huidige features, kan je vaak achteraf nog aanzetten (met btrfstune?):

$ cd /sys/fs/btrfs/$UUID/features ; grep "" *
big_metadata:1 (mn fs van 2GB heeft deze niet, zal ie wel pas vanaf bepaalde grootte aanzetten)
compress_lzo:1
compress_zstd:1
default_subvol:1
extended_iref:1
free_space_tree:1
mixed_backref:1
mixed_groups:1 (alleen op het fs van 2GB)
skinny_metadata:1 (staat niet aan op een oud filesystem, is mss een nieuw default of was ik vergeten)

En bij de mount opties heb ik nog "space_cache=v2" staan.

Als ik even grep door mn scriptjes, vind ik hier nog iets gerelateerds:
find ~/.mozilla ~/.icedove -name "*.sqlite" -exec btrfs fi defrag {} \; -exec chattr +C {} \;
Draai ik nooit, kan ook niet instaan voor de gevolgen :) maar wellicht ter inspiratie/aanpassing.

Nouja het moge duidelijk zijn dat ikzelf me er niet druk over maak :)
Dat zegt ook niet alles, mss zou mn PC wel veel sneller zijn met een vers/ander filesystem, maar ben ik gewoon gewend aan het huidige tempo. Maar goed.

[ Voor 9% gewijzigd door N8w8 op 06-05-2020 01:39 ]


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 15:44
mdbraber schreef op maandag 4 mei 2020 @ 17:29:
[...]


4W met 7 containers is echt heel netjes. Ik ben toch nog steeds benieuwd wat het is met Ubuntu 20.04 LTS waardoor het zo zuinig (lijkt) te zijn, zelfs tov andere Linux distributies. Iemand al enig idee?
Ik wil het ook wel weten. Ik draai nu ubuntu server 18.04 en mijn verbruik is tussen de 6.7 - 7.1 watt. Als ik dat nog lager zou krijgen met ubuntu 20.04 ... zou mooi zijn.

Acties:
  • +1 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Jazco2nd schreef op dinsdag 5 mei 2020 @ 23:38:
@renedis @N8w8 Ben toch even benieuwd naar jullie BTRFS expertise aangezien jullie de meest ervaren personen hier zijn die het gebruiken.
Ik gebruik het alleen voor mijn OS SSD (de rest is allemaal ext4), maar die gebruik ik ook als datacache (tiered caching van MergerFS) binnen mijn MergerFS pool:

Pool A ("pool", LFS):
SSD 1TB: /mnt/data/cache
HDD1 4GB: /
HDD2 5GB: /
Pool B ("archive",EPMFS):
HDD1: /
HDD2: /
Daarnaast is er nog een 3e schijf (5GB), paritydisk voor SnapRAID.

Maar ik begin me toch zorgen te maken over de default BTRFS formattering en mount van Ubuntu, zeker nu ik dit lees: https://btrfs.wiki.kernel...php/Gotchas#Fragmentation

Ik gebruik mijn (zuinige) server ook als workstation, gebruik dus Firefox (genoemd in het voorbeeld) en bewerk foto's etc. Dus er is een mogelijk fragmentatie probleem in de toekomst.
Zijn jullie hiervan op de hoogte? Gebruiken jullie nog speciale mount opties?
Ik heb tijdens de installatie van Ubuntu gewoon BTRFS gekozen. Enige mount optie is "defaults".
Overigens geldt hetzelfde voor mijn ext4 schijven, allen slechts "defaults".

Bij het maken van het ext4 bestandssysteem heb ik wel
code:
1
-m 2 -T largefile4
gebruikt voor de datadisks (2% gereserveerd voor parity overhead) en "m 0" voor de paritydisk (0% gereserveerd, deze disk maximaal benutten).

Maar ik vraag me dus af of ik het BTRFS bestandssysteem met speciale opties had moeten aanmaken (ipv doorklikken tijdens Ubuntu installatie) en of je advies hebt over (veiligere) mount opties.
Ik gebruik BTRFS in een NAS omgeving, niet als workstation. Daarbij gebruik ik enkel de "defaults" optie en zou ik me niet al te veel zorgen maken als ik jou was. Je kan eens een keer handmatig de defrag draaien om te kijken wat het doet en mogelijk oplevert.

Overigens maak ik gebruik van bcache in plaats van de MergerFS tiered caching.
Pagina: 1 ... 67 ... 104 Laatste

Dit topic is gesloten.