Laat ik als eerste maar even zeggen dat het niet mijn bedoeling is om dit topic te kapen met probleemoplossing voor mijn server
Als ik het idee heb dat ik er niet uit kom open ik wel een topic op de juiste plaats. Ik heb al contact opgenomen met Gigabyte, en als blijkt dat het sowieso niet gaat werken bij hun ga ik inderdaad eerst vragen stellen en dan pas aanschaffen (overgebleven zijn AsRock, MSI en BioStar). Er zijn overigens geen piepjes, wat er des te meer op wijst dat de CPU het probleem is.
Vandaag de tijd genomen om mijn iSCSI geneuzel eens wat dieper uit te zoeken.
De oorzaak lijkt gedeeld te zijn...
Resultaten (alles is getest over een 2*1Gb trunk):
LIO 4K reads op disk (ZFS): 30 IOPS
LIO 1M reads op disk (ZFS): 33MB/s
LIO 4K reads op SSD (Ext4): 3100 IOPS
LIO 1M reads op SSD (Ext4): 81MB/s
SCST 4K reads op disk (ZFS): 146 IOPS
SCST 1M reads op disk (ZFS): 40MB/s
SCST 4k reads op SSD (Ext4): 5400 IOPS
SCST 1M reads op SSD (Ext4): 190MB/s
SCST weet dus de volledige bandbreedte van de SSD te benutten. LIO zal misschien iets anders omgaan met sync requests en/of caching waardoor de waardes niet helemaal vergelijkbaar zijn.
Feit blijft: ZFS presteert ronduit slecht (sequentieel).
Als ik online wat lees over ZVOL performance onder ZoL is dat ook niet heel verwonderlijk...
Ik denk dat het SSD's kopen word, en eens kijken of die goed presteren onder ZFS, anders ga ik lekker MD raid draaien icm Ext4...
Hmm, nu ik de LIO sequentiele performance zie, denk ik dat de trunk niet goed werkte... Afijn, kan ik nu niet makkelijk testen, switchen tussen LIO en SCST is een kak werk
De oorzaak lijkt gedeeld te zijn...
Resultaten (alles is getest over een 2*1Gb trunk):
LIO 4K reads op disk (ZFS): 30 IOPS
LIO 1M reads op disk (ZFS): 33MB/s
LIO 4K reads op SSD (Ext4): 3100 IOPS
LIO 1M reads op SSD (Ext4): 81MB/s
SCST 4K reads op disk (ZFS): 146 IOPS
SCST 1M reads op disk (ZFS): 40MB/s
SCST 4k reads op SSD (Ext4): 5400 IOPS
SCST 1M reads op SSD (Ext4): 190MB/s
SCST weet dus de volledige bandbreedte van de SSD te benutten. LIO zal misschien iets anders omgaan met sync requests en/of caching waardoor de waardes niet helemaal vergelijkbaar zijn.
Feit blijft: ZFS presteert ronduit slecht (sequentieel).
Als ik online wat lees over ZVOL performance onder ZoL is dat ook niet heel verwonderlijk...
Ik denk dat het SSD's kopen word, en eens kijken of die goed presteren onder ZFS, anders ga ik lekker MD raid draaien icm Ext4...
Hmm, nu ik de LIO sequentiele performance zie, denk ik dat de trunk niet goed werkte... Afijn, kan ik nu niet makkelijk testen, switchen tussen LIO en SCST is een kak werk
[ Voor 8% gewijzigd door FireDrunk op 30-07-2014 17:36 ]
Even niets...
Zo, ik ben weer wat verder. De FX-8150 doet het prima op de 970A, en dus meteen de EFI even geüpdatet naar de laatste versie. En meteen even een screenshot gemaakt in het menu, de optie was er blijkbaar en dat kon ik niet laten...
Vervolgens dus de 3380 op de 990XA gezet, en dat gaat ook prima, de CPU is dus niets mis mee. Ik ga ze nu dus maar weer terugwisselen, extra goed opletten bij het monteren van de 3380 en hopen dat het werkt. Als het weer niet werkt ga ik een nieuw moederbord voor mijn werkbak zoeken (de 970A is imo niet ideaal voor een FX-8150). Tot zover ben ik best wel blij
Overigens, wat is de Scythe Ninja een vervelende koeler om even los te halen. De Coolermaster Hyper 212 gaat makkelijker
En het werkt eenmaal terug ingebouwd ook weer allemaal
Vervolgens dus de 3380 op de 990XA gezet, en dat gaat ook prima, de CPU is dus niets mis mee. Ik ga ze nu dus maar weer terugwisselen, extra goed opletten bij het monteren van de 3380 en hopen dat het werkt. Als het weer niet werkt ga ik een nieuw moederbord voor mijn werkbak zoeken (de 970A is imo niet ideaal voor een FX-8150). Tot zover ben ik best wel blij
Overigens, wat is de Scythe Ninja een vervelende koeler om even los te halen. De Coolermaster Hyper 212 gaat makkelijker
En het werkt eenmaal terug ingebouwd ook weer allemaal
[ Voor 13% gewijzigd door dcm360 op 30-07-2014 20:00 ]
Blog spam alert: ik heb een artikeltje gemaakt over de impact van ashift=9 vs ashift=12 op een 24 disk RAIDZ3.
http://louwrentius.com/zf...-on-4k-sector-drives.html
Ashift=9 kost wat schrijf performance, maar de (voorspelde) capaciteit die je terug krijgt is fors.
http://louwrentius.com/zf...-on-4k-sector-drives.html
Ashift=9 kost wat schrijf performance, maar de (voorspelde) capaciteit die je terug krijgt is fors.
Anoniem: 15758
Mja maar je hebt storage capacity niet echt getest. Doe die 'dd' test met 100 gigabyte of meer en kijk dan hoeveel effect dit heeft op available space. Liever nog een veel groter bestand; zo lang als je kunt testen.
Nu heb je enkel df -h en zfs list gebruikt terwijl er geen data is opgeslagen op de dataset. Daardoor kun je niet uitsluiten dat het 'worst-case prediction' is wat het verschil maakt. Je wilt actual space efficiency testen met grote files. Dat kun je doen door simpelweg één groot bestand te schrijven, liefst de hele dataset vol schrijven, en dan kijken wat dit doet met beschikbare ruimte.
Het is namelijk mogelijk dat een lege pool zegt 100GB available maar dat je zodra je echt gaat vullen je 110GB bijvoorbeeld kunt schrijven. Als dat klopt, dan is de theorie van 'worst-case prediction' bevestigt. Als dat niet klopt, dan kost ashift=12 je dus echt veel ruimte, ook met grote files.
Vervolgens zou je kunnen testen hoe dit zit met LZ4-compressie. Daarvoor moet je geen /dev/zero gebruiken maar /dev/random en die bestanden kopiëren. Dus één keer een grote randomfile maken en die 100+ keer kopiëren anders duurt het te lang, want /dev/random is traag.
Dat zou ik pas een interessante test vinden.
Nu heb je enkel df -h en zfs list gebruikt terwijl er geen data is opgeslagen op de dataset. Daardoor kun je niet uitsluiten dat het 'worst-case prediction' is wat het verschil maakt. Je wilt actual space efficiency testen met grote files. Dat kun je doen door simpelweg één groot bestand te schrijven, liefst de hele dataset vol schrijven, en dan kijken wat dit doet met beschikbare ruimte.
Het is namelijk mogelijk dat een lege pool zegt 100GB available maar dat je zodra je echt gaat vullen je 110GB bijvoorbeeld kunt schrijven. Als dat klopt, dan is de theorie van 'worst-case prediction' bevestigt. Als dat niet klopt, dan kost ashift=12 je dus echt veel ruimte, ook met grote files.
Vervolgens zou je kunnen testen hoe dit zit met LZ4-compressie. Daarvoor moet je geen /dev/zero gebruiken maar /dev/random en die bestanden kopiëren. Dus één keer een grote randomfile maken en die 100+ keer kopiëren anders duurt het te lang, want /dev/random is traag.
Dat zou ik pas een interessante test vinden.
Ik vind dat er wel moeilijk gepraat wordt in deze kroeg
komt misschien ook omdat ik er helemaal niets van snap al is het wel vaak interessant om mee te lezen
Dat is een caveat die ik ook acknowledge in mijn blogpost. Ik wil dat nog wel eens testen, maar het werd laat gister.Anoniem: 15758 schreef op donderdag 31 juli 2014 @ 03:21:
Dat zou ik pas een interessante test vinden.
Dit is ook weer waarom ik zo ambivalent ben over ZFS. Je weet niet eens echt precies hoeveel storage je echt krijgt.
Nou ja, ZFS zal iig niet *liegen*... De ruimte die er staat is worst case scenario (denk ik).
Bij andere Filesystems zal je waarschijnlijk meer zien, maar zodra je 1 miljoen kleine files maakt, krijg je vanzelf meer metadata die ook weer ruimte in neemt...
Dat is denk ik wat CiPHER bedoelt, of dit waar is... Geen idee eerlijk gezegd, het past in mijn ogen wel in de ZFS mentaliteit: "Zekerheid voor alles, en nooit liegen..."
Bij andere Filesystems zal je waarschijnlijk meer zien, maar zodra je 1 miljoen kleine files maakt, krijg je vanzelf meer metadata die ook weer ruimte in neemt...
Dat is denk ik wat CiPHER bedoelt, of dit waar is... Geen idee eerlijk gezegd, het past in mijn ogen wel in de ZFS mentaliteit: "Zekerheid voor alles, en nooit liegen..."
Even niets...
Ik lees ook nog wel over klachten dat een resilver super traag gaat bij ashift=9 op 4K disks dus dat wil ik ook nog wel eens testen. Disk er uit, 1 TB schrijven en dan disk er in, replace en performance eens bewaken.
Anoniem: 15758
non-aligned I/O op 4K sector disks is niet langzaam als het reads betreft; hardeschijven lezen sowieso al vooruit met built-in read-ahead cache. Dus dat veroorzaakt hooguit wat extra communicatie via de kabel tussen controller en electronica. Maar het mechanische gedeelte heeft daar geen last van. Anders is het bij writes, omdat de hardeschijf bij een sync write niet kan schrijven voordat het de fysieke sector in zijn geheel gelezen heeft, de oude+nieuwe data in die sector opnieuw construeert, en vervolgens kan wegschrijven. Kortom; een schrijfactie forceert de hardeschijf om eerst te lezen. Dat is wat het traag maakt.
Nou, het gaat lekker met mijn server. Nu mijn derde poging om een werkende Proxmox te installeren ook een werkend systeem heeft opgeleverd, zit de eerste VM nu ook aan poging 3. Dat mag toch nog wel eens wat vlotter gaan de volgende keren, anders blijft het geen zomerprojectje meer.
gister bij Centalpoint 6TB WD Red schijven voor €179,08 gekocht n.a.v.

Helaas gaat Centralpoint de schijf niet leveren voor dat geld "Het gaat hier dus overduidelijk om een kennelijke vergissing..." en ik heb ook geen zin om na te gaan of ze toch moeten leveren. Heb de extra opslag nu ook niet nodig dus bestelling geannuleerd.
Was toch leuk geweest 6TB met een €/GB prijs van 3TB schijf

Helaas gaat Centralpoint de schijf niet leveren voor dat geld "Het gaat hier dus overduidelijk om een kennelijke vergissing..." en ik heb ook geen zin om na te gaan of ze toch moeten leveren. Heb de extra opslag nu ook niet nodig dus bestelling geannuleerd.
Was toch leuk geweest 6TB met een €/GB prijs van 3TB schijf

And he saw it was goooood:


4*Crucial MX100 256GB @ RAID0 icm ZFS, over 2*1Gb iSCSI (SCST)

4*Crucial MX100 256GB @ RAID0 icm ZFS, over 2*1Gb iSCSI (SCST)
Even niets...
MPIO / Round Robin iSCSI werkt 

- Heb je hiervoor de kernel zelf gecompiled voor de sgst module?
- Kun je voor kicks eens benchen met 4x gigabit ?!
- Gebruik je jumbo frames?
Leuk hoor 51K iops lezen en ~30k schrijven.

- Heb je hiervoor de kernel zelf gecompiled voor de sgst module?
- Kun je voor kicks eens benchen met 4x gigabit ?!
- Gebruik je jumbo frames?
Leuk hoor 51K iops lezen en ~30k schrijven.
[ Voor 128% gewijzigd door Q op 01-08-2014 21:44 ]
Woehoe! Vanmiddag net 2x1Tb seagate schijven besteld voor mijn SAN/NAS(ik gebruik ook NFS dus is het ook een NAS..
) Hopelijk morgen binnen en dan het het spul in FreeBSD ZFS mirror gooien!
. Van bruto 2Tb naar bruto 4Tb. (is voor jullie vast niet veel maar voor mij als 15jarige is het erg mooi en een behoorlijke uitgave...
)
15 jarigen mogen niet naar de plaatjes met bier kijken 
Veel plezier met je extra storage.
Veel plezier met je extra storage.
- Nope, gewoon zonder kernel aanpassingen. Dus in theorie kan de performance nog omhoog.Q schreef op vrijdag 01 augustus 2014 @ 21:39:
MPIO / Round Robin iSCSI werkt
[afbeelding]
- Heb je hiervoor de kernel zelf gecompiled voor de sgst module?
- Kun je voor kicks eens benchen met 4x gigabit ?!![]()
- Gebruik je jumbo frames?
Leuk hoor 51K iops lezen en ~30k schrijven.
- Niet makkelijk, maar de storage host heeft 4 * Gigabit, dus ik kan deze bench op 4 bakjes tegelijk uitvoeren en kijken wat het resultaat dan is
- Nope, nog niet. Switch zit momenteel te vol om de 3 netwerkkaarten in de hosts allemaal aan te sluiten (2*Intel+1*Realtek), dus alleen de Intel's zitten aangesloten. Ik heb al een andere switch, maar die moet ik nog aansluiten. Als dat gedaan is, kan ik weer wat meer testen
Even niets...
Wel nar die andere soort plaatjes? Anders kan ik de bestelling wel annuleren ja.. ^^Q schreef op vrijdag 01 augustus 2014 @ 22:08:
15 jarigen mogen niet naar de plaatjes met bier kijken
Veel plezier met je extra storage.
@Firedrunk
Ik vind de resultaten al erg goed zonder kernel geneuzel. Jumbo frames hielpen bij mij met Bonding enorm qua performance, wat niet gek is, drie om 1 pakket, dat maakt uit. Misschien nog relevanter dan meerdere gigabit aansluitingen.
@RobHaz
Ik vind de resultaten al erg goed zonder kernel geneuzel. Jumbo frames hielpen bij mij met Bonding enorm qua performance, wat niet gek is, drie om 1 pakket, dat maakt uit. Misschien nog relevanter dan meerdere gigabit aansluitingen.
@RobHaz

Morgen overdag zal ik eens met Jumbo Frames gaan knutselen, nu eerst wat lokaal testen.
Denk dat 8GB RAM toch wat aan de magere kant is. Ik haal lokaal maar 3500 4K IOPS met een test size van 10GB... Toch vreemd, maar FIO (de benchmark die ik draai) is weer userland, dus misschien heeft dat er weer iets mee te maken...
Denk dat 8GB RAM toch wat aan de magere kant is. Ik haal lokaal maar 3500 4K IOPS met een test size van 10GB... Toch vreemd, maar FIO (de benchmark die ik draai) is weer userland, dus misschien heeft dat er weer iets mee te maken...
Even niets...
Weet niet hoe zwaar FIO is, maar als dat gescheiden draait van de storage lijkt me dat geen issue, FIO heeft benches neergezet van over de 2M random IOPs. De ontwikkelaar Jens Axboe werkt nu geloof ik voor fusionio
Wat is de queue depth van die 3.5K iops?
[ Voor 8% gewijzigd door Q op 01-08-2014 23:15 ]
32 threads, 32 io's diep, maar wat ik ook verander, het blijft 3500 IOPS...
Maar mijn server heeft gister besloten dat mijn root fs compleet corrupt is...
Geen idee waarom, maar ik moet dus 'even' een herinstall doen...

De kernel bleek alleen corrupt te zijn
Even een geforceerde reinstall van de kernel, en er wordt weer geboot
Maar mijn server heeft gister besloten dat mijn root fs compleet corrupt is...
Geen idee waarom, maar ik moet dus 'even' een herinstall doen...
De kernel bleek alleen corrupt te zijn
[ Voor 71% gewijzigd door FireDrunk op 02-08-2014 14:25 ]
Even niets...
Ik denk dat ik erachter ben waarom mijn 4K iops blijven steken... En dat is omdat ik op een ZFS pool test en niet op een ZVOL. De pool heeft de default recordsize van 128K, en daarom is voor elke read van 4K een 128K leesoperatie nodig op disk. Omdat ik maar 4GB ARC heb, kan de hele test size nooit in ARC, en zal er dus voor het overgrote deel van disk gelezen worden.
Als ik de read blocksize van de test verander in 128k (32 keer zo veel) haal ik nog steeds 3000 IOPS
Een flinke sloot geheugen zou dit probleem oplossen voor de reguliere pool, voor de iSCSI ZVOL's is het niet zo'n probleem, die hebben 8K recordsize (de default).
-Edit:
Zojuist met Jumbo Frames (9000) getest, scheelt maar een paar duizend IOPS bij een diepe queue, verder scheelt het niets, of werkt het zelfs averechts...
Als ik de read blocksize van de test verander in 128k (32 keer zo veel) haal ik nog steeds 3000 IOPS
Een flinke sloot geheugen zou dit probleem oplossen voor de reguliere pool, voor de iSCSI ZVOL's is het niet zo'n probleem, die hebben 8K recordsize (de default).
-Edit:
Zojuist met Jumbo Frames (9000) getest, scheelt maar een paar duizend IOPS bij een diepe queue, verder scheelt het niets, of werkt het zelfs averechts...
[ Voor 25% gewijzigd door FireDrunk op 02-08-2014 19:43 ]
Even niets...
Hmm. Gooi je met een 8K record size voor een iscsi zvol niet heel veel storage space weg op een ashift=12 device althans?
[ Voor 15% gewijzigd door Q op 02-08-2014 20:10 ]
4 schijven in RAID0? Dat is toch nooit space wasting?
Even niets...
Eindelijk begint het ergens op te lijken!
Helaas kan ik nog geen plastic blindplaatjes vinden, dan zou ik de hele kast dicht kunnen maken voor betere airflow. Volgende stap wordt een fancontroller welke 8 fannetjes kan aanzetten als het te warm word in het rack. Ik ga de temps aankomende week even goed in de gaten houden (ik draai voor het eerst met de kast dicht en 2 servers aan).
Helaas kan ik nog geen plastic blindplaatjes vinden, dan zou ik de hele kast dicht kunnen maken voor betere airflow. Volgende stap wordt een fancontroller welke 8 fannetjes kan aanzetten als het te warm word in het rack. Ik ga de temps aankomende week even goed in de gaten houden (ik draai voor het eerst met de kast dicht en 2 servers aan).
Pics | ||
![]() | ![]() | ![]() |
![]() | ![]() |
[ Voor 33% gewijzigd door Extera op 07-08-2014 23:41 ]
Mooie kast, komt ie vandaan?
Het is een Prestaq, komt van marktplaats
Vette kast inderdaad! komen er nog meer servers in? hij oogt nog zo leeg
@RobHaz, nog gelukt met de ZFS mirror? staat my little pony al veilig opgeslagen?
Zelf de afgelopen dagen een HP Microserver voorzien van 3 x 2TB schijven en XPenology erop gezet die mag mooi het download/uitpakwerk doen om het daarna aan de echte server door te geven
maffe ding pakt 35 watt met alles draaiend
Nu is het ook geen snelheidswonder maar daar is het ook niet voor bedoeld
@RobHaz, nog gelukt met de ZFS mirror? staat my little pony al veilig opgeslagen?
Zelf de afgelopen dagen een HP Microserver voorzien van 3 x 2TB schijven en XPenology erop gezet die mag mooi het download/uitpakwerk doen om het daarna aan de echte server door te geven
Nu is het ook geen snelheidswonder maar daar is het ook niet voor bedoeld
XPenology lijkt me ook leuk om eens te testen.
Bij familie en vrienden durf ik geen ZFS neer te zetten
dat is alleen maar werkverschaffing voor mezelf.
Het rack blijft voorlopig even zo.
totaal verbruik is nu 330 watt
daar moet ik echt nog naar gaan kijken...
Als de storage vol loopt kan er een chassis onder, maar ik heb (nog) geen behoefte aan extra ESX hosts.
Een hardware PfSense firewall staat ook nog op het wensenlijstje, deze draait nu virtueel.
Zoiets
Bij familie en vrienden durf ik geen ZFS neer te zetten
Het rack blijft voorlopig even zo.
totaal verbruik is nu 330 watt
Als de storage vol loopt kan er een chassis onder, maar ik heb (nog) geen behoefte aan extra ESX hosts.
Een hardware PfSense firewall staat ook nog op het wensenlijstje, deze draait nu virtueel.
Zoiets
Xpenology werkt verbazingwekkend simpel, de harde schijven inbouwen duurt langer als de installatie van het geheel (alleen dat volume uitbreiden duurt me toch lang
)
ZFS is inderdaad niet voor de gemiddelde gebruiker, ik gebruik het zelf ook maar op 1 systeem vooral als backup voor belangrijke dingen
330 watt is dat met alles draaiend? zal toch niet 1 server zijn toch? nu moet ik zeggen dat ik de microserver heb aangeschaft voor de zuinigheid van het maffe ding zodat de andere servers meer uit kunnen staan.
Nu weet ik ook wel dat ik niet moet zeuren over energiekosten met al die apparaten maar elke euro is er 1 (+ het vrouwtje is gelukkig dat er wat minder lawaai is in huis
)

ZFS is inderdaad niet voor de gemiddelde gebruiker, ik gebruik het zelf ook maar op 1 systeem vooral als backup voor belangrijke dingen
330 watt is dat met alles draaiend? zal toch niet 1 server zijn toch? nu moet ik zeggen dat ik de microserver heb aangeschaft voor de zuinigheid van het maffe ding zodat de andere servers meer uit kunnen staan.
Nu weet ik ook wel dat ik niet moet zeuren over energiekosten met al die apparaten maar elke euro is er 1 (+ het vrouwtje is gelukkig dat er wat minder lawaai is in huis
Er zit best een verzameling hardware in inmiddels.
Een power switch welke per poort de power uit kan lezen zou wel een mooie toevoeging zijn ook.
- TP Link WDR3600
- Linksys D320N
- HP 2900
- APC CS 450va
- 8 poort powerswitch
- ESX Server
- NAS
Een power switch welke per poort de power uit kan lezen zou wel een mooie toevoeging zijn ook.
- TP Link WDR3600
- Linksys D320N
- HP 2900
- APC CS 450va
- 8 poort powerswitch
- ESX Server
- NAS
Poeh, 330W, dat vind ik best veel 
Mijn ESXi cluster nodes verbruiken 30W per stuk, en mijn main NAS gebruikt iets van 75W. Totaal dus nog geen 200W... Mijn core switch doet iets van 7W (Lang leve TP-Link
) en mijn iSCSI Switch doet iets van 15W denk ik.
Dus alles in totaal nog geen 250W.
Mijn ESXi cluster nodes verbruiken 30W per stuk, en mijn main NAS gebruikt iets van 75W. Totaal dus nog geen 200W... Mijn core switch doet iets van 7W (Lang leve TP-Link
Dus alles in totaal nog geen 250W.
Even niets...
Nah plus minus.. Ik heb ergens een oude server weg gefixed een tijdje geleden, en ik dacht dus dat de voeding van het ding 3molex aansluitingen had... Blijken er dus maar 2 te zijn. dus gebruik ik voorlopig maar even 2 satapower aansluitingen van de andere server, tot ik geld heb voor een extra voeding voor die disks@RobHaz, nog gelukt met de ZFS mirror? staat my little pony al veilig opgeslagen?

Maar ach, van fouten leer je toch?
Splitter kopen? Ik had precies het zelfde probleem.

Ahw hell... Dit meen je niet... Bestaan die dingen echt... 
edit: Hmm, het klinkt net of er een fan heel hard aan het draaien is in de voeding, krijg geen beeld over VGA....

edit: Hmm, het klinkt net of er een fan heel hard aan het draaien is in de voeding, krijg geen beeld over VGA....
[ Voor 48% gewijzigd door Berkeley op 08-08-2014 13:11 ]
Ik heb er zelfs 2 van 1->4 molex aansluitingen...
Even niets...
Post het ook even hier, heb het ook in het DIY raid nas topic gedaan:
Weet niet of dit hier mag, of dat ik een ander topic moet openen maar bij deze:
Ik heb een tijd geleden een server gekocht op tweakers( V&A aangeboden: 1U server Intel E2160, 4Gb RAM, 80Gb harddisk ) nu kent iedereen het geluid wel van een 1U server die aangaat, maar meestal wordt dat geluid(althans bij deze specifieke server) wat minder. Sinds kort(aka 1 - 2 uur) is dit niet meer zo, en komt er een raar geluid uit de voeding, net of er zo'n kleine fan heel hard aan het draaien is.. Als ik de server op een monitor aansluit via vga, gaat de monitor in 'sleep mode' de monitor en kabel werken nog, dit heb ik al getest op een andere pc. Bij het indrukken van de reset knop flikkert het oranje 'berichten' lampje(er staat een soort postbrief icoontje boven het lampje afgebeeld) als ik de server uit wil zetten via de aan/uit button werkt dit niet of duurt het heel lang. Heb het getest met schijven aangesloten en zonder iets aangesloten, maakt geen verschil.
Iemand enig idee?
Weet niet of dit hier mag, of dat ik een ander topic moet openen maar bij deze:
Ik heb een tijd geleden een server gekocht op tweakers( V&A aangeboden: 1U server Intel E2160, 4Gb RAM, 80Gb harddisk ) nu kent iedereen het geluid wel van een 1U server die aangaat, maar meestal wordt dat geluid(althans bij deze specifieke server) wat minder. Sinds kort(aka 1 - 2 uur) is dit niet meer zo, en komt er een raar geluid uit de voeding, net of er zo'n kleine fan heel hard aan het draaien is.. Als ik de server op een monitor aansluit via vga, gaat de monitor in 'sleep mode' de monitor en kabel werken nog, dit heb ik al getest op een andere pc. Bij het indrukken van de reset knop flikkert het oranje 'berichten' lampje(er staat een soort postbrief icoontje boven het lampje afgebeeld) als ik de server uit wil zetten via de aan/uit button werkt dit niet of duurt het heel lang. Heb het getest met schijven aangesloten en zonder iets aangesloten, maakt geen verschil.
Iemand enig idee?
Je kan even een andere voeding proberen.
Even niets...
Hmm, ja misschien is dat wel een goed idee, zal straks even 'n voeding uitbouwen en hopen dat alleen de voeding kapot is en niet het hele mobo ofzo..(zal niet weten hoe die kapot kan zijn maarja)
Ja... Helaas wel ja...
Vooral nu dat ik net al m'n geld heb uitgegeven aan disks..
Vooral nu dat ik net al m'n geld heb uitgegeven aan disks..
ik zou denken voeding open maken, schoonmaken en kijken of je niet een kapot onderdeel ziet of nog beter een losse verbinding?
Wel altijd even de tijd nemen bij voedingen na het van spanning halen voordat je er echt aan werkt. Beste om er nog wat last aan te hebben zodat alle condensatoren spanningsloos raken.
Wel altijd even de tijd nemen bij voedingen na het van spanning halen voordat je er echt aan werkt. Beste om er nog wat last aan te hebben zodat alle condensatoren spanningsloos raken.
@BartNL:
Oke, thanks. Ik zal het vanavond of morgen even proberen..
Oke, thanks. Ik zal het vanavond of morgen even proberen..
Mooi k%$#* ook nog geen standaard maat qua voeding, wordt je trouwens niet helemaal gek van het lawaai wat die 1u servers maken?


Ik denk dat ik overigens maar eens ga kijken waar ik wat geld vandaan kan halen om een nieuwe server te bouwen, die beter past bij mijn eisen.. Deze server was ook niet echt bedoeld als lange termijn oplossing.. Volgende wordt gewoon weer zelf bouw...
Maar laten we uit gaan van dat eerste.
Ah dat lawaai daar ben ik al aan gewend, of het heeft m'n oren dus danig beschadigd..-Venom- schreef op vrijdag 08 augustus 2014 @ 21:36:
Mooi k%$#* ook nog geen standaard maat qua voeding, wordt je trouwens niet helemaal gek van het lawaai wat die 1u servers maken?![]()
@RobHaz, ik heb eventueel een voeding voor je als je in de buurt van Haarlem zit. 'No brand', niet zuinig, maar je kunt ff verder.
Heel erg bedankt, maar 217Km(heen) op de fiets sla ik liever over.Q schreef op zaterdag 09 augustus 2014 @ 11:51:
@RobHaz, ik heb eventueel een voeding voor je als je in de buurt van Haarlem zit. 'No brand', niet zuinig, maar je kunt ff verder.
Heb even met mijn vader gepraat en die wil opzig wel wat geld aan mij lenen(denk aan 300MAX) wat ik terug kan verdienen door klusjes doen etc. Nu zat ik er aan te denken om dan een nieuwe server samen te stellen, die het liefst zuinig is en ECC geheugen heeft, aangezien alle foto's en dergelijke daarop komen, nu vraag ik me alleen af of dat haalbaar is. Het draait alleen om een moederbord, (ECC) RAM, CPU en evt een kast met voeding. Iemand een idee wat voor setup haalbaar is, en of dit uberhaupt haalbaar is?
[ Voor 45% gewijzigd door Berkeley op 09-08-2014 12:48 ]
Is een HP Microserver dan niet wat voor je? Hou je nog geld over. Als je er niet op gaat encoden/transcoden zijn dat leuke kastjes met de AMD equivalent van een Intel Atom. Ruimte voor 4 HD's en met wat modden passen er meer in.
pricewatch: HP Proliant Microserver N54L
Het heeft hier zijn eigen topic. Doet vast ook prima FreeBSD.
Ik draai zelf al jaren een N40L als router / DNS / DHCP en daarnaast ook iSCSI voor remote TimeMachine / Superduper clone van mijn mac.
pricewatch: HP Proliant Microserver N54L
Het heeft hier zijn eigen topic. Doet vast ook prima FreeBSD.
Ik draai zelf al jaren een N40L als router / DNS / DHCP en daarnaast ook iSCSI voor remote TimeMachine / Superduper clone van mijn mac.
[ Voor 88% gewijzigd door Q op 09-08-2014 13:08 ]
Ik heb even wat gezocht, en kom uiteindelijk op dit uit. Voor zover ik kan vinden moet ECC werken hier op, Iemand nog aanvullingen of betere ideeen? Zonder het ver over de 300E te jagen?
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G1610 Boxed | € 29,- | € 29,- |
1 | Supermicro X9SCM-F | € 147,62 | € 147,62 |
1 | Antec VSK-4000E | € 25,- | € 25,- |
1 | Kingston ValueRAM KVR16R11S4/8KF | € 75,25 | € 75,25 |
1 | Corsair VS350 | € 27,95 | € 27,95 |
Bekijk collectie Importeer producten | Totaal | € 304,82 |
Andere voeding, als je cheap wil, pak dan een BQ System Power 7.
Even niets...
Oke, dankje, Ik zal het met mijn vader bespreken vanavond.
Yes, maar je lijstje hierboven geeft je idd meer geheugen en cpu power.RobHaz schreef op zaterdag 09 augustus 2014 @ 13:15:
die 2Gb ram die er in zit, is ECC?
Ok, dan ga ik zometeen nog ff support voor FreeBSD uitzoeken.. en dan morgen met moeder en vader overleggen. En dan aanschaffen (hopelijk).Q schreef op zaterdag 09 augustus 2014 @ 23:32:
[...]
Yes, maar je lijstje hierboven geeft je idd meer geheugen en cpu power.
Oh! Ik kom er net achter dat het RAM dat ik had gekozen registered is..(pricewatch: Kingston ValueRAM KVR16R11S4/8KF) het moederbord ondersteund dit niet dus heb ik het maar vervangen voor pricewatch: Kingston ValueRAM KVR16E11/8

[ Voor 9% gewijzigd door Berkeley op 10-08-2014 14:47 . Reden: RAM gekozen dat slecht leverbaar was... ]
De server is besteld!
inclusief wat kabeltjes enzo.
Dammit, normaal zie ik dat soort foutjes wel. Fijn dat je er op tijd achter gekomen bent!
Even niets...
Haha, inderdaad gelukkig dat ik het nog optijd zag..FireDrunk schreef op maandag 11 augustus 2014 @ 06:23:
Dammit, normaal zie ik dat soort foutjes wel. Fijn dat je er op tijd achter gekomen bent!
Mooie nieuwe spulletjes! Ik kreeg altijd te horen eerst sparen dan kopen
Je moet wel een beetje goed kunnen praten he.-Venom- schreef op maandag 11 augustus 2014 @ 20:54:
Mooie nieuwe spulletjes! Ik kreeg altijd te horen eerst sparen dan kopen
ik deed dat vroeger door het op studie te gooien.
is goed voor de studie paps!
is goed voor de studie paps!
Tja over sparen gesproken, het duurde wel even om aan die 2800 te komen voor mijn Vobis computer met Pentium 75, my god. Maar met computers fixen en bollen pellen kom je een eind. Tja, 15 jaar. Da's lang geleden. Potver wat voel ik me oud. Maar als je nog actief achter een 286 hebt gezeten dan ben je een bejaarde. That's life.
[ Voor 15% gewijzigd door Q op 12-08-2014 00:26 ]
286 .. tssss wat een broekie nogQ schreef op dinsdag 12 augustus 2014 @ 00:25:
. Potver wat voel ik me oud. Maar als je nog actief achter een 286 hebt gezeten dan ben je een bejaarde. That's life.
Meh. Die heb ik dan weer wel overgeslagen ... die waren nog slechts te zien bij de draaiorgel man
Zo, de eerste onderdelen zijn binnen, het RAM en de kabeltjes.
Nou Sicomputers! Scherpe focus gericht op klanten kan ik niks van merken.. Heb het zondag besteld en ze zouden mij op de hoogte houden via email.. Inmiddels zijn er 3 werkdagen om en heb ik nog niks ontvangen.... Ook geen emailtje dat het wat later komt.. Fijn dit..
levertijd indicatie 2-3 dagen bij SiComputers is onbetrouwbaar, zie ook de shopreview m.b.t. SiComputers op Tweakers. Zelf bestel ik er alleen nog maar wanneer ze iets op voorraad hebben of vooraf een levertijd kunnen bevestigen.
Ik zou ze bellen en om een realistische levertijd vragen. Daarbij dan ook een ultimatum stellen dat je de bestelling annuleert wanneer het artikel vrijdag (of zo) nog niet verstuurd is.
Leuk is zo'n vertraagde levering niet.
Ik zou ze bellen en om een realistische levertijd vragen. Daarbij dan ook een ultimatum stellen dat je de bestelling annuleert wanneer het artikel vrijdag (of zo) nog niet verstuurd is.
Leuk is zo'n vertraagde levering niet.
Ja ik had het vantevoren(zondag) gecheckt, en vondt het meevallen, maar bekeek het net ook weer.. en idd.. Ik ga ze morgen ook bellen, en vragen hoe het zit... dit is namelijk vervelend, aangezien ik het spul graag binnen had gehad voor school zou beginnen(maandag..) maarja..BartNL schreef op woensdag 13 augustus 2014 @ 18:06:
levertijd indicatie 2-3 dagen bij SiComputers is onbetrouwbaar, zie ook de shopreview m.b.t. SiComputers op Tweakers. Zelf bestel ik er alleen nog maar wanneer ze iets op voorraad hebben of vooraf een levertijd kunnen bevestigen.
Ik zou ze bellen en om een realistische levertijd vragen. Daarbij dan ook een ultimatum stellen dat je de bestelling annuleert wanneer het artikel vrijdag (of zo) nog niet verstuurd is.
Leuk is zo'n vertraagde levering niet.
Eigenlijk moet ik gewoon een nette server kast kopen, maar dit is zoveel goedkoper.

Waarom ik de boel standaard uit heb staan en incidenteel wek met Wake-On-Lan.

Waarom ik de boel standaard uit heb staan en incidenteel wek met Wake-On-Lan.

[ Voor 73% gewijzigd door Q op 15-08-2014 21:41 ]
Ja van het stroomgebruik wordt je zo te zien niet echt blij van!
ik neem aan dat dan alle drives actief zijn?
Mede om die reden heb ik een n36l neergezet kan de echte server/stroomvreter wat vaker uitstaan
Maarjah blijft hobby he

Ik vind wel dat je veel aandurft om een paar duizend euro aan hardware op tafeltjes te monteren die 5 euro kosten

Mede om die reden heb ik een n36l neergezet kan de echte server/stroomvreter wat vaker uitstaan


Maarjah blijft hobby he



Ik vind wel dat je veel aandurft om een paar duizend euro aan hardware op tafeltjes te monteren die 5 euro kosten
[ Voor 19% gewijzigd door -Venom- op 15-08-2014 22:12 ]
Tja, het lijkt wel wat vreemd om deze equipment op 5 euro tafeltjes te laten leunen. Maar het dure spul ligt op het onderste tafeltje en dat risico valt denk ik wel mee.
Ik heb de disks eens op spindown gezet en die monitor even los gekoppeld, dan nog 'maar' 375 watt dus dat heeft wel impact. Maar normaal staat alles gewoon uit.
Het blijft geen goedkope hobby maar een ander koopt weer veel drugs of houdt van verre vakanties en daar ben ik niet zo van.
Ik heb de disks eens op spindown gezet en die monitor even los gekoppeld, dan nog 'maar' 375 watt dus dat heeft wel impact. Maar normaal staat alles gewoon uit.
Het blijft geen goedkope hobby maar een ander koopt weer veel drugs of houdt van verre vakanties en daar ben ik niet zo van.
[ Voor 16% gewijzigd door Q op 15-08-2014 22:23 ]
Het is inderdaad geen goedkope hobby.. En dan betaal ik nog niet eens zelf de stroomkosten.... Maar ach je moet wat voor je hobby over hebben he..
Nice touch in die foto Q. Room 101. 
Die 74TB zijn voor werk?
Die 74TB zijn voor werk?
[ Voor 25% gewijzigd door Dadona op 16-08-2014 09:31 ]
Ik vroeg me eens af, zouden in een supermicro mobo 2 kits van verschillende merken ECC geheugen werken?
Kwestie om op de ZFS NAS het geheugen te kunnen upgraden naar 16GB kitjes en de 8GB kitjes in mijn server te steken.
Kwestie om op de ZFS NAS het geheugen te kunnen upgraden naar 16GB kitjes en de 8GB kitjes in mijn server te steken.
~ beware of misinformation.
Zolang ze dezelfde specs hebben zou het geen probleem moeten zijn.
Even niets...
Bedankt! De 74TB doos is ter vervanging van de 17 TB machine. Die zit vol. Niet werk gerelateerd.Dadona schreef op zaterdag 16 augustus 2014 @ 09:31:
Nice touch in die foto Q. Room 101.
Die 74TB zijn voor werk?
[ Voor 4% gewijzigd door Q op 16-08-2014 10:56 ]
74Tb.. Dat zijn heel wat Hardrock en metal albums.Q schreef op zaterdag 16 augustus 2014 @ 10:56:
[...]
Bedankt! De 74TB doos is ter vervanging van de 17 TB machine. Die zit vol. Niet werk gerelateerd.
Vandaag maar weer eens kort gekeken naar mijn nieuwe thuisserver (dat schiet voor geen meter op), en tot de conclusie gekomen dat ik mijn huiswerk niet goed genoeg gedaan heb. Ik wil gebruikmaken van KVM-features die een nieuwe(re) kernel nodig hebben, maar die nieuwere kernel kan geen OpenVZ containers draaien. Oeps
KVM en OpenVZ zijn toch ook niet echt verenigbaar? Wat zou je willen doen dan?
Even niets...
Machines die eigen kernel-modules of een andere kernel nodig hebben in KVM draaien, en de rest zonder veel overhead in OpenVZ containers duwen. En dat kan zeker samen, bijvoorbeeld met Proxmox VE. Maar als ik het zo lees moet ik wachten totdat de ontwikkelaars van OpenVZ naar de kernel van RHEL7 gaan.
Er zijn toch ook alternatieven voor OpenVZ? Linux Containers?
Even niets...
Waarmee ik het handig beheren in 1 interface wel kwijt raak dan. Op zich wel de moeite om eens naar te kijken, als ik er eens tijd voor heb.
Dat is zeker jammer ja. Al zijn er wel meer beheer interfaces dan ProxMox
Even niets...
Dat soort problemen heb je dus niet als je standaard de CLI gebruikt.
Een CLI gaat er niet magisch voor zorgen dat ik OpenVZ in een recente kernel krijg hoor
Overigens wel gepoogd (in een VM ironisch genoeg), waarvan het gevolg was dat ik een virtualisatiesysteem had draaien dat niet meer kon virtualiseren (KVM werkt al niet in VirtualBox, en OpenVZ wou niet in de kernel dus).
Ik heb een blog post gemaakt met alle info over mijn nieuwe 74 TiB NAS.
http://louwrentius.com/74...ased-on-zfs-on-linux.html
http://louwrentius.com/74...ased-on-zfs-on-linux.html
Zelfs in het engels leest het lekker weg Q
Heuj! Spullen zijn vanmiddag aangekomen, alles klaar inmiddels.. Nu eens wat kloten met ipmi enzo.. Allemaal nieuw voor mij.. 
Wauw! Wat een mooi spul!
je typt wat in je KVM console via IPMIview en je ziet het direct op je monitor verschijnen, die snelheid!
Wauw! Wat een mooi spul!

[ Voor 36% gewijzigd door Berkeley op 22-08-2014 21:23 ]
Bedankt -Venom-, ik heb mijn post aangepast want dat gekloot met een RAIDZ3 ashift=9 was niet zo verstandig (te brakke write performance).
@RobHas, ergens ben ik zo jaloers op je, dat ik jouw leeftijd was hadden we al die luxe niet. Wij mochten hooguit spelen met autoexec.bat en config.sys om ons memory te optimaliseren en dat was het dan. Aan de andere kant is het wel zo dat wij 'ouderen' dat spul wat makkelijker kunnen kopen, maar die tijd komt voor jou ook snel genoeg. Voor mij was een zeer goede inkomsten bron: computers fixen voor andere mensen voor een straf uur tarief.
[ Voor 42% gewijzigd door Q op 23-08-2014 11:33 ]
Haha, ik zit er ook wel aan te denken om een baan te nemen.. Maar ik ben niet echt het type dat zin heeft om iets te gaan doen na school dat anders is dan nerden en sporten.Q schreef op zaterdag 23 augustus 2014 @ 11:29:
[...]
@RobHas, ergens ben ik zo jaloers op je, dat ik jouw leeftijd was hadden we al die luxe niet. Wij mochten hooguit spelen met autoexec.bat en config.sys om ons memory te optimaliseren en dat was het dan. Aan de andere kant is het wel zo dat wij 'ouderen' dat spul wat makkelijker kunnen kopen, maar die tijd komt voor jou ook snel genoeg. Voor mij was een zeer goede inkomsten bron: computers fixen voor andere mensen voor een straf uur tarief.
Wat een luxe dat je een keuze hebt. Ik moest geld hebben op die leeftijd en dan zat er maar een ding op.
Het is niet dat ik niks doe hoor, ik doe vooral veel klusjes in en rondom huis. en krijg daar geld voor.Q schreef op zaterdag 23 augustus 2014 @ 16:19:
Wat een luxe dat je een keuze hebt. Ik moest geld hebben op die leeftijd en dan zat er maar een ding op.
[ Voor 0% gewijzigd door Berkeley op 23-08-2014 20:50 . Reden: lol typo ]
Let op:
In deze kroeg gelden de volgende regels:
In deze kroeg gelden de volgende regels:
- Vertel vooral hoe je dag was, daar is een kroeg voor.
- Tips vragen mag, advies hoort erbuiten.
- We zijn in een kroeg, flamen of ruzie zoeken resulteert in verwijdering door een barman
- Lief zijn voor de modjes, die hebben ook hun rust nodig.
- Drank is gratis, op de tafel dansen niet.