Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Als ik een beetje het verbruik schat van mijn equipment ben ik toch wel blij dat ik dit gedaan heb. :-)
Het is ook wel een beetje het idee geloof ik.
~ beware of misinformation.
Toch maar een nieuwe generatie gekocht, dan blijft dat bord maar liggen mocht een andere server issues krijgen.
Het was toch de keus om dan nog een socket 1155 processor te kopen, of toch 1150 te gaan..
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
blogspam
WUTQ schreef op zondag 01 februari 2015 @ 11:30:
Ik heb even opgeschreven hoe je de SCST iSCSI target op Debian aan de praat krijgt. Viel erg mee, inclusief kernel patchen en compileren.
blogspam
Maar wel de betere spam
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
houkouonchi: https://www.youtube.com/watch?v=ZL0xC7H7naY
houkouonchi ken je misschien, hij is in het nieuws geweest omdat hij zoveel data downloadde over zijn glasvezel verbinding 77 TB per maand dat hij er mee werd geconfronteerd door zijn ISP.
http://arstechnica.com/in...ited-data-77-tb-in-month/
http://hardforum.com/member.php?u=190055
[ Voor 6% gewijzigd door Q op 03-02-2015 23:03 ]
https://www.backblaze.com/hard-drive-test-data.html
Zolang je goede backups hebt maakt het niet zoveel uit welk merk je neemt (al baal je natuurlijk wel als er elke keer een schijf uitvalt)
Dat is dik 2 TB per dag. Ik heb ook wel eens dagen van wat meer, maar 2 TB op een dag kan ik me niet herinneren.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
[ Voor 11% gewijzigd door Patatjemet op 09-02-2015 12:07 ]
- raid does not fix stupid -
Het zal idd. betekenen dat je qua opslag dichtheid (storage density) een flinke sprong kunt maken.Patatjemet schreef op maandag 09 februari 2015 @ 12:06:
Yeuh, SDK start levering 750 GB platters voor 2.5" hdd's in maart. Met de komst van 3 TB 4 platter 2.5" hdd's wordt hopelijk 2015 het jaar dat ik mijn 640 GB hdd's met pensioen ga sturenEerst eens kijken wanneer ze uitkomen en hoe de prijsstelling wordt.
Als ik ff snel reken aan de hand van m'n Stacker (STC-C01) kan ik ipv 20 x 3.5" HDD (12 stuks 5 1/4 slots is 4 maal een 5x 3.5" in 3x 5 1/4 slot module). 20 x 6 Tib is 120 Tib ruwe opslag. (Met wat modding kan ik denk ik maximaal 30 drives kwijt, dus zeg maar 180 TiB ruwe opslag max. [zo'n slappe 144 Tib RAID-Z2 aan opslag]) kosten aan drives ca. € 7500.
Met 12 van deze docks kan ik 72 drives kwijt (72 x 3 TiB = 216 TiB ruwe opslag
Kosten aan hdd's op dit moment nog onbekend, maar dat zal wel over de €10.000 gaan voor de drives
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Dan nog ergens nog 2 schijfjes kwijt worden en je kunt 9x een RAIDZ-2 maken van 24 TiB 't stuk (216 TiB).Q schreef op maandag 09 februari 2015 @ 12:46:
http://www.supermicro.nl/products/chassis/4U/?chs=417
88 x 3 TB = 264 ruwe TB
Maakt dat de aanstaande uitbreiding van de storage bak er maar magertjes uitzien. Er komt slechts 32 TiB bij (10 stuks van 4 TiB in RAID-Z2, dus per saldo 8 x 4 TiB) wat totaal 49 TiB maakt. Voordeel is wel, het doet niet zo'n pijn in de portemonnee (hoewel ca. €1400 niet mals is).
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
moeten alleen de 3TB in 2,5" formaat nog leverbaar komenQ schreef op maandag 09 februari 2015 @ 12:46:
http://www.supermicro.nl/products/chassis/4U/?chs=417
88 x 3 TB = 264 ruwe TB
BAckplane issues Norco voeding vond het niet zo leuk, mainboard ook niet. Wellicht ook Eigen fout.Q schreef op vrijdag 23 januari 2015 @ 11:03:
x9scm-f = heel goed DIY NAS bord ook al is hij wat ouder --> moet met V&A toch nog wel wat opbrengen zou ik zeggen. Wat was er mis gegaan met het vorige bord (ik heb er zelf 2 van dit type.)?
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
tada, power erop en: beep, beep, beep, beep, beep, beeeeeeeep
Geheugen error volgens de handleiding van Supermicro.
Affijn 2 oude 4 GB modules erin en booten. Dus niets met mainboard, voeding en inbouw maar gewoon verkeerd geheugen gekregen: M391B1G73QH0-YK0 bested, en M393B1G70QH0-YK0 gekregen.
Dat laatste is helaas buffered, en werkt dus niet in een X10SL7-F met een E3-1220v3
RMA aangemeld.
Update: RMA doorlopen en goed geheugen inmiddels geïnstalleerd en server loopt.
[ Voor 7% gewijzigd door jacovn op 15-02-2015 08:06 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Tweedehands is er wel het één en ander mooi te vinden, maar een NAS die in 2 jaar tijd 24/7 heeft aangestaan is natuurlijk best wat uurtjes oud.
Zouden jullie ooit een NAS kopen ouder dan 2 jaar 24/7?
Ook kom ik niet veel verder in de verschillen tussen Qnap, Synology en Netgear. Behalve de prijs en onderlinge verschillen per model, kan ik niet echt veel verschillen ontdekken. Kan ik dit ergens teruglezen anno 2014/2015? Ik vind alleen maar oudere benchmark en reviews van de verschillende merken en types.
De disks daarentegen hebben er wel wat meer last van waarschijnlijk.
Je kan wat SMART dumps opvragen (kan ook in de meeste NAS webinterfaces wel).
Even niets...
Voor een 24/7 NAS komen vaak de WD RED voorbij. Mijn gevoel zegt dus dat dat wel betrouwbare schijven zullen zijn
Welk merk heeft jullie voorkeur? Mijn broer heeft een Synology en ziet er wel goed uit allemaal. Hij is er ook tevreden over. Mijn oom is IT'er en die raadt Qnap aan, maar die zet hij vaak in als professioneel gebruik. Tja, dat zijn dan weer net andere eisen dan een thuisserver.
Ik kom ook alleen maar in datacenters van 1 bank de laatste 10 jaar. Maar die tellen niet in terrabytes, maar in petabytes, en het zijn haast altijd san oplossingen en geen nas.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
In ongeveer 6 jaar tijd heb ik vier voedingen van vier verschillende merken naar de klote zien gaan.
Ik heb meer voedingen zien sterven dan disks. Gelukkig hebben ze geen andere hardware mee genomen.
Maar nog nooit een voeding zien sneuvelen in mijn server (gelukkig)
Wel heb ik ooit heel mijn pc kamertje vol met rook gehad doordat en oude voeding spontaan begon te roken en heel de pc meenam in zijn graf


Ongerelateerd maar misschien wel leuk om te weten voor de mensen die een server op basis van een AMD-systeem willen bouwen: Voor zover ik kan zien werkt ECC-geheugen in de 970A-DS3P en 970A-UD3P moederborden van Gigabyte. In het BIOS kan ik niets instellen wat betreft ECC, maar op beide machines geeft de kernel aan dat er ECC-support is.
Wat ECC-support betreft: hoe zeker ben je dat ECC ook echt werkt met dat soort AMD bordjes? Het is vaak super lastig om te verifiëren.
Mijn aanname hier is dat het werkt vanwege de volgende logboekregels:Q schreef op zaterdag 07 maart 2015 @ 21:57:
Wat ECC-support betreft: hoe zeker ben je dat ECC ook echt werkt met dat soort AMD bordjes? Het is vaak super lastig om te verifiëren.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| Mar 8 14:51:02 proxmox kernel: AMD64 EDAC driver v3.4.0 Mar 8 14:51:02 proxmox kernel: EDAC amd64: DRAM ECC enabled. Mar 8 14:51:02 proxmox kernel: EDAC amd64: F15h detected (node 0). Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 0: 4096MB 1: 4096MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 2: 4096MB 3: 4096MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 4: 0MB 5: 0MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 6: 0MB 7: 0MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 0: 0MB 1: 0MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 2: 0MB 3: 0MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 4: 0MB 5: 0MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: MC: 6: 0MB 7: 0MB Mar 8 14:51:02 proxmox kernel: EDAC amd64: using x4 syndromes. Mar 8 14:51:02 proxmox kernel: EDAC amd64: MCT channel count: 1 Mar 8 14:51:02 proxmox kernel: EDAC amd64: CS0: Unbuffered DDR3 RAM Mar 8 14:51:02 proxmox kernel: EDAC amd64: CS1: Unbuffered DDR3 RAM Mar 8 14:51:02 proxmox kernel: EDAC amd64: CS2: Unbuffered DDR3 RAM Mar 8 14:51:02 proxmox kernel: EDAC amd64: CS3: Unbuffered DDR3 RAM Mar 8 14:51:02 proxmox kernel: EDAC MC0: Giving out device to 'amd64_edac' 'F15h': DEV 0000:00:18.2 Mar 8 14:51:02 proxmox kernel: EDAC PCI0: Giving out device to module 'amd64_edac' controller 'EDAC PCI controller': DEV '0000:00:18.2' (POLLED) |
Moederborden van Asus hebben me dusdanig veel ellende opgeleverd dat ik geen Asus (moederborden) meer koop.BartNL schreef op zaterdag 07 maart 2015 @ 22:36:
zou dan gewoon een Asus AM3 bord nemen, zij melden de ECC ondersteuning op website en in bios.
Wat betreft het versimpelen is er ook nog wel een kanttekening te maken: de moederborden blijven voldoen aan de originele opgegeven specificaties. In het voorbeeld dat hier op de fp stond liepen de prestaties terug met een high-end processor op een low-budgetmoederbord: het is te betwijfelen of een low-budgetprocessor dezelfde terugloop in prestaties laat zien.
Dat is wel een goede indicatie dat het werkt.dcm360 schreef op zondag 08 maart 2015 @ 15:02:
[...]
Mijn aanname hier is dat het werkt vanwege de volgende logboekregels:
Aanvankelijk is een storage cluster alleen voor de rijken, want alle data wordt 2-3x opgeslagen, dus erg efficient is het niet. Een probleem dat LUKS ook had. Maar daar is nu verandering in gekomen.
In de zomer van 2014 is support voor 'erasure encoding' toegevoegd. Dat is simpelweg RAID over je nodes heen. http://ceph.com/docs/giant/dev/erasure-coded-pool/
Ik heb nu een klein test clustertje met vier nodes opgezet, allemaal virtueel.
Je kunt ook storage tiering doen, dus cache lagen inbouwen voor je archival storage.
1
2
3
4
5
6
7
8
9
| root@ceph-mon0:~# ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 179G 163G 16584M 9.00 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS rbd 4 8 0 81781M 1 hot-storage 6 112 0 81781M 1 cold-storage 7 10919M 5.93 106G 2749 |
Heel grappig speelgoed. Mij is nog niet duidelijk waarom de cold-storage die erasure encoding gebruikt 'maar' 106 GB geeft van de 179, ik zou rond de 130 (75%) verwachten. Moet ik verder uitzoeken.
RAID is niet meer van belang en dat schaalt ook niet. Ceph zorgt er voor dat je data over de disks en nodes wordt verdeeld waarbij je kan sturen dat data niet redundant binnen 1 node wordt opgeslagen, want dan wordt je nog niet veel wijzer.
[ Voor 14% gewijzigd door Q op 08-03-2015 20:41 ]
20 maanden oude Thecus N7700PRO V2' (4gb)
Nieuwe Thecus N7510 (2gb)
Waar zouden jullie voor kiezen? Nieuw is wat waard natuurlijk, maar de 7700 is echt wel beter en sneller natuurlijk.....
Wat wil je qua opslag capaciteit bereiken ?, de N7700 doet vlgs de OUDE specs tot 28 TB, de N7510 tot 42 TB vlgs spec's.StealthyPeanut schreef op maandag 23 maart 2015 @ 11:48:
Ik heb de volgende opties voor rond de €430,-.
20 maanden oude Thecus N7700PRO V2' (4gb)
Nieuwe Thecus N7510 (2gb)
Waar zouden jullie voor kiezen? Nieuw is wat waard natuurlijk, maar de 7700 is echt wel beter en sneller natuurlijk.....
Maakt inmiddels qua capaciteit dus niets uit. Dan is t afhankelijk van de omstandigheden waaronder de Thecus heeft gestaan (goed gekoeld/schoon vs stoffig en warm), bij twijfel is een nieuwe mbt garantie en ondersteuning wellicht een betere optie.
[ Voor 15% gewijzigd door Pantagruel op 23-03-2015 13:42 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik heb SabNZB hetzelfde geconfigureerd als op de pc, met exact dezelfde gegevens. Helaas krijg ik de melding: ongeldige servernaam. Hier heb ik news.supernews.com ingevuld. Gewoon dik in orde dus.
Daarna geprobeerd om het ip adres van Supernews in te vullen, maar dan krijg ik de time-out melding. Al met al niet heel fijn dus!
Dit zijn mijn instellingen';
Server naam 138.199.67.30
Poort nummer 119
Gebruikersnaam kloppend
Wachtwoord kloppend
Verbindingen 20
Bewaartijd dagen 0
Tijdslimiet seconden 120
Iemand nog suggesties waar ik kan gaan zoeken? Ik heb het idee dat mijn NAS niet op het internet zit. Ik heb een statisch IP adres 192.168.2.100 en dit is in de rest van mijn huis ook de range.







Mijn jaar kan nu al niet meer stuk na 14 maanden ellende


Van harte, da's een fijne mededeling.-Venom- schreef op zondag 05 april 2015 @ 19:19:
Eventjes iets anders als server/doorvoer/software/hardware, ik ben deze week kankervrij verklaard![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
Mijn jaar kan nu al niet meer stuk na 14 maanden ellende![]()
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Verwijderd
Beetje offtopic maar wat boeit het, goed nieuws is goed nieuws!-Venom- schreef op zondag 05 april 2015 @ 19:19:
Eventjes iets anders als server/doorvoer/software/hardware, ik ben deze week kankervrij verklaard![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
Mijn jaar kan nu al niet meer stuk na 14 maanden ellende![]()


8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik zie geen probleem.Vertel vooral hoe je dag was, daar is een kroeg voor.
En tegen betaling:
Maar, goed nieuws!Drank is gratis, op de tafel dansen niet.
Invullen in sabnzb bedoel je? Of op de nas.?CooleSmurf schreef op zondag 05 april 2015 @ 14:41:
Default gateway ingevuld bij IP settings?
-Venom- schreef op zondag 05 april 2015 @ 19:19:
Eventjes iets anders als server/doorvoer/software/hardware, ik ben deze week kankervrij verklaard![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
Mijn jaar kan nu al niet meer stuk na 14 maanden ellende![]()


Super gefeliciteerd!
@Loondijke: op de NAS zelf. Anders heb je geen internet connectiviteit. Echter moet dat alleen indien je een statisch IP adres ingevuld hebt, bij gebruik van een dynamisch IP adres is dat niet nodig, deze hoor je dan van je DHCP server te krijgen (vaak router die ook als DHCP server functioneert). Voor een NAS lijkt me het gebruik van een statisch IP adres het meest voor de hand liggend.
Via de WEB-UI van de NAS kan je bij IPV4 adres ook de default gateway invullen. Vul daar het IP adres in van je router.
Appartement heeft wel maar op 1 plek netwerkaansluiting; achter de TV. Betekent dus dat ik ofwel mijn homelab over wifi/powerline moet laten gaan, moet downsizen zodat het in een tv meubel past of moet verkopen. (of DIY nas verkopen voor een synology..)
Sounds like rackmount --> mITX.
Kabels leggen over de vloer zint me precies niet zo.
Edit: mijn server staat nu op V&A
[ Voor 20% gewijzigd door Nindustries op 29-04-2015 19:16 ]
~ beware of misinformation.
Btw:
Ceph is cool
[root@NAS ~]# ceph status cluster d7766da8-0963-4298-adea-31fbb986769b health HEALTH_OK monmap e3: 4 mons at {VH01=192.168.1.200:6789/0,VH02=192.168.1.201:6789/0,VH03=192.168.1.202:6789/0,VH04=192.168.1.203:6789/0}, election epoch 26, quorum 0,1,2,3 VH01,VH02,VH03,VH04 mdsmap e24: 1/1/1 up {0=VH03=up:active}, 3 up:standby osdmap e51: 4 osds: 4 up, 4 in pgmap v8967: 192 pgs, 3 pools, 1892 bytes data, 21 objects 25629 MB used, 891 GB / 919 GB avail 192 active+clean
[ Voor 81% gewijzigd door FireDrunk op 28-04-2015 21:36 ]
Even niets...
Verwijderd
Ik heb net een enclosure gekocht voor in een 5,25"-bay voor mijn hdd (om oa sound te dempen).
Blijkbaar is dit product echter te groot voor deze bay (misschien 1 à 2 mm) wegens slordig design/productiefout. Moet ik mijn geloof nu ook al in standaardmaten zoals 3.5", 5.25",... verliezen?
meten = weten...
Even niets...
FireDrunk schreef op dinsdag 28 april 2015 @ 21:35:
Waarom niet een netwerkkabel over de plinten? Heb ik hier ook...
Btw:
Ceph is cool
Soms zit het idd een beetje strak en is er een lichte mate van toegepast geweld nodig,.. carefully persuade with hammerVerwijderd schreef op dinsdag 05 mei 2015 @ 20:58:
Geen idee of dit hier thuis hoort maar een klein vraagje/opmerking.
Ik heb net een enclosure gekocht voor in een 5,25"-bay voor mijn hdd (om oa sound te dempen).
Blijkbaar is dit product echter te groot voor deze bay (misschien 1 à 2 mm) wegens slordig design/productiefout. Moet ik mijn geloof nu ook al in standaardmaten zoals 3.5", 5.25",... verliezen?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

http://www.reddit.com/r/D...mments/35fox8/norcoxcase/
(Edit: vermijdt NorCo cases als de builenpest)
[ Voor 26% gewijzigd door Q op 10-05-2015 19:37 ]
[ Voor 6% gewijzigd door Dadona op 10-05-2015 12:00 ]
Q schreef op zondag 10 mei 2015 @ 11:50:
http://www.reddit.com/r/D...mments/35fox8/norcoxcase/
(Edit: vermijdt NorCo cases als de builenpest)
Tjezus, als t verhaal op Reddit leest heb ik toch sterk mijn twijfels over het QA/QC traject dat de backplanes doorlopen.Dadona schreef op zondag 10 mei 2015 @ 11:59:
Jemig, dat is toch een nachtmerrie. Ook even een 8TB erbij, een disc van 250 euro zo in rook op.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
De gebruiker trevyz meldt dat bij een van de affakkelende backplanes de molex connector fout zat, ik gok dat je daarmee een redelijke kans maakt dat X-case op zal moeten draaien voor de gevolg kosten omdat het hierbij om een productie fout gaat. Dat die bewuste backplane door de QC checks is gekomen is niet netjes.FireDrunk schreef op maandag 11 mei 2015 @ 10:01:
Ik verwacht ook niet dat je van Norco die disk vergoed krijgt, en qua garantie kan je die disk waarschijnlijk ook vergeten
Bij het gebruik van een brakke PSU zal t lastig worden of je moet redelijker wijs kunnen aantonen dat het hiervoor, zonder de backplane, wel goed werkte. Dit laatste verzand meestal in een welles-nietes spelletje en trekt de gebruiker aan t kortste eindje.
Garantie via de producent van de HDD kun je denk ik inderdaad wel vergeten, die zal wijzen richting de maker/leverancier van de backplane of zeggen dat een falende PSU niet hun probleem is.[–]trevyz[S] 1 point 21 hours ago
X-case approached me with past experience of two customers, one with molex put in the wrong way (?!?) and the other about a bad PSU with bad 5V and lousy cable splitting (i have a corsair 860i). How do I even respond to this? They told me its highly unlikely two backplanes failing at the same time. Any chance it could be my new PSU?
[ Voor 7% gewijzigd door Pantagruel op 11-05-2015 10:15 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Storage Pr0n: Cern 30 Petabyte Ceph cluster #holyshit
Met norco heb ik ook ervaring. 1 backplane die cable errors gaf op alle 4 poorten. Heb nog steeds drives met hoge cable error count. Andere backplane had de beugel van de sff-8087 connector loszitten, dus die maakte geen goede connectie.
2 nieuwe backplanes van rivier gekregen en nu draait het goed.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
XCase kast is niet dezelfde constructie als een Norco kast maar blijft natuurlijk wel consumer grade spul waar je dus vergelijkbare problemen kunt hebben. Soldeerwerk op Norco backplanes was 2-3 jaar geleden dramatisch maar lijkt daarna wel op orde.
XCase afschuiven op bekabeling is maar de vraag of dat terecht is. Wel denk ik dat XCase een punt heeft dat het onlogisch is dat oorzaak van het probleem een backplane is wanneer er twee backplanes tegelijk een probleem krijgen. Een probleem met de voeding of gemeenschappelijke bekabeling lijkt dan logischer.
Ook kan ik instellen, dat hij op bepaalde tijden uitschakelt en weer inschakelt. Maar, is dat niet slecht voor de HDD's? Ik kan me voorstellen dat ik een Wake-On-Lan ga gebruiken, maar wilk wel zeker weten dsat de schijven hier geen last van gaan hebben.
Het zijn WD RED 4TB's.
DrewllQ schreef op dinsdag 12 mei 2015 @ 23:35:
https://cds.cern.ch/recor...ephScaleTestMarch2015.pdf
Storage Pr0n: Cern 30 Petabyte Ceph cluster #holyshit
7200 storage spindels verdeeld over 150 servers da's geen kattenpis. (Leest btw lekker weg die pdf)
[ Voor 4% gewijzigd door Pantagruel op 17-05-2015 10:05 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Dat voelde best lekker.
[ Voor 8% gewijzigd door Q op 25-06-2015 14:49 ]
FeliQ schreef op donderdag 25 juni 2015 @ 14:49:
Ik heb op het werk een productie FreeBSD machiine opgezet ter vervanging van een oudere BSD bak en het OS op ZFS gezet.
Dat voelde best lekker.
Echt zo'n :

momentje
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
FreeBSD is alleen wel echt so 1998: moest ff live disk resizen onder VMware van 50 naar 100 GB. ZFS kan wel een autoexpand doen, maar BSD ziet niet dat de disk groter is geworden. Daarvoor moet je rebooten. Werkt wel zie onder
Onder linux kan dit alles zonder te rebooten:
1
| echo '1' > /sys/class/scsi_disk/0\:0\:0\:0/device/rescan |
Godverdomde Microsoft Windows kan dit al 10 jaar if zoniet langer.
Dus nu weer wachten om off-peak-hours de box te rebooten.
[ Voor 28% gewijzigd door Q op 26-06-2015 14:46 ]
Was dat niet iets met camcontrol rescan?
Even niets...
Zal morgen eens kijken of dat werkt, thanks. Kon het niet vinden.FireDrunk schreef op donderdag 25 juni 2015 @ 17:23:
Ik dacht dat daar ook wel wat voor was onder BSD?
Was dat niet iets met camcontrol rescan?
1
2
| root@build:~ # camcontrol readcap da2 -h Device Size: 100 G, Block Length: 512 bytes |
Holy shit gelukt, het kan wel.
1
| zpool online -e Archive da2 |
1
2
| Filesystem Size Used Avail Capacity Mounted on Archive 97G 140K 97G 0% /Archive |
[ Voor 37% gewijzigd door Q op 26-06-2015 14:46 ]
Zo net bij Telenet internet bestelt, nu nog zien of ik het gedaan kan krijgen voor enkel een modem te laten installeren zodat ik mijn pfSense+ubiquiti combinatie goed kan gebruiken.
* nindustries pompelt iets over site-to-site vpn functionaliteit tegen de Telenet medewerker
~ beware of misinformation.
gefeliciteerd met jullie nieuwe appartement en succes met het klussenNindustries schreef op donderdag 02 juli 2015 @ 09:17:
Zojuist de sleutels gekregen van het appartement voor mij en mijn vriendin, een nieuw hoofdstuk!
Zo net bij Telenet internet bestelt, nu nog zien of ik het gedaan kan krijgen voor enkel een modem te laten installeren zodat ik mijn pfSense+ubiquiti combinatie goed kan gebruiken.
* nindustries pompelt iets over site-to-site vpn functionaliteit tegen de Telenet medewerker




Bedankt! Ik kan inmiddels mezelf al tot IKEA-expert benoemen-Venom- schreef op dinsdag 07 juli 2015 @ 19:47:
[...]
gefeliciteerd met jullie nieuwe appartement en succes met het klussen![]()
![]()
![]()

~ beware of misinformation.
Hé awel he, ik mis de helmer kast voor je eigen cluster/renderfarm, st0rage pr0n thingNindustries schreef op woensdag 08 juli 2015 @ 08:54:
[...]
Bedankt! Ik kan inmiddels mezelf al tot IKEA-expert benoemen![]()
[afbeelding]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Heb wel juist mijn homelab gedownsized naar een VPS met media (nu aan het seeden met 700KB/s van Synology ouders naar de VPS.. rsync, y u so slow), linux NASje en een windows steam streaming desktop die ik uit zet na gebruik. (70W-100W verbruik ofzo, i5 2500K met GTX 660 Ti)
Maarre.. for science, always
[ Voor 4% gewijzigd door Nindustries op 08-07-2015 09:07 ]
~ beware of misinformation.
Mocht je voldoende in de slappe was zitten kun je aan een all SSD array gaan denken zonder last van spindel geluiden en al te veel warmte problemen. De voordelen kan ieder wel bedenken
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Even niets...
Is inderdaad ZFS, de disk is geformateerd als SMI (VTOC glf ik), ik wil deze disk, is dus een bootdisk waar solaris vanaf boot kopieren naar een andere (dezelfde) disk zodat ik 2 dezelfde disks heb. Er draait idd ZFS op, als ik zpool status doe krijg ik zfs info. Maar ik krijg dan maar 1 disk te zien.FireDrunk schreef op woensdag 29 juli 2015 @ 08:25:
Niet direct, maar dat is toch gewoon ZFS? Dus snapshotten, ZFS send en receive naar een andere disk of een file?
zfs send en receive dan word echt de hele disk gekopieerd? icm de bootsector etc?
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
met andere woorden: Wil je een mirror dat je OS blijft draaien zodra een disk uitvalt, of wil je een backup op een disk die je buiten de kast plaatst?
Even niets...
Ik heb storage nodig, tijdelijk. Ongeveer 3 a 4 TB.
Echter mijn SAN zit vol en het moet worden toegewezen in een ESXi5.5 virtuele machine.
USB passthrough staat niet aan, de host rebooten is niet mogelijk.
Iets van een NAS aanschaffen vind ik onnodig gezien het maar tijdelijk is.
Weet iemand nog een andere oplossing?
Een 1 op 1 Backup, ik heb meerdere dezelfde systemen die worden allemaal voorzien van dezelfde installatie, wil dus de disk kunnen kopieren en zo dat ik de disk in een ander systeem kan stoppen en dan verder kan gaan.FireDrunk schreef op woensdag 29 juli 2015 @ 09:17:
Wil je een online, of een offline backup?
met andere woorden: Wil je een mirror dat je OS blijft draaien zodra een disk uitvalt, of wil je een backup op een disk die je buiten de kast plaatst?
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Verwijderd
Nee, dat is verboden op Wikipedia. Zie: Wikipedia: Wikipedia:No original researchCompizfox schreef op vrijdag 04 september 2015 @ 17:27:
Het mooie van Wikipedia is dan natuurlijk dat jij, als iemand die het beter weet, het gewoon kan aanpassen. Dan moet je dat dus ook doen imho in plaats van te gaan zeuren
Ik zou dan zelf een website moeten maken met de informatie daarop. En vervolgens mag iemand anders de artikelen aanpassen met een referentie naar mijn artikel.
Overigens zit ik wel te denken om ipv mijn blog een website te maken met alle storage kennis die ik heb opgedaan over de jaren. Ook leuk om eens te toetsen wat er exact waar is van alles wat ik 'weet', en welke zaken toch niet helemaal kloppen. Want niet alles wat ik schrijf of denk te weten, is helemaal correct. Of sommige zaken mist er juist wat, waardoor ik mijn kennis weer kan perfectioneren. En een perfectionist ben ik wel.
Dat betekent nog niet dat jij het niet mag editen. Het betekent alleen dat je voor informatie referenties moet toevoegen, en dat lijkt me vrij vanzelfsprekend.Verwijderd schreef op vrijdag 04 september 2015 @ 17:33:
[...]
Nee, dat is verboden op Wikipedia. Zie: Wikipedia: Wikipedia:No original research
Ik zou dan zelf een website moeten maken met de informatie daarop.
Overigens is het lijkt me ook geen ramp als je iets wijzigt waar je geen bron van hebt. Zoals je ziet staat er bij de huidige info over RAID-3 ook geen bron. Lijkt me niet dat ze een verbetering ongedaan gaan maken omdat je er geen bron bij hebt, als de oude informatie ook geen bron heeft (en onjuist is).
Gewoon een heel grote verzameling snoertjes
Verwijderd
Wat je eigenlijk zegt is: edit gewoon maar, ook al is het tegen de regels. Tsja..
Tja, zoek op internet een bron die het wel goed uitlegt en citeer die?Verwijderd schreef op vrijdag 04 september 2015 @ 17:45:
Referenties toevoegen naar mijzelf? Of welke referenties moet ik dan precies gebruiken?
Ja, eigenlijk wel. Liever correcte informatie zonder referentie dan incorrecte informatie zonder referentie toch?Wat je eigenlijk zegt is: edit gewoon maar, ook al is het tegen de regels. Tsja..
Gewoon een heel grote verzameling snoertjes
Verwijderd
Verwijderd
Mja, maar "correct" is daar dus de crux. Iedereen kan wel van alles gaan schrijven, je zult toch een of andere manier moeten hebben om te verifiëren of het een beetje klopt allemaal. Daarom dus de eis van een betrouwbare bron. Dat werkt op wikipedia al lang niet altijd even goed, laat staan dat je die eis ook nog laat vallen.Compizfox schreef op vrijdag 04 september 2015 @ 17:51:
[...]
Ja, eigenlijk wel. Liever correcte informatie zonder referentie dan incorrecte informatie zonder referentie toch?
Verwijderd
Verwijderd
Overigens maak je mij niet wijs dat er geen betrouwbare bronnen te vinden zijn waar dingen als RAID en SMART in detail beschreven worden die je als bron voor wikipedia zou kunnen gebruiken. Dat soort standaarden zijn over het algemeen goed gedocumenteerd.
Gisteren 3 5TB schijven van Toshiba besteld, maar het lijkt er een beetje op dat er ondanks de voorraadindicatie van veel webshops nog maar 2 in Nederland lagen. Exit klusplannen voor zondag waarschijnlijk...
Je hebt van die dagen he....dcm360 schreef op donderdag 15 oktober 2015 @ 12:25:
* dcm360 zucht
Gisteren 3 5TB schijven van Toshiba besteld, maar het lijkt er een beetje op dat er ondanks de voorraadindicatie van veel webshops nog maar 2 in Nederland lagen. Exit klusplannen voor zondag waarschijnlijk...




Verwijderd
Vorige keer dat ik 3 schijven wou hebben (ook 3 Toshiba's, wat dat betreft moet ik Backblaze wat betreft leverbaarheid misschien wel gelijk geven) zat de situatie ook wel leuk in elkaar: de webshop die goedkoop en snel zou kunnen leveren, had er maar 2. Toen maar even vooraf gevraagd of ik er ook 3 van zou kunnen bestellen, waarop best snel een 'nee' als antwoord kwam. Ook prima, 2 schijven daar besteld en de derde voor een wat hogere prijs afgehaald bij een winkel in de buurt (samen met bijna de rest van het systeem dat ik toen aan het bouwen was).
http://www.supermicro.com...on_X11.cfm?pg=MB&show=ALL
X11SAE-M lijkt me wel interessant met 8 x on-board sata.
http://www.supermicro.com...on/C236_C232/X11SAE-M.cfm
Edit: PCI-slot is een beetje stom, we leven niet in 2001. Is waarschijnlijk meer een workstation bordje die dan ook nog legacy equipment kan supporten.
[ Voor 15% gewijzigd door Q op 20-10-2015 16:35 ]
Asrock Rack komt idd. ook met workstation bordjes op de proppen in zowel mITX als uATX formaat. Deze hebben geen IPMI itt sommige van de SuperMicro modellen.Q schreef op dinsdag 20 oktober 2015 @ 16:30:
Supermicro is met wat single-processor Skylake 1151 server bordjes uitgekomen. Deze generatie processoren lijkt tot 64 GB RAM te gaan, misschien ook wel leuk voor de mensen die virtualisatie en hun NAS combineren.
http://www.supermicro.com...on_X11.cfm?pg=MB&show=ALL
X11SAE-M lijkt me wel interessant met 8 x on-board sata.
http://www.supermicro.com...on/C236_C232/X11SAE-M.cfm
Edit: PCI-slot is een beetje stom, we leven niet in 2001. Is waarschijnlijk meer een workstation bordje die dan ook nog legacy equipment kan supporten.
Wat dat betreft ben ik wel weer in de markt voor een handje vol nieuwe hardware.
Gisteren knalde er een stop uit. Naderhand wilde de meterkast server (ESXi bak op basis van een Asrock B75 Pro3-M, I5, etc) niet meer doorstarten (gaat aan fans draaien, maar geen piepjes, geen beeld)
Dit weekend eens uitvinden wat er aan scheelt, maar t kon wel eens een

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Klopt, beperkt je wel tot 32 GB RAM, maar dat heeft voor mij tot op heden nooit beperkingen gegeven mbt ESXi en vm's. Plus is ook t PCIe 3.0 16x slot om evt. een hba/controller erbij te kunnen prikken.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
In deze kroeg gelden de volgende regels:
- Vertel vooral hoe je dag was, daar is een kroeg voor.
- Tips vragen mag, advies hoort erbuiten.
- We zijn in een kroeg, flamen of ruzie zoeken resulteert in verwijdering door een barman
- Lief zijn voor de modjes, die hebben ook hun rust nodig.
- Drank is gratis, op de tafel dansen niet.