"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
damn alleen die kast is al duur, en dan ook nog al die hotswap bays erin. respectMidas.e schreef op vrijdag 27 mei 2011 @ 13:43:
Nou, ik zal mijne dan ook maar posten:
Het begon ooit met 2x160GB in raid0, dat werd al snel 6x160GB en 5x250GB. Inmiddels is dat allemaal vervangen door een nieuwe server:
[afbeelding]
Het hele spul is gebaseerd op een Supermicro C2SBX+ mainboard, een areca 1170 (24 port) en een lian li pc 343b. Hieraan hangen 12x1TB Hitachi's en 12x1.5TB Seagates.
Beide arrays draaien in raid6, raw opslag is 32TB. , bruikbaar zon 22TB
De nas wordt gebruikt als NFS store voor mn eigen virtualisatie( zie de ml110 ernaast) en mn eigen files.
Anoniem: 292340
Als je geinteresseerd in een grote kast bent, heb ik hier nog wel een Cooler Master Stacker STC-T01 tower staan met 4 x 4 in 3 modules (16 schijven totaal). Het I/O paneeltje kan je gewoon los halen. DM me maar als je het wat vind.tbusquet schreef op zaterdag 28 mei 2011 @ 12:18:
[...]
Klopt, herrie is absoluut geen optie voor mij, NAS staat momenteel in de huiskamer onder mijn bureau.
De 4 in 3 bays van Coolermaster zijn goed te betalen, 15 euro per stuk. Ik ben voortdurend aan het kijken naar een upgrade voor de behuizing. Maar wil er niet te veel aan uitgeven op het moment. De Sharkoon Rebel 12 is misschien een optie, alleen vind ik die wel lelijk en moet je de bovenkant modden om alle 12 de bays te kunnen gebruiken.
De Antec 1200 is mooie kast maar toch ook weer ruim 160 euro. Ik heb al veel geld aan de NAS uitgegeven en moet het even wat rustiger aan doen
Controller: Intel 8 ports RAID6 Controller SRCSATAWB + BBWC Module
Hardisks: 8x Samsung F4 2TB Hardisks Totaal 16TB in RAID6 Netto 12TB
Voeding: Dual 350wat Redundancy Voeding met nog 2 spare voedingen liggen (aan deze 2 sets ben ik goedkoop aangekomen
Boot: Een 3,5inch in te bouwen hotswap bay voor 2 2,5inch Hardisks met RAID in gebouwd in de bay zelf. Daar heb ik 2 2,5inch 40GB HD in gedaan in RAID1
Netwerk: Intel PRO/1000PT PCIe netwerk kaartje
Netwerk Switch: Data word over een HP Procurve 1800-24G verstuurd naar mij PCs in huis
UPS: Van MGE
OS: Windows 2003 Server
Dit alles staat in een 1.75meter hogen 19Inch kast
Deze server word gebruik voor Webserver, Video, Muziek, Fotos, Installatie bestanden, TV Server (4therecord), Mailserver, Download en natuurlijk puur als opslag.
Ben op dit moment aan het wachten tot de 3TB schijven normalen prijzen gaan bereiken zodat ik een upgrade kan doen naar 8x3TB. Ook wil ik een keer dit geheel in een betere kast gaan doen, maar ik kan nog niet de ideale kast vinden voor een leuke prijs. Alles zit nu in een tower en dat is niet echt handig.
Anoniem: 187449
welk merk/leverancier ... zoek ook zoiets[b]..
Boot: Een 3,5inch in te bouwen hotswap bay voor 2 2,5inch Hardisks met RAID in gebouwd in de bay zelf.
8x 2TB geeft toch 16TB, met raid 6 dan 12TB netto storage...of mis ik nu iets?
Anoniem: 16225
Pics or it didn't happen..AndreStarTrek schreef op dinsdag 31 mei 2011 @ 09:54:
Mainboard: Supermicro X7SLA-H met een Atom 330 Dualcore 1.6 CPU met 2 GB Ram (helaas kan er niet meer geheugen in door de Intel 945GC Chipset)
Controller: Intel 8 ports RAID6 Controller SRCSATAWB + BBWC Module
....
[ Voor 62% gewijzigd door Anoniem: 16225 op 31-05-2011 12:02 ]
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Specs: xeon e3 1240 op een asus p8b-e/4l bordje. 16 GB kingston ram, areca 1880ix-24 en cx4 netwerkkaart.
Totaal aantal hd's: 24 ( 8 x 1 TB en 16 x 2 TB). Goed voor 32 TB opslag. Alles zit in een norco 4224 kast.
Mobo/cpu was een ramp om aan te geraken! Cx4 kabel zelf is nog onderweg.
Vanavond ga ik verder met debian te installeren en kan ik arrays beginnen aanmaken.
Foto's en meer info volgt later. (@ werk )
Anoniem: 187449
Specs: xeon e3 1240 op een asus p8b-e/4l bordje. 16 GB kingston ram, areca 1880ix-24 en cx4 netwerkkaart.
Totaal aantal hd's: 24 ( 8 x 1 TB en 16 x 2 TB). Goed voor 32 TB opslag. Alles zit in een norco 4224 kast.
Dat wordt een leuk knutselwerkje, ben erg benieuwd naar de fotos als hij af is !KDVken schreef op dinsdag 31 mei 2011 @ 19:34:
Mijn laatste pakje is vandaag ook toe gekomen. Nu kan ik eindelijk beginnen met bouwen.
Specs: xeon e3 1240 op een asus p8b-e/4l bordje. 16 GB kingston ram, areca 1880ix-24 en cx4 netwerkkaart.
Totaal aantal hd's: 24 ( 8 x 1 TB en 16 x 2 TB). Goed voor 32 TB opslag. Alles zit in een norco 4224 kast.
Mobo/cpu was een ramp om aan te geraken! Cx4 kabel zelf is nog onderweg.
Vanavond ga ik verder met debian te installeren en kan ik arrays beginnen aanmaken.
Foto's en meer info volgt later. (@ werk )
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
They call her... c*ck juggeling Thunderc*nt!

De 2de levering (Azerty):

De os schijven (Raid 1) + 8 extra opslag schijven:
Areca controller met batterij, 750 W voeding, supermicro cx4 kaart:
Met die cx4 kaart heb ik trouwens nog een probleem.... als je goed kijkt naar de pcb en het metalen bracket dan zie je dat die connectoren naar de verkeerde kant uitsteken. Naast de (afbeelding) van de areca kaart zie je goed dat deze gespiegeld is

Heb het al eens snel op een moederbord gestoken en het werkt perfect. Enkel in de kast inbouwen gaat niet volledig gaan. Zal wel nog zien wat ik daaraan doe
De kast met extra sas kabels en 3*120mm fan plaat: (had ik hier al een tijdje klaarliggen)
Eerste stap: OS hdd's plaatsen. Snel even enkele gaatjes bijmaken en heb ze dan maar langs de zijkant gezet. (uiteraard langs binnen, dit was enkel een testje
Next: Fans op de plaats schroeven. Groen pcb is van de originele plaat. Hangt vast met lijm.
Areca kaart uitpakken! Blijkbaar zitten er bij die kaart nog eens 6 sas kabels. Ik heb er nu dus 6 te veel
Nieuwe harde schijven plaatsen:
Even een testje met een ander moederbord en cpu dat hier nog ergens lag. (nieuw bord en cpu is deze middag pas toegekomen voor ik moest gaan werken)
Veel plaats is er toch ook niet over als je alle kabels netjes wilt wegwerken.
Nu ga ik nog het nieuwe bord, cpu en cx4 kaart gaan plaatsen en daarna setup beginnen
Volgende foto's zijn voor morgen
Anoniem: 187449
vraagje over dat vervangende fan schot.. ik zie een printje waar de 3 120 mm fans op aangesloten worden.. daar vandaan gaat dan 1 kabeltje naar mobo en wordt de fanspeed dan geregeld ? of draaien ze continue ..
Fans zouden eventueel op het mobo kunnen, maar dan moeten alle kabeltjes appart lopen.
Ik dacht dat ik max 8.8W per connector mag aansluiten op mijn mobo. 3*120mm fans zouden daar wel eens kunnen over zitten.
Bak zit volledig in elkaar en ben bezig met debian te installeren. (ff opnieuw moeten beginnen. Ben een partitie vergeten
CX4 kaart is opgelost door een stukje metaal weg te knippen dat normaal tussen 2 kaarten zit. Het gebruikt nu eigenlijk de plaats van 2 slots.
Ik gebruik de Sunnytek ST-2221 SUSRI, er is alleen moelijk aan te komen, het model zie je regelmatig (a.o. chieftech) maar dan is het zonder raid. Ik had ook deze nog gevonden van Raidon de types SR2760-2S-S2B , SR2760-2S-S2 en iR2420-2S-S2BAnoniem: 187449 schreef op dinsdag 31 mei 2011 @ 10:27:
[...]
welk merk/leverancier ... zoek ook zoiets
Je heb helemaal gelijk foutje van mij, heb het aangepast.webbier schreef op dinsdag 31 mei 2011 @ 11:34:
@ AndreStarTrek
8x 2TB geeft toch 16TB, met raid 6 dan 12TB netto storage...of mis ik nu iets?
Ik zal morgen eens kijken om fotos te maken.Anoniem: 16225 schreef op dinsdag 31 mei 2011 @ 12:00:
[...]
Pics or it didn't happen.., vooral die 19" serverkast wil ik zien.
Het probleem met de cx4-kaart. Het onderste kaartje is een antieke vga-kaart. Je ziet wel duidelijk dat de cx4 kaart anders is.
Ik heb dus een tussenlatje weggeknipt van de kast en een extra gaatje gemaakt in de bracket van die cx4 kaart.
Het neemt nu 2 plaatsen in beslag, maar dat is niet zo erg.
PC met mobo, cpu en kaarten in:
Voorlopig zitten er nog maar 15 schijven in (2TB). De andere schijven zitten nog in de oude nas aangezien ik die nodig heb om de data over te zetten. De data die op de 7 schijven stond die al verplaatst zijn, staat nu overal verspreid om te kunnen wisselen van os

Gelukkig heb ik hier nog genoeg pc's en externe HD's met nog een beetje plaats! De hot-spare van de oude nas doet ook even dienst als opslag schijf. Elk restje is bezet
Anoniem: 16225
Heel gaaf, je hebt dus een 10Gb switch begrijp ik?KDVken schreef op dinsdag 31 mei 2011 @ 22:26:
De eerste levering (DELL): CX4-module voor mijn powerconnect 6248 switch
[afbeelding]
.....
Wat voor een bekabeling gebruik je daarvoor koper of fiber en loopt die 10Gb alleen van je server naar de switch of heb je ook 10Gb clients, zoja hoeveel 10Gb clients heb je?
[ Voor 3% gewijzigd door Anoniem: 16225 op 01-06-2011 07:59 ]
Anoniem: 15758
Anoniem: 16225
Ok dus met mijn CAT6 bekabeling zou ik in de toekomst gewoon kunnen overstappen op 10Gbit? Ik begrijp alleen die netwerkaansluiting niet op die 10Gbit kaart, dat ziet er niet uit als een normale patch aansluiting, terwijl die aansluitingen op die Dell switch (zie link hieronder) er wel uitzien als normale patch aansluitingen.Anoniem: 15758 schreef op woensdag 01 juni 2011 @ 08:19:
CX4 = koper, maar niet 10GBaseT wat de normale koper twisted pair is met Cat6/6a/7 bekabeling. Zelf hoop ik binnenkort op 10GBaseT over te gaan, maar dat schiet nog niet erg op helaas.
edit ik lees net dat het een "gewone" Gb switch is met optioneel 10Gb modules voor de upling, daar verbindt hij dus z'n netwerkkaar op de een of andere manier mee.
http://www.dell.com/us/en...d=pwcnt_6248&cs=555&s=biz
trouwens leuk switchje van +/- 2500 euro

[ Voor 22% gewijzigd door Anoniem: 16225 op 01-06-2011 10:15 ]
De aansluiting die ik (ga) gebruik(en) is wel koper, maar niet hetzelfde type als een cat6 kabel.
Het is ook 10Gbit, maar op een ander type kabel.
Ik kan op mijn switch ook 10Gbit cat6 kabels gebruiken als ik een ander module insteek achteraan.
De poorten die jij ziet langs de voorkant zijn gewoon 1Gbit poorten.
Voorlopig zit elke gewone pc hier op 2 * 1Gbit. kan dit later nog altijd veranderen.
Anoniem: 16225
Maar waar ga je die 10Gbit aansluiting van je server op aansluiten dan? wordt dat een directe verbinding met een andere PC?, want je kunt hem niet aansluiten op je switch.KDVken schreef op woensdag 01 juni 2011 @ 10:15:
Met cat6 kabel kan dat.
De aansluiting die ik (ga) gebruik(en) is wel koper, maar niet hetzelfde type als een cat6 kabel.
Het is ook 10Gbit, maar op een ander type kabel.
Ik kan op mijn switch ook 10Gbit cat6 kabels gebruiken als ik een ander module insteek achteraan.
De poorten die jij ziet langs de voorkant zijn gewoon 1Gbit poorten.
Voorlopig zit elke gewone pc hier op 2 * 1Gbit. kan dit later nog altijd veranderen.
Ik haal net van wikipedia:Anoniem: 16225 schreef op woensdag 01 juni 2011 @ 10:23:
[...]
Maar waar ga je die 10Gbit aansluiting van je server op aansluiten dan? wordt dat een directe verbinding met een andere PC?, want je kunt hem niet aansluiten op je switch.
CX4 is vergelijkbaar met Infiniband. De eerste foto van zijn post is een module die in z'n switch past (uitbreidingskaart) om de switch 2 CX4 poorten te geven. En in het pakketje van azerty zat een CX4 kaart voor in z'n server. Kabeltje er tussen en z'n server hangt met 10Gbit aan de switch. De stekkers lijken inderdaad niet op elkaar maar er zijn 2 verschillende stekkers geloof ik.10GBASE-CX4 — was the first 10G copper standard published by 802.3 (as 802.3ak-2004). It uses the XAUI 4-lane PCS (Clause 48) and copper cabling similar to that used by InfiniBand technology. It is specified to work up to a distance of 15 m (49 ft). Each lane carries 3.125 G baud of signaling bandwidth.
10GBASE-CX4 offers the advantages of low power, low cost and low latency, but has a bigger form factor than the newer single lane SFP+ standard and a much shorter reach than fibre or 10GBASE-T.
[ Voor 3% gewijzigd door Keesiej op 01-06-2011 10:40 ]
Anoniem: 16225
Ok nou snap ik het, ik ben namelijk zelf ook geinteresseerd hoe het verder gaat met verbindingen > 1 Gbit, dit is een mooi voorbeeldje hoe het verder zou kunnen gaan. Het ziet ernaar uit dat het vergelijkbaar is met de overgang van 100mbit naar 1Gbit, ook toen verschenen er switches met uitbreidingsmodules of een gelimiteerd aantal 1Gbit poorten en voor de reset 100mbit poorten. Het ziet er in iedergeval naar uit dat mijn cat6 bekabeling een goede investering (niet zozeer qua geld als qua werk, alles zit zo'n beetje in gefreesde sleuven in de muren van mijn huis) is geweest en dat ik dat gewoon kan blijven gebruiken bij een toekomstige 10Gbit switch.Keesiej schreef op woensdag 01 juni 2011 @ 10:39:
[...]
Ik haal net van wikipedia:
[...]
CX4 is vergelijkbaar met Infiniband. De eerste foto van zijn post is een module die in z'n switch past (uitbreidingskaart) om de switch 2 CX4 poorten te geven. En in het pakketje van azerty zat een CX4 kaart voor in z'n server. Kabeltje er tussen en z'n server hangt met 10Gbit aan de switch. De stekkers lijken inderdaad niet op elkaar maar er zijn 2 verschillende stekkers geloof ik.
Pfffff, wat een BEEST! Ziet er erg goed uit.KDVken schreef op woensdag 01 juni 2011 @ 01:25:
Levering 3 en 4 (mobo en cpu):
Bij mij is de kogel door de kerk, 4x Coolermaster 4 in 3 device in een Antec Twelve Hundred.. geeft zonder modden al ruimte voor 16 schijven. Met een beetje passen en meten moeten er makkelijk 20 in kunnen.
Waarom ben je eigenlijk voor hardware raid gegaan ?
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Dit is een voorbeeld van een 1U server waar 2-3 sloten in gestopt kunnen worden.
http://www.supermicro.nl/...SYS-1026T-URF4_.cfm?UIO=Y
Via deze link meer over UIO oplossingen met wat animated gifs, dan zie je dat het bovenste slot een normale kaart aan kan en die daaronder een UIO kaart.
http://www.supermicro.nl/products/nfo/UIO.cfm#Adapters
Heb toen een areca controller gekocht en zou nu niet meer zonder willen.
't is sneller en stabieler dan de brol dat ik ervoor had.
Het is zeker een hele mooie kaart, maar niet goedkoopKDVken schreef op woensdag 01 juni 2011 @ 21:03:
Tjah. Heb vroeger nog met meerdere crappy software raid kaartjes gewerkt en dat was toch niet zo handig. Prestatie was ook niet echt schitterend.
Heb toen een areca controller gekocht en zou nu niet meer zonder willen.
't is sneller en stabieler dan de brol dat ik ervoor had.
Ik ben tegenwoordig erg fan van HBA gebruiken van SAS kaarten en de raid laat ik doen door ZFS.
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Anoniem: 15758
Cat6 bekabeling is goed voor 1000BaseT en 10GBaseT, dat laatste is dus 10 gigabit over normaal koper en zal straks het stokje overnemen van de populaire 'gigabit' 1000BaseT standaard. Echter, cat6 is maar tot beperkte lengte geschikt voor 10 gigabit, net zoals Cat5e beperkt geschikt is voor 1000BaseT. Voor normaal 10GBaseT ethernet tot 100 meter zul je Cat6a bekabeling moeten gebruiken.Anoniem: 16225 schreef op woensdag 01 juni 2011 @ 10:06:
Ok dus met mijn CAT6 bekabeling zou ik in de toekomst gewoon kunnen overstappen op 10Gbit?
Meer hierover op wikipedia: Wikipedia: Category 6 cable
Het lijkt mij, vooral als het gaat om grote arrays, een groot risico dat een of meerdere schijven zonder TLER time-outs krijgen.
Ik zag bijvoorbeeld DJJ met 28TB aan WD Green schijven & Aval0ne met 22TB aan Samsung Green schijven, allen achter Areca controllers. Van wat ik allemaal op internet heb gelezen hierover zou ik niet kunnen slapen als ik jullie was
Kunnen jullie je gedachtes eens uiteen zetten m.b.t hoe jullie keuze voor een bepaald merk/type (non RE of ES) drive tot stand is gekomen?
Ik snap dat dit topic primair bedoeld is voor het showen van mooie setups, maar ik hoop dat jullie begrijpen dat dit soms toch vragen oproept, zoals deze
TLER informeert een RAID controller dat de drive goed werkt, maar dat hij wat sectoren niet kan lezen en dat de controller via RAID Parity die beter zelf even kan berekenen, zodat de disk zelf ondertussen via bad sector remapping de boel kan herstellen.
Dit voorkomt dat de disk uit de array wordt gegooid, met alle performance problemen van dien.
Wikipedia: Time-Limited Error Recovery
Thuis wil je dit niet. Een disk die meer dan 8 seconden nodig heeft om wat bad sectors te remappen, prima. Als hij een minuut bezig is maar daarna weer prima werkt, klaar.
Linux MDADM wacht gewoon totdat de drive klaar is, of trapt hem er uit als het ding niet meer werkt. Voor thuis is dat goed genoeg.
Dan resteert het issue van een hw controller die soms 'zomaar' disks uit de array kicked. Dat heeft met compatibiliteit te maken tussen controller en disk. Soms gaat het goed en soms niet. Naar mijn weten heb je er of direct last van, of helemaal niet.
Als je er last van hebt dan ook altijd, dus als je de disks als JBODS configureert gaat het ook mis (random drops). De controller kan dan gewoon niet met de disk om gaan.
[ Voor 22% gewijzigd door Q op 02-06-2011 14:48 ]
- analog_
- crashmatrix
- AndreStarTrek
Foto's toevoegen mochten ze ook aan het lijstje toegevoegd willen worden.
@KDVken
Zou je als het systeem helemaal af is een soort overzichtspost willen maken met alle info en final pics? Dan link ik daar naar in de start post tabel.
Hele mooie build.
Hoe ga je die 10 Gigabit benutten?
[ Voor 50% gewijzigd door Q op 02-06-2011 15:24 ]
Je switch alleen al is duurder dan menigeen hier aan zijn 10+TB bak wil en gaat uitgeven. Waar ga je dit systeem (thuis) voor gebruiken???KDVken schreef op dinsdag 31 mei 2011 @ 22:26:
De eerste levering (DELL): CX4-module voor mijn powerconnect 6248 switch
Anoniem: 14124
Waar zie jij staan dat ie sas schijven heeft ?Anoniem: 14124 schreef op donderdag 02 juni 2011 @ 19:57:
8 x sas schijf zal zo totaal een 2k zijn
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Minder bakjes in heel mijn huis en het was ineens volledig managed. Een 24-poort switch zou al nipt geweest zijn, dus maar direct een groot model genomen
cx4 module voor de switch valt héél goed mee van prijs (+-150 euro)! De insteekkaart voor de server daarentegen is een héél stukje duurder.
1Gbit was gewoonweg te weinig voor wat ik hier door de server(s) probeer te sturen. Netwerk zit al volzet als 1 pc iets aan het doen is, 2 of meer pc's was een hele ramp
Eerst heb ik lan teaming/lag getest, maar de broadcom nic's van mijn oude server vinden dat helemaal niet zo prettig, dus maar direct voor 10Gbit gekozen. In theorie zou ik dat ook nog vrij goed moeten kunnen belasten met alle clients dat hier staan. We zien wel wat het geeft
De 8 extra schijven zijn samsung F4's. Niet echt speciaal dus.
Gisteren en vandaag heb ik de hele tijd bezig geweest met verschillende linux distro's te testen, maar het wil niet echt lukken.
Begonnen met debian. Distro is erg verouderd en moest eerst nog een stuk van de unstable release installeren voordat alles herkent kon worden. Unstable is echt wel unstable want de server is daarna 2x vastgelopen in minder dan 24h. => no-way dat ik dat ga gebruiken! Op naar ubuntu!
Ubuntu install was een probleem met de Grub. Wou eerst maar niet lukken en heb ik toch enige tijd mee bezig geweest. (11.04 grub bug
Op naar de volgende! Heb nog een fedora en een andere ubuntu getest maar telkens problemen! De hardware is blijkbaar niet echt supported. (kernel 3.0 zou beter zijn voor de xeon E3 serie?)
Na lang zoeken en tweaken heb ik nu terug een ubuntu 11.04 draaien die voorlopig nog steeds werkt!
Momenteel ben ik een paar benches aan het uitvoeren en als alles blijft werken gaan we het houden. Anders zal het terug de goede oude windows worden!
heel herkenbaar.KDVken schreef op donderdag 02 juni 2011 @ 23:14:
1 Goede switch was voor mij handiger dan de 5 à 10 verschillende kleine switches dat ik hiervoor had.
Minder bakjes in heel mijn huis en het was ineens volledig managed. Een 24-poort switch zou al nipt geweest zijn, dus maar direct een groot model genomen
cx4 module voor de switch valt héél goed mee van prijs (+-150 euro)! De insteekkaart voor de server daarentegen is een héél stukje duurder.
1Gbit was gewoonweg te weinig voor wat ik hier door de server(s) probeer te sturen. Netwerk zit al volzet als 1 pc iets aan het doen is, 2 of meer pc's was een hele ramp
Eerst heb ik lan teaming/lag getest, maar de broadcom nic's van mijn oude server vinden dat helemaal niet zo prettig, dus maar direct voor 10Gbit gekozen. In theorie zou ik dat ook nog vrij goed moeten kunnen belasten met alle clients dat hier staan. We zien wel wat het geeft't zal een leuke test zijn.
gebruik zelf de SGE2010P van Cisco\Linksys, is ook een 48 poorts gigabit switch met een 96gbit backbone, dus dan kun je wat tempo maken. had eerst allemaal losse switches en gerommel, nu simpelweg die 48 poorts als backbone, en dan mijn storage bak erop met 6 X een gigabit aansluiting, waarvan 4X via een intel kaart specifiek voor Hyper-V...
heb gekeken naar de 10 gbit kaart, kan wel fiber aansluitingen kwijt in mijn switch, maar dit was voor mij voor mijn toepassing uiteindelijk het beste. ik snap helemaal waar je heengaat met je switch, het is gewoon zoveel lekkerder om een goede switch te hebben draaien en dan in een keer klaar te zijn met VLAN meuk en snelheid en alles.
en qua prijs, ja ik vind t raar dat we wel zoveel geld uitgeven aan raid adapters, schijven, cpus, en behuizingen, maar dan te pinnig zijn om een goede switch te kopen... nu zijn de switches die jij en ik hebben gekochten waarschijnlijk wat heftig, maar als je een 2 a 3000 euro uitgeeft aan een storage monster, en dan dat probeert bereikbaar temaken op een 40 euro switch, dan moet je ook niet zeuren of slechte performance..
heel veel van die off-the-shelf gigabit switches hebben dan 12 of 16 gigabit poorten, maar de backbone is dan 2 of 4 gbps.. dan heb je veel aan je gigabit.
60 TB can not be enough

De 19" rack 1,75m, had mij eerder vergist in de hoogte.

Binnen kant met een mooi houten plaat met een lijmklem anders valt me monitor er van achteren af

HP ProCurve met patch paneel met een hoop verdwaalde kabels.

Nogmaals de HP ProCurve 1800-24G.

De Voip modem.

Wlan boven lan over power onder.

Aan gepaste ups met grotere accu’s, wat "niet werkt".

VDSL2 Modem van Tele2.

De Server.

RAID Swap bay dat 2x2,5 40GB HDs in RAID1 heeft draaien.

Achterkant server met de Redundancy Voeding.

Binnenkant van de server met een bos spaghetti.

De eerste set 4x2TB disks

Nogmaals spaghetti met de 2de set 4x2TB disks (ik moeste ergens kwijt)

Het mainboard van Supermicro X7SLA-H met een Atom 330 Dualcore 1.6 CPU met 2 GB Ram, met extra ven en een vervangen door een betere ven en rechts onder een smartkaart lezer, de kenners onder ons weet waar die voor dient.

Bovenste kaart is de Intel 8 ports RAID6 Controller SRCSATAWB met BBWC Module. Daaronder de Intel PRO/1000PT PCIe netwerk kaartje en nogmaals rechts onderin de smartkaart lezer met een verdacht kaartje
Zoals ik al eerder had aangegeven moet ik een andere kast maar ik kan nog niet echt een kast vinden die me bevalt en niet een fortuin kost. Ik zou graag een 19" kast hebben met 8 hotswap bays waar ik ook nog een dvd en de 2,5" hd bay in kan doen. Ik zit ook al een tijdje te denken om zelf wat te maken, maar heb de laatste tijd niet echt veel tijd.
Maar goed het gaat er om dat het werkt en stabiel is en dat is het.
Anoniem: 187449
pinpasbrederodekater schreef op vrijdag 03 juni 2011 @ 11:52:
En dan nu de brandende vraag; wat is dat voor een verdacht kaartje?
Er staat Digitenne opbrederodekater schreef op vrijdag 03 juni 2011 @ 11:52:
En dan nu de brandende vraag; wat is dat voor een verdacht kaartje?
bl44t
Hmm ik zou het niet weten
Het is zeker een killswitch als ik hem eruit trek dan kan ik geen tv kijken en laat dat nou ook data zijnAnoniem: 14124 schreef op vrijdag 03 juni 2011 @ 12:01:
Killswitch, bij ongewenst bezoek kaart eruit, geen toegang tot data?
Anoniem: 16225
Mooie serverkast, patchpaneel en procurve opzet ziet er netjes uit, inderdaad je server zelf zou ik een mooie 19" case voor nemen zodat het geheel wat overzichtelijker wordt en een beetje profi er uit ziet, maar ja je kan je geld natuurlijk maar 1 keer uitgeven. Ik zou die toekomstige case ook aan een rail ophangen, wel zo handig als je weer eens HD's moet verwisselen o.i.d.
[ Voor 17% gewijzigd door Anoniem: 16225 op 03-06-2011 18:28 ]
Dat zou zeker prettig zijn, dit is gewoon knudde maar ik ga het in deze kast niet meer doen. Ik moet vroeg of laat een andere kast.Jormungandr schreef op vrijdag 03 juni 2011 @ 16:30:
Leuke setup, alleen is het zo ontzettend rommelig. Beetje cable management zou wel leuk zijn?
Ja andere kast wil ik al een paar jaar maar ja upgrade gaat voor kastAnoniem: 16225 schreef op vrijdag 03 juni 2011 @ 18:08:
@andrestartrek,
Mooie serverkast, patchpaneel en procurve opzet ziet er netjes uit, inderdaad je server zelf zou ik een mooie 19" case voor nemen zodat het geheel wat overzichtelijker wordt en een beetje profi er uit ziet, maar ja je kan je geld natuurlijk maar 1 keer uitgeven. Ik zou die toekomstige case ook aan een rail ophangen, wel zo handig als je weer eens HD's moet verwisselen o.i.d.
Ik heb het kabel management zo goed mogelijk gedaan, maar ik blijf dat moeilijk vinden hoor, weet niet hoe sommigen van jullie dat doen (!).
Anway ik ben blij met de nieuwe kast.
Heb trouwens de bovenste jack pluggen uit het front paneel weg gehaald en daar 2 leds in gemaakt, voor iedere array een led.
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Maar ziet er nice uit!
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Enneh, je kabelmanagement lijkt me ook dikke prima.
Advocatus ineptias | Free Speech Online
Anoniem: 16225
zou jij de specs van jouw server willen dumpen hier op GoT.
ben wel geintreseerd in de kast cq andere onderdelen die jij hebt gebruikt.
zijn kast is zo te zien een antec 900 of 1200 en daarin heeft hij coolermaster 4 in 3 modules gebruikt.robertobadjo schreef op maandag 06 juni 2011 @ 12:16:
@tbusquet
zou jij de specs van jouw server willen dumpen hier op GoT.
ben wel geintreseerd in de kast cq andere onderdelen die jij hebt gebruikt.
thx kom nu toch een stuk verder. mooi stukje techniek hierzo met flinke opslagmogelijkheden. erg leuk om te lezen/kijkenramonlambal schreef op maandag 06 juni 2011 @ 12:23:
[...]
zijn kast is zo te zien een antec 900 of 1200 en daarin heeft hij coolermaster 4 in 3 modules gebruikt.
Anoniem: 187449
tip : eind v/d week in vraag en aanbod - kast met 3 van die modulesrobertobadjo schreef op maandag 06 juni 2011 @ 12:35:
[...]
thx kom nu toch een stuk verder. mooi stukje techniek hierzo met flinke opslagmogelijkheden. erg leuk om te lezen/kijken
Anoniem: 191050
1e foto: CPU, mobo, RAID controllers, kabelmeuk

2e: Onderste 12 disks

3e: Bovenste 8 disks

4e: Overzicht van de zijkant

5e: De voorkant

De specs van dit beestje zijn:
AMD X2 4850e (45W TDP)
Asus M3A32-MVP Deluxe
2x2 GB Kingston ECC non-reg PC6400
Areca ARC-1880ix-24 met 4GB cache
20*HD204UI
Highpoint RocketRAID 3560
5*HD154UI
Intel Pro 1000 PT Quad port server adapter
Spul draait in een single RAID6 set op de Areca, netto komt dus op 36 TB. De 5*154UI zijn een RAID5 array waar de muziek op staat en het uitpakken gebeurt. Deze liggen echter naast de kast omdat deze vol was en tellen dus niet mee voor de TS.
Bekabeling heb ik weinig aan gedaan omdat er nog een Chieftec met 24 hotswap bays naast ligt, maar deze maakt te veel lawaai voor in mijn slaapkamer. Hopelijk beginnen ze de eerste week van juli te heien voor mijn eigen huis, dan komt er een 19" rack te staan in een aparte ruimte.
Het is een Antec Twelve Hundred. Specs staan in het lijstje op de eerste paginarobertobadjo schreef op maandag 06 juni 2011 @ 12:16:
@tbusquet
zou jij de specs van jouw server willen dumpen hier op GoT.
ben wel geintreseerd in de kast cq andere onderdelen die jij hebt gebruikt.
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Pff, hoop dat je het snel in die 19" kwijt gaat kunnen, want het is echt doodzonde zo, kost toch een lieve duit al dat spul bij elkaar en het zit er nu in geschopt alsof het voor een paar kwartjes van de rommelmarkt komtAnoniem: 191050 schreef op maandag 06 juni 2011 @ 19:18:
Bij deze mijn setup zoals beloofd:
4e: Overzicht van de zijkant
[afbeelding]
Hopelijk beginnen ze de eerste week van juli te heien voor mijn eigen huis, dan komt er een 19" rack te staan in een aparte ruimte.
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
My God. 36 TB respect, daar niet van maar dit is wel een voorbeeld van hoe je het echt niet wilt hebben zeg. Damn wat een rommeltje man. Heb je echt geen plek voor die 24 bay kast ergens zodat je geen last van het geluid hebt? Dit is toch gewoon zonde? Met lagen stof?Anoniem: 191050 schreef op maandag 06 juni 2011 @ 19:18:
Bij deze mijn setup zoals beloofd:
Anoniem: 16225
Eens moet je toch eens onderkennen dat de boel moet worden opgeruimd en dat het beter is een case te kopen dan een andere upgrade, dit is zo'n moment denk ik..Q schreef op dinsdag 07 juni 2011 @ 00:43:
[...]
My God. 36 TB respect, daar niet van maar dit is wel een voorbeeld van hoe je het echt niet wilt hebben zeg. Damn wat een rommeltje man. Heb je echt geen plek voor die 24 bay kast ergens zodat je geen last van het geluid hebt? Dit is toch gewoon zonde? Met lagen stof?
Anoniem: 191050
Ik kan ook niet wachten tot ze klaar zijn met mijn huis, maar dat heeft met meer redenen te maken dan alleen het 19" racktbusquet schreef op maandag 06 juni 2011 @ 20:49:
[...]
Pff, hoop dat je het snel in die 19" kwijt gaat kunnen, want het is echt doodzonde zo, kost toch een lieve duit al dat spul bij elkaar en het zit er nu in geschopt alsof het voor een paar kwartjes van de rommelmarkt komt
Nee dat gaat helaas echt niet. Als ik hem op zolder aanzet horen mn ouders hem een verdieping lager in de slaapkamer, dat is dus geen optie.Q schreef op dinsdag 07 juni 2011 @ 00:43:
[...]
My God. 36 TB respect, daar niet van maar dit is wel een voorbeeld van hoe je het echt niet wilt hebben zeg. Damn wat een rommeltje man. Heb je echt geen plek voor die 24 bay kast ergens zodat je geen last van het geluid hebt? Dit is toch gewoon zonde? Met lagen stof?
Dat ben ik zeker met je eens, maar wat voor kast moet je kopen? Ik heb al een Chieftec met 24 hot swap bays liggen, maar als die Norco de helft minder geluid maakt dan die is het nog teveel lawaai om kwijt te kunnen zolang ik nog bij m'n ouders woon. Volgende upgrade is dan ook een eigen huis, alleen dat bouwen duurt zo lang.Anoniem: 16225 schreef op dinsdag 07 juni 2011 @ 07:21:
[...]
Eens moet je toch eens onderkennen dat de boel moet worden opgeruimd en dat het beter is een case te kopen dan een andere upgrade, dit is zo'n moment denk ik..
Mijn build schiet maar niet op. Heb hier telkens problemen. Random freezes zowel in linux als tijdens windows install
Pc kan het nooit langer als 5h uithouden. Heb gisteren avond gelezen dat het misschien de onboard grafishe kaart is die oververhit. Zal dat deze namiddag wel eens nakijken en hopelijk oplossen.
De eerate array is ondertussen wel al gebuild. 26 Tb opslag. Gestart op vrijdag rond 13h, klaar op zondag rond 22h. Zonder ook maar 1 keer vast te lopen! Ga je in een os dan stopt het soms al nu een paar min.
Heb al een eerste test op de array gedaan en het was een lachwekkend resultaat! 180MB/s leessnelheid...
Lan werkt ook niet super. Blijft zitten op een stabiele 10MB/s. Zal vermoedelijk op 100Mb blijven hangen.
Beide tests waren op ubuntu met kernel 2.6.38. Er is duidelijk iets niet juist, maar wil eerst die vastlopers oplossen voor ik voort zoek.
Even niets...
thxtbusquet schreef op maandag 06 juni 2011 @ 20:27:
[...]
Het is een Antec Twelve Hundred. Specs staan in het lijstje op de eerste pagina
moet zeggen mooi spul hier allemaal hoor.
nou kom ik hier alleen maar voornamelijk thuis gebruik tegen maar zoiets zou je toch ook makkelijk in een productie omgeving kunnen inzetten.
als ik hier sommige prestaties zie dan denk ik bij mezelf daar kan menig instapmodelletje SAN/NAS nog niet echt aan tippen. plus dat de kosten ook vele malen lager liggen.
enige nadeel is dan de garantie/service...
Zo'n homebrew systemen zijn natuurlijk prachtig voor de gemiddelde zelfstandige of kleine firma met een aantal werkgevers.
voor het MKB of eventueel onderwijs (zit ik in als sysbhr) zou zoiets nog aardig goed kunnen uitpakken.Jormungandr schreef op dinsdag 07 juni 2011 @ 14:21:
Meestal zitten aan SAN systemen dan ook een verbeterde compatibiliteit en service aan vast zoals je zelf zegt. Niets zo leuk als naar een leverancier kunnen grijpen wanneer de SAN box er opeens mee stopt.
Zo'n homebrew systemen zijn natuurlijk prachtig voor de gemiddelde zelfstandige of kleine firma met een aantal werkgevers.
neem een 20bay NAS systeem draai raid 5/6 + 2 hotspare en je hebt voorlopig aardig wat ruimte om je zooi neer te zetten. en dat voor een fractie van wat je betaald voor een HP lefthand of de duurde dell EQL/ps serie.
maar het blijft af en toe ook leuk om een leverancier te kunnen grijpen
Ik ben het hier wel mee eens, onderwijs heeft geen grote budgetten om dikke SAN oplossingen te kopen en een eenvoudig MKB bedrijfje kan dat ook niet echt ophoesten.robertobadjo schreef op dinsdag 07 juni 2011 @ 14:33:
[...]
voor het MKB of eventueel onderwijs (zit ik in als sysbhr) zou zoiets nog aardig goed kunnen uitpakken.
neem een 20bay NAS systeem draai raid 5/6 + 2 hotspare en je hebt voorlopig aardig wat ruimte om je zooi neer te zetten. en dat voor een fractie van wat je betaald voor een HP lefthand of de duurde dell EQL/ps serie.
maar het blijft af en toe ook leuk om een leverancier te kunnen grijpen
Daarvoor zijn sommige self build systems wel toereikend, enige nadeel is dat je sterk afhankelijk bent van hardware redundancy. Wel stukje voordeliger dan een goede SAN oplossing inclusief service contract
Iemand nog goede hints voor een goedkope 8 (of nog liever 12 poorts) controller die wel 3TB schijven aan kan ? Raid is niet nodig, pci-e, liefst met SFF-8087sas aansluitingen ipv losse sata kabels
moet w2k3 en 2k8 server ondersteunen !
Mijn eerste keuze, de SuperMicro AOC-USAS2-L8i lijkt helaas nergens meer leverbaar te zijn.
Zit nu te denken aan de Supermicro AOC-SASLP-MV8 Alleen daar kom ik veel problemen mee tegen, al lijkt dat voornamelijk met linux te zijn.
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Ik vraag me al een tijdje af of deze HP HBA een goede optie zou zijn voor in een NAS.
Het lijkt om de HP sc44ge te gaan welke ook een LSI chip heeft maar ik kan er zo snel niet zoveel over vinden.
Deze controller kan misschien het gat van de AOC-USAS2-L8i opvullen.
Daarom heb ik hem ook nog niet besteld. Maar ik weet dat ik toch niet op linux overga, en bijkomend voordel is dat die MV8 al vrij goedkoop is om te beginnendutch_warrior schreef op dinsdag 07 juni 2011 @ 20:51:
Ik zou die AOC-SASLP-MV8 als laatste optie houden vanwege de slechte support in Linux, mocht je ooit overgaan van Windows naar een Unix based OS dan zit je met die controller welke dan ook iets minder populair zal zijn op de 2e hands markt.
Ik vraag me al een tijdje af of deze HP HBA een goede optie zou zijn voor in een NAS.
Het lijkt om de HP sc44ge te gaan welke ook een LSI chip heeft maar ik kan er zo snel niet zoveel over vinden.
Deze controller kan misschien het gat van de AOC-USAS2-L8i opvullen.
Waar baseer je op dat doe een LSI chip heeft ?
Het is een ontwerp uit 2007 wat mij doet twijfelen dat dit wel 3tb disks zou ondersteunen (de hp site rept er iig met geen woord over)
Ook heeft ie maar 4 interne poorten, de andere gaan via een externe poort die je weer naar binnen zou moeten lussen (als dat al gaat, kan ook een bus zijn, niet uitgezocht)
Daarnaast is mijn ervaring dat HP-server nogal onhandig als je iets wilt weten/moet hebben en geen service contract met hun hebt.
ebay heeft ook leuke dingen maar vrij dure verzendkosten, en ik ben zowiezo wat huiverig tegenover wereldwijde ebay aankopen..
[ Voor 34% gewijzigd door heuveltje op 07-06-2011 21:09 ]
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Dat de kaart een rebranded LSI is haal ik uit de quickspecs en door op google te zoeken naar images van de SC44Ge, daar zag ik een afbeelding met 2 interne poorten.
De maximum drive size ben ik nog niet achter maar dat zal wel tegenvallen.
als ik hier de builds bekijk van sommige mensen die het in een 19" rack hebben gedaan vind ik het kostenplaatje erg meevallen. 24tb voor pakhembeet 7000 euro.MSoft06 schreef op dinsdag 07 juni 2011 @ 19:55:
[...]
Ik ben het hier wel mee eens, onderwijs heeft geen grote budgetten om dikke SAN oplossingen te kopen en een eenvoudig MKB bedrijfje kan dat ook niet echt ophoesten.
Daarvoor zijn sommige self build systems wel toereikend, enige nadeel is dat je sterk afhankelijk bent van hardware redundancy. Wel stukje voordeliger dan een goede SAN oplossing inclusief service contract
een hp lefthand of MSA begint vanaf 10k en heb je maar iets 8TB tot je beschikking maar dan ben je er nog niet. kom nog je service contract bij voor een x aantal jaren. laten we ruwweg zeggen dat je snel op 14k zit voor een hp of instap dell.
voor 7k een 24tb systeem kopen is te doen. laat het zijn dat je voor 1500 euro reserve onderdelen op de plank hebt liggen. en tegenwoordig zijn de raidcontrolers aardig stabiel. plus als hij kapot is die je meteen kan vervangen met je reserve en je bent snel weer up and running.
dus onder de 10k voor een 24TB systeem met vrijheid wat je er zelf op draait is zeker in mijn ogen geen slecht idee.
7000 euro is wel erg veel moet ik je nog zeggenrobertobadjo schreef op woensdag 08 juni 2011 @ 12:33:
[...]
als ik hier de builds bekijk van sommige mensen die het in een 19" rack hebben gedaan vind ik het kostenplaatje erg meevallen. 24tb voor pakhembeet 7000 euro.
Een opsomming van de kosten
12x2TB @ ongeveer 60 euro de stuk is 720 euro.
Server moederbord met een aardige processor en een sloot geheugen. Pak hem beet 500 euro
Behuizing voor 12 schijven ---> Norco kast met 24 swaps kost geloof ik 400 euro.
Voeding > 600W voor staggered spinup --> 120 euro
SAS HBAx2 a la Supermicro is ongeveer 250 euro.
Totaal onder de 2000 euro. (1990 euro)
Mocht je redundantie willen, dan zullen de kosten worden verdubbeld.. Zelfs dan nog ruim onder de 7000 euro
EDIT hieronder:
Een dure controller is vaak niet eens nodig afhankelijk van het platform natuurlijk. ZFS heeft enkel veel SATA poorten nodig en dus het liefst domme controllers
[ Voor 13% gewijzigd door YaaD op 08-06-2011 13:07 ]
bl44t
Ik denk dat je voor 4000 euro wel een 19" kast, 19" behuizing, sloot hardeschijven, systeem en alle kleine dingen erom heen kan samenstellen.
EDIT: Net te laat, en dan zit ik alsnog ruw te schatten.
[ Voor 13% gewijzigd door GioStyle op 08-06-2011 12:56 ]

maar goed een beetje raid controler van areca kost ook al gauw 700 euro. haal je natuurlijk wel aardig spul in huis.
rekenen is nooit me sterkste kant geweest
voor 5k incl reserve onderdelen moet je dan toch een heel end komen lijkt mij.
dus nog goedkoper als een dell PS/EQL of hp msa/lefthand
Een domme Tv-kaart!

Ben 2 dagen bezig geweest met alles eruit te halen, in te steken, te versteken van slot, ... om het probleem te zoeken. Temp van grafische chip is soms een beetje hoog, maar is geen ramp. Ram ook nagekeken en dacht even dat het dat zou zijn. Aangezien de vastlopers zeer random waren was het lastig om juist te zoeken wat er mis is. Toevallig ging de pc telkens vastlopen als er 4 latjes ram in zaten.
Na veel testen en versteken heb ik dan toch nog gevonden dat het telkens was als de tv-kaart erbij kwam.
Ik heb ook nog een usb tuner liggen dus zal die voorlopig gebruiken.
Mijn CX4 kabel is ondertussen ook toegekomen en heb het al even ingestoken. Werkt gewoon zonder problemen en is herkent als volle 10Gbit. Daarnet snel even een paar mini testjes gedaan en de 10Gbit kan zich heel goed recht houden. Meerdere pc's tegelijk van data voorzien lijkt geen probleem.
Voor betere tests moet ik eerst nog een goede benchmark tool zoeken en installeren en moet de samba config nog gefixed worden.
Morgen zal het dus weer een dagje builden worden
is het soms geen IRQ conflict ofzo met een ander stukje hardware. vind het wel erg apart dat het ramdom freeze door een tv kaart komt tenzij die kapot is. probeer de kaart eens te testen in een andere computer.KDVken schreef op woensdag 08 juni 2011 @ 22:40:
Even een kleine update: ik denk dat ik het probleem gevonden heb met mijn build.
Een domme Tv-kaart!![]()
Ben 2 dagen bezig geweest met alles eruit te halen, in te steken, te versteken van slot, ... om het probleem te zoeken. Temp van grafische chip is soms een beetje hoog, maar is geen ramp. Ram ook nagekeken en dacht even dat het dat zou zijn. Aangezien de vastlopers zeer random waren was het lastig om juist te zoeken wat er mis is. Toevallig ging de pc telkens vastlopen als er 4 latjes ram in zaten.(maar met 4 latjes kon hij wel perfect door een memtest geraken... puur toeval dus)
Na veel testen en versteken heb ik dan toch nog gevonden dat het telkens was als de tv-kaart erbij kwam.
Ik heb ook nog een usb tuner liggen dus zal die voorlopig gebruiken.
Mijn CX4 kabel is ondertussen ook toegekomen en heb het al even ingestoken. Werkt gewoon zonder problemen en is herkent als volle 10Gbit. Daarnet snel even een paar mini testjes gedaan en de 10Gbit kan zich heel goed recht houden. Meerdere pc's tegelijk van data voorzien lijkt geen probleem.
Voor betere tests moet ik eerst nog een goede benchmark tool zoeken en installeren en moet de samba config nog gefixed worden.
Morgen zal het dus weer een dagje builden worden
Heeft met IRQ en DMA Addressering te maken...
Even niets...
Ik heb een aardige collectie films en ik heb nog altijd een paar TB over...
1
2
3
| Total: 5496.93 GB Used Size: 2430.94 GB Available space: 3065.99 GB |
[ Voor 13% gewijzigd door HyperBart op 09-06-2011 11:01 ]
Ik heb ze bij Conrad besteld, omdat ik toch een aantal spullen daar moest hebben. De mijne zijn van NZT en erg handig omdat ze per draad gesleeved zijn, daardoor komt er minder spanning op de connectoren te staan.clonedonkey schreef op dinsdag 07 juni 2011 @ 00:56:
Beetje off-topic maar waar kan je die sata power kabels halen dat je 4 hdd's doorlust naar 1 stroom aansluiting? Zie ze hier vaak voorbij komen en is erg netjes maar kan ze tot nu toe nergens vinden.
Op dit moment een paar 1000 films in 720 en 1080p. Mijn NAS is echt gebouwd als fileserver voor mijn film collectie. Maar ongeveer 700GB is voor backups van allerlei dingen.HyperBart schreef op donderdag 09 juni 2011 @ 11:00:
Gewoon even ter interesse: mensen vinden het vaak al gek dat ik bruto 4x 2TB (RAID 5, netto 5,4 à 5,6 TB) heb staan. Wat stockeren jullie allemaal op jullie NAS, buiten mensen die die dingen hebben draaien thuis voor backups van bedrijven of klanten?
Ik heb een aardige collectie films en ik heb nog altijd een paar TB over...
code:
1 2 3 Total: 5496.93 GB Used Size: 2430.94 GB Available space: 3065.99 GB
[ Voor 40% gewijzigd door tbusquet op 09-06-2011 11:15 ]
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Ik denk dat je NZXT bedoeld.tbusquet schreef op donderdag 09 juni 2011 @ 11:13:
[...]
Ik heb ze bij Conrad besteld, omdat ik toch een aantal spullen daar moest hebben. De mijne zijn van NZT en erg handig omdat ze per draad gesleeved zijn, daardoor komt er minder spanning op de connectoren te staan.
Ongetwijfeld zal het de kabel zijn van onderstaande link(s).
Conrad: http://bit.ly/ljLEuY
Tweakers: pricewatch unsorted: NZXT Molex zu 4x SATA Adapter 20cm - premium sleeved black
Anoniem: 191050
Films en series voornamelijk, verder nog een paar 100 GB aan FLAC files en wat back-up meuk.HyperBart schreef op donderdag 09 juni 2011 @ 11:00:
Gewoon even ter interesse: mensen vinden het vaak al gek dat ik bruto 4x 2TB (RAID 5, netto 5,4 à 5,6 TB) heb staan. Wat stockeren jullie allemaal op jullie NAS, buiten mensen die die dingen hebben draaien thuis voor backups van bedrijven of klanten?
Ik heb een aardige collectie films en ik heb nog altijd een paar TB over...
code:
1 2 3 Total: 5496.93 GB Used Size: 2430.94 GB Available space: 3065.99 GB
Films en series gaan het hardst, zoveel mogelijk untouched blu-ray rips.
Anoniem: 292340
Ik sla vooral DVD's (films en series) op, de meeste als single layer. Hoop films zijn ook gesplit in 2 discs om de kwaliteit te behouden. Heb nu 3 x Raid 5 van 8 x 1TB draaien en deze setjes beginnen aardig vol te raken (minder dan 1TB aan ruimte per Raidset). Daarom ben ik dus ook genoodzaakt om binnenkort 12 x 2 TB aan te schaffen, zodat ik weer even vooruit kan. Later dit jaar komt er nog eens 12 x 2 TB bij en ga ik een eigen case bouwen om het allemaal in kwijt te kunnen.HyperBart schreef op donderdag 09 juni 2011 @ 11:00:
Gewoon even ter interesse: mensen vinden het vaak al gek dat ik bruto 4x 2TB (RAID 5, netto 5,4 à 5,6 TB) heb staan. Wat stockeren jullie allemaal op jullie NAS, buiten mensen die die dingen hebben draaien thuis voor backups van bedrijven of klanten?
Ik heb een aardige collectie films en ik heb nog altijd een paar TB over...
code:
1 2 3 Total: 5496.93 GB Used Size: 2430.94 GB Available space: 3065.99 GB
@hierboven:
Flinke stroomrekening dan
[ Voor 16% gewijzigd door FireDrunk op 09-06-2011 11:51 ]
Even niets...
Yup, je hebt gelijk, dat zijn zePerkouw schreef op donderdag 09 juni 2011 @ 11:21:
[...]
Ik denk dat je NZXT bedoeld.
Ongetwijfeld zal het de kabel zijn van onderstaande link(s).
Conrad: http://bit.ly/ljLEuY
Tweakers: pricewatch unsorted: NZXT Molex zu 4x SATA Adapter 20cm - premium sleeved black
Ja echt, vroeger kreeg ik 500GB net gevuld, tegenwoordig is een beetje film 10GB, het gaat zo hard.Anoniem: 292340 schreef op donderdag 09 juni 2011 @ 11:50:
[...]
Ik sla vooral DVD's (films en series) op, de meeste als single layer. Hoop films zijn ook gesplit in 2 discs om de kwaliteit te behouden. Heb nu 3 x Raid 5 van 8 x 1TB draaien en deze setjes beginnen aardig vol te raken (minder dan 1TB aan ruimte per Raidset). Daarom ben ik dus ook genoodzaakt om binnenkort 12 x 2 TB aan te schaffen, zodat ik weer even vooruit kan. Later dit jaar komt er nog eens 12 x 2 TB bij en ga ik een eigen case bouwen om het allemaal in kwijt te kunnen.
Maarja over een paar jaar hebben we schijven van minimaal 10TB per stuk, of solid states waarschijnlijk.
[ Voor 19% gewijzigd door tbusquet op 09-06-2011 12:08 ]
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Ik begin het zelf ook al te krijgen, en geen idee waarom. Heb nu 1TB aan films en series staan en moet nodig uitbreiden. Mijn media server is ook benaderbaar voor familie en vrienden die zo alle films en series kunnen kijken. Dus vandaar dat ik alles er een poos op laat staan, maar 6TB aan films en series!

Tja, ben nogal een film freak, zelfde reden denk ik dat ik 1500+ gekochte dvd's heb en nog zo'n 1500 gebrandde. En ik zit nu op 8TB aan films op de NAS denk ikSplendid schreef op donderdag 09 juni 2011 @ 12:08:
Vanwaar die drang om alle films en series te bewaren die je al hebt gezien?
Ik begin het zelf ook al te krijgen, en geen idee waarom. Heb nu 1TB aan films en series staan en moet nodig uitbreiden. Mijn media server is ook benaderbaar voor familie en vrienden die zo alle films en series kunnen kijken. Dus vandaar dat ik alles er een poos op laat staan, maar 6TB aan films en series!
Ik doe alleen niet meer aan DVD, sinds ik een paar jaar geleden voor het eerst full HD kon kijken wilde ik niet meer terug, ik vind alles onder de 720p nu "slecht" eruit zien
[ Voor 12% gewijzigd door tbusquet op 09-06-2011 12:13 ]
"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©
Anoniem: 292340
De schijven staan nu aangesloten op 2 servers, 16 schijven op de ene, 8 op de andere en ja, als die dag en nacht aan zouden staan, dan krijg ik inderdaad een flinke stroomrekening. Daarom staan ze ook alleen aan wanneer het nodig is (kopieeren van en naar).
Anoniem: 292340
Daar heb ik alleen in de "beginperiode" last van gehad. Toen ik eenmaal het "geniale" idee kreeg om mijn gehele DVD collectie te rippen en op harddisk te zetten, ging het heel hard. Natuurlijk bleef het niet bij alleen bij mijn eigen collectie en ging het nog harder. Gelukkig groeit de opslagcapaciteit van harddisks ook mee, anders had ik hier nu een muur vol met harddisks gehad!tbusquet schreef op donderdag 09 juni 2011 @ 12:06:
[...]
Ja echt, vroeger kreeg ik 500GB net gevuld, tegenwoordig is een beetje film 10GB, het gaat zo hard.
Maarja over een paar jaar hebben we schijven van minimaal 10TB per stuk, of solid states waarschijnlijk.
mag dan aannemen dat je iets van WOL aan heb staan. elke keer er naar toe lopen lijkt mij ook vermoeiend.Anoniem: 292340 schreef op donderdag 09 juni 2011 @ 12:18:
[...]
De schijven staan nu aangesloten op 2 servers, 16 schijven op de ene, 8 op de andere en ja, als die dag en nacht aan zouden staan, dan krijg ik inderdaad een flinke stroomrekening. Daarom staan ze ook alleen aan wanneer het nodig is (kopieeren van en naar).
Anoniem: 292340
Vanwege de drang om (zeker) de goede films wel vaker dan 1 keer te kijken. Daarnaast begon het bij mij als back-up, alleen groeide het naar meer als een back-up alleen.Splendid schreef op donderdag 09 juni 2011 @ 12:08:
Vanwaar die drang om alle films en series te bewaren die je al hebt gezien?
Ik begin het zelf ook al te krijgen, en geen idee waarom. Heb nu 1TB aan films en series staan en moet nodig uitbreiden. Mijn media server is ook benaderbaar voor familie en vrienden die zo alle films en series kunnen kijken. Dus vandaar dat ik alles er een poos op laat staan, maar 6TB aan films en series!
Heb onlangs een beamer gekocht en binnenkort bestel ik een 120" projectiescherm. Ben het laatste jaar bezig geweest om allerlei onderdelen (5.1 reciever, 5.1 speakerset, kabels etc) bij elkaar te sprokkelen.
Ben nu bezig met het herinrichten van mijn huiskamer, zodat ik binnenkort echt kan genieten van films en series. Lekker lui van af de bank, zij het alleen, zij het met vrienden.
De 6TB grens ben ik allang gepasseerd, daar zou ik het echt niet meer mee redden vrees ik!
Anoniem: 292340
Nope, alle computers komen nu in 1 grote ruimte te staan (voormalige huiskamer), maar toen het nog in verschillende ruimtes stond (huiskamer en pc-kamer), liep ik er gewoon naar toe. Zo vermoeiend was dat niet hoor, heb maar een 3 kamerwoning!robertobadjo schreef op donderdag 09 juni 2011 @ 12:32:
[...]
mag dan aannemen dat je iets van WOL aan heb staan. elke keer er naar toe lopen lijkt mij ook vermoeiend.
een producten (in de trant van Synology/QNAP) heeft trouwens nu ook wel wat mooie NAS'jes (jaja, geen zelfbouw I know en de patsfactor is ook minder hoog) met 10 bays uitgebracht... Vind het niet direct terug...
het houd je wel fit ja.Anoniem: 292340 schreef op donderdag 09 juni 2011 @ 12:42:
[...]
Nope, alle computers komen nu in 1 grote ruimte te staan (voormalige huiskamer), maar toen het nog in verschillende ruimtes stond (huiskamer en pc-kamer), liep ik er gewoon naar toe. Zo vermoeiend was dat niet hoor, heb maar een 3 kamerwoning!
maar jij offert dus je woonkamer op voor een dedicated computer ruimte..
Om heftige discussies te voorkomen in het topic, lees eerst goed de start post om te weten waar aan het systeem moet voldoen. Ben je van mening dat jouw systeem toch in dit topic hoort maar valt hij niet binnen de gestelde eisen, neem dan contact op met een van de auteurs van dit topic zij zullen open staan voor goede argumenten, zoals ook vermeld in de start post.
Gebruik de in de TS geplaatste tabel om dit topic leesbaar te houden!