Acties:
  • 0 Henk 'm!
Speciale ZFS Edit
Geachte vrienden-voorstanders van ZFS.
aangezien de discussie keer op keer opgezwengeld blijft worden, hierbij een verduidelijking.
in dit topic vertel ik mijn voortgang in mijn keuze proces tussen mijn zelfbouw NAS of een kant en klare Synology.
mijn keus voor een Synology en de daarbij horende vergelijking valt niet bij iedereen in goede aarde. daarom de volgende extra-speciale mededeling:
-Ja ik ben mij er volledig van bewust dat het stukken goedkoper kan met ZFS en zelfbouw
-Ja ik ben mij er van bewust dat ZFS vast ook hele fancy beheer interfaces kent
-Ja ik ben mij ervan bewust dat ik, indien ik 15K+ te verspijkeren had, ook kant en klare ZFS oplossingen had kunnen kopen op enterprise niveau
-ik ben simpelweg niet geinteresseerd in Linux leren. ook al is het "allemaal zo simpel" en zijn "overal guides voor", dat is met die Synology ook zo. en toch kreeg ik het weer voor elkaar iets te kopen\ in te richten wat weer niet onder de standaard guides viel. dat gebeurd me namelijk altijd. ik heb een korte flirt met linux achter de rug en het was gewoon niet mijn ding.klaar.
nogmaals, ik vind jullie allemaal lief, en ZFS is allemaal leukl en aardig, maar voor mij is het zwakke punt van ZFS dat ik een *nix OS moet draaien. en dat wil ik niet.
mag dan nu de discussie over ZFS ophouden? ik wil voorstellen dat de heren ZFS fans proberen de top 20 van het 10tb+ storage topic proberen te overtuigen, daar is nog heel wat te behalen ;)
/Speciale ZFS Edit

DISCLAIMER
dit topic is op geen enkele manier bedoelt als show-off topic. daarvoor hebben we de 10TB+ topics al. Wat ik hier vergelijk is niet voor iedereen weggelegd. Ik probeer niemand de ogen uit te steken of zo hard mogelijk te roepen "kijk eens wat ik heb". er is blijkbaar veel interesse in dergelijke opstellingen (zie het 10TB+ topic wat in enkele maanden uit zijn voegen groeit). deze discussie die ik wil voeren is vooral gericht op : moet je bij dit soort monsters nog wel zelf willen bouwen? wat kom ik te kort als ik gebruik maak van off-the-shelf oplossingen?
ik ben open en bloot over wat iets kost, ook kun je me dingen vragen te testen, dat doe ik met liefde. dit alles in het kader van delen met elkaar. comments als "hoe kun je dat betalen" of "ik geloof het niet" of "pics or it didn't happen" mag je daarom ook thuislaten. it did happen, en pics kun je hieronder vinden ;)
/DISCLAIMER

LEES MIJ EERST
omdat veel mensen er snel doorheen skippen en een mening geven, toch maar even een toevoeging aan de disclaimer :)
mijn topic is niet bedoeld om wie\wat dan ook af te branden. er zijn massa's oplossingen mogelijk, ik vergelijk een standaard zelfbouw systeem met een out-of-the-box oplossing.
een standaard zelfbouw systeem, en ik weet dat ik hierop aangevallen ga worden door de linux adapten, is nu eenmaal een serverbordje met een areca, draaiend op hardware raid. kijk je in het storage showoff topic, dan zie je daar ook dat van de top 10 een 7 man een windows systeem draaien in combinatie met een areca. 1 persoon draait windows met raid 0 arrays, 1 draait zfs, 1 draait mdam. het lijkt me dat we dan samen als volwassenen kunnen besluiten dat voor een "simpel" storage systeem met 10 TB+ over het algemeen een areca met windows gebruikt wordt.
ik kan de reden ook wel raden.. het is makkelijk. weinig gerommel, het wiel is hiermee al uitgevonden, en het werkt gewoon. dat wil niet zeggen dat ZFS or iets dergelijks niet goed werkt! ik denk zelf dat het een kwestie van tijd is voordat ZFS de standaard voor software raid gaat worden. mijn probleem met ZFS? ik moet me er flink op inlezen, terwijl dat voor een hardware raid controller niet nodig is. realiseer je goed dat veel mense met dit soort grote storage systemen helemaal geen zin hebben om na alle tijd en geld die uberhaupt in het bouwen is gestoken, dan ook nog eens een heel nieuw bestandssysteem\software raid systeem te leren kennen. alle verandering is goed, zolang alles maar hetzelfde blijft..
is mijn vergelijking 100% eerlijk? nee. ik vergelijk een groot storage systeem van een luilak met een out-of-the-box syteem voor een luilak. niets meer, niets minder.
/LEES MIJ EERST


Mede-Tweakers;


ik ben zelf al lang volger\lurker\deelnemer in zowel de Zelfbouw NAS topics als the 10TB+ Storage Systems.


mijn historie met storage system is zeer divers;
ooit begonnen met losse 120 GB schijven in een externe USB behuizing, daarna met RAID 3 XFX kaarten mijn eerste terabyte halen met 250 gig schijven, en langzaam doorhobbelen richting het betere spul
laatste "echte" server was een;
Supermicro 846 chassis (24 bay hot-swap)
Supermicro X8dwn+ moederbord
dual quad core xeon
64 gb geheugen
Areca 1280ML
24X wd2002FYPS schijf.
doel van dit systeem: virtualiseren met Hyper-V en lomp veel storage hebben.

maar dit spul maakt herrie. veel herrie.
dus is er een maand geleden een reincarnatie geweest;
nu draait het in een Lian-Li 343B, non-hotswap bays van Norco
Supermicro AMD bord
12 core opteron
64 gb geheugen
Areca 1280ML
1200 watt Coolermaster voeding
24X wd2002fyps schijf
wederom het doel, virtualiseren met Hyper-V en lomp veel storage..

maar zoals zovelen in de 10TB+ topics; 40TB just isn't enough. nog erger, hoeveel je ook hebt, het is nooit genoeg.
en toen mijn HD's ook nog eens kuren begonnen te vertonen en dit zo slecht op te vangen was met de Areca, was ik het wel beu. dit moet makkelijker kunnen. en toen ik wat rekeningen zag dacht ik ook, dit moet ook goedkoper kunnen. (uiteindelijk bleken de issues overigens met de Molex-to-2-sata-splitters te zitten. die vervangen en alles was weer goed.

in dit topic wil ik laten zien hoe ik een Synology DS3611xs heb ingericht om hetzelfde te doen als voorheen. hierbij ga ik, als die-hard Hardware-RAID gebruiker de wereld van software RAID en voorgeconfigureerde spullen in. ik ben gewend alles zelf te bouwen, zelf te installeren, en zelf te troubleshooten. ikzelf kom uit een Windows wereld, en ga dus het grote onbekende in.

ik zal hierbij foto's en bevindingen plaatsen van alles wat ik doe. het leuke, maar ook het minder leuke. wat werkt wel, wat werkt niet, en vooral, hoe bevalt dit nou?
ik ga echt all-in, oftewel, al mijn data (32 TB) gaat over naar de Synology. hierbij gaan ook al mijn apps en dergelijke over (newznab, sickbeard, sabnzb) en blijft mijn server enkel behouden voor virtualisatie.

en dan nu, vooral het spannendste voor de mede-tweakers, hoe performed dit nu?
voor een eindgebruiker, maar ook voor een power user met bijv. Iscsi.
is het een haalbaar alternatief?
ik heb ervaring met de hardware RAID opstellingen, performed dit nu vergelijkbaar?
en dan ook natuurlijk, kostentechnisch.. hoe steken de kosten voor deze Synology oplossing nu af tegen een zelfbouw systeem? en hoe zit het technisch in elkaar? zit het een beetje duurzaam in elkaar?

de komende weken wil ik in dit topic graag mijn ervaringen delen en daarin de vergelijkingen met mijn oudere oplossingen. ik geloof zelf dat Synology een "betere" oplossing is, maar is dat wel echt zo?
ook kan ik dingen testen wat hier aangevraagd wordt.. ik ben ook benieuwd wat wel en niet kan namelijk :)

Waarom?
dat is misschien de beste vraag. waarom een Synology als je al een storage server hebt?
simpel: de honger naar meer ruimte.
momenteel loop ik tegen beperkingen aan van mijn opstelling. met heel veel pijn en moeite kan ik 36 disks in de Lian-LI kwijt. dit heb ik geprobeerd. hierbij liep ik tegen problemen met warmte die ik niet goed afgevoerd kreeg zonder daarbij een mega-turbine te creeeren, RAID controllers die niet pasten (dankzij de CPU koeler had ik nog maar 2 PCI-E poorten over, 1 voor de Areca, 1 voor de quad netwerkkaarten). en dan is het vol.
ook garantie technisch was dit gewoon niet handig. sommige dingen hadden 1 jaar garantie, andere 2, andere 3. als je dan de complete setup uitlegd dan vragen ze zich af of je gek bent geworden.. wilde ik mijn Areca uitbreiden op een ondersteunde manier, dan moest ik Enterprise class schijven gebruiken die veel geld kosten. ik heb daarom mijn eisen lijstje eens op papier gezet, en kijken wat ik wilde.

eisen lijstje
wat moet de opstelling kunnen:
  • hoge IO en Throughput leveren voor virtualisatie
  • Veel ruimte (40TB +)
  • makkelijk uitbreiden
  • makkelijke garantie
  • makkelijk beheer
  • zo min mogelijk zelf het wiel uitvinden
  • minimaal 4gbps LAG richting netwerk
  • future-proof
  • downloadstation
  • te gebruiken door mijn thuisbioscoop
  • bruikbaar voor mijn vriendin
  • rapportage mogelijkheden mbt gebruik en status
  • off-the-shelf spullen
  • acceptabel geluidsniveau (moet in een kantoor staan)
na omzwervingen ben ik hierdoor op de Synology DS3611XS uitgekomen.

Build Setup & Kosten:
wat heb ik nu eigenlijk draaien?
momenteel heb ik draaien:

Lian-Li PC343B = 287 euro
coolermaster 1200 watt silent pro gold =186 euro
AMD Opteron 6174 = 980 euro (had een kleinere kunnen zijn, dus reken ik 400 euro)
2 X velociraptor 74 gb : 58 euro X 2 = 116 euro
64 GB ECC Geheugen : 998 euro (8 gb "echt" nodig dus voor de berekening 998 /8 = 125 euro)
SuperMicro H8SGL-f Moederbord = 233 euro
SS-500 hot swap bay = 101,75 X 5 = 509 euro
Areca 1280ML met 2 GB ECC en BBU = 1000 euro
Western Digital Wd2002FYPS schijven : 147 euro X 24 = 3528 euro
losse ventilatoren en accessoires: 300 euro (o.a. voor de processor, kast e.d.)
Intel PCI-E ET Quad Netwerk kaart : 335 euro
kom ik op 7019 euro inc. BTW om dit na te bouwen..

impressie:
Afbeeldingslocatie: http://farm7.static.flickr.com/6010/5958056152_508e9e9e7e.jpg

wat heb ik op Synology niveau:
een DS3611XS = 2138
tweemaal een DX1211 = 2 X 938 = 1876 (voor de optelsom 938 want ik heb er nu "maar" 1 nodig)
24X Wd20EARS Harde Schijf = 60 euro X 24 = 1440
3 X 2 GB ECC geheugen = 68 euro X 3 = 204 euro
bij elkaar is dat 4764 inc. btw

dat is iets meer als 220 euro goedkoper..

impressie:
Afbeeldingslocatie: http://farm7.static.flickr.com/6188/6095731141_b53dcd54d1.jpg

[ Voor 66% gewijzigd door KorneelB op 02-09-2011 16:39 ]

60 TB can not be enough


Acties:
  • 0 Henk 'm!
Foto's van mijn build

in deze sectie wil ik alle foto's van mijn build bijhouden

nou, zondag eindelijk tijd gehad, want daar was het dan. via Mobile-Harddisk.nl (ik snap nu waarom ze alleen maar 5 sterren hebben!) de Synologies gehad. ze waren ook de enige met voorraad (wederom perfect!) en met een service waarin ze ook al mijn nieuwe schijven meteen met de wdidle tool een idle time van 5 minuten gaven! (bekend probleem van de standaard idle time in NAS systemen).

heel goed verpakt, keurige dozen, en zie ze staan glanzen:
Afbeeldingslocatie: http://farm7.static.flickr.com/6202/6096402842_274a702b83.jpg

dat is eenmaal een ds3611xs, en tweemaal een dx2111 uitbreidingsunit.
de uitbreidingsunits worden met infiniband aangesloten op de hoofdunit, en vormen dan een integraal onderdeel van het systeem. in totaal kunnen ze dan 36 schijven herbergen.

standaard heeft hij 4 GBit poorten, welke gebundeld kunnen worden in een LAG (wat ik ook doe). later is de Synology uit te breiden met een enkel of dubbelpoorts 10GBE adapter. helaas heb ik alleen een 48poorts managed GBIT switch ter beschikking, en kan ik de 10GBE connectie niet testen.

ook heb ik 26 WD20EARS schijven binnen (24 voor de Synology, 2 als cold-spare)
Afbeeldingslocatie: http://farm7.static.flickr.com/6084/6095918605_1b3753db8b.jpg
allen keurig voorzien van de WDIDLE fix.

eerst dan maar eens het ding open maken om het extra geheugen erin te prikken (3X 2gb ECC ipv 2X 1 GB ecc.
Afbeeldingslocatie: http://farm7.static.flickr.com/6205/6095833605_8669ec729e.jpg
het ding voelt stevig. moederbord zit goed vast, en na verwijderen kap boven en onder kun je 2 stekkers losmaken en de tray eruit schuiven. alles zit goed vast.

ik heb het bord nagelopen op eventuele defecten, lekker condensatoren, slechte soldeerstukken, maar alles ziet er goed en strak uit. doet zeker niet onder aan kwaliteit voor de SuperMicro borden. dit heb ik bij een aantal andere apparaten en moederborden toch wel anders gezien.

ook het cable management in het ding is keurig:
Afbeeldingslocatie: http://farm7.static.flickr.com/6181/6096352946_98db39c79b.jpg

aandachtspunt wat ik er op heb is dat de koeler voor de CPU er erg goedkoop uitziet en aanvoelt. daar verwacht ik als eerste problemen mee, maar dat kan ik ook fout hebben. hopelijk is hij stil.
wel zitten er 3 grote 120mm fans in, samen 29DB. we zullen zien.

misschien heel nerdie, maar de zijpanelen zijn dan leuk voorzien van een Synology Mesh..
Afbeeldingslocatie: http://farm7.static.flickr.com/6209/6095723079_60615f42fb.jpg
vind ik dan weer leuk :)

ook het moederbord zit keurig in de tray:
Afbeeldingslocatie: http://farm7.static.flickr.com/6086/6095711393_6a8002b26b.jpg
zit stevig, geen speling, geeft veel vertrouwen.

geheugen erbij geprikt;
Afbeeldingslocatie: http://farm7.static.flickr.com/6184/6095674787_4bcd9b1820.jpg
de modules voelen stevig aan, evenals de slots waar ze in prikken. heb hier vaak met consumten borden een slecht gevoel bij, maar dit voelt allemaal als een degelijk product.

de backplane
Afbeeldingslocatie: http://farm7.static.flickr.com/6072/6095654939_c34dfbc66f.jpg
ook de backplane bevalt me goed. ziet er clean uit, geen overbodige meuk, geen slechte solderingen, scheve elco's e.d., gewoon netjes en goed.
so far i'm happy :)

de drive trays zijn stevig. geen plastic gefrommel zoals bij de SuperMicro, maar echt stevig staal. ook netjes over de electronica, dus geen kans dat als je ze even weglegt je de print sloopt.
Afbeeldingslocatie: http://farm7.static.flickr.com/6198/6095637025_8a79b41072.jpg
wel zitten de schroeven aan de onderkant ipv de zijkant. ben ik niet gewend, heb ze normaal aan de zijkant zitten. wel minder gevaar dat je door trillingen je tray er niet meer uitkrijgt omdat de schroef los is gegaan (heb ik helaas meegemaakt met mijn SuperMicro...)
we zullen zien hoe degelijk dit is. het is iig wel makkelijk met schroeven :)

Afbeeldingslocatie: http://farm7.static.flickr.com/6062/6096172000_81fed0d5d2.jpg
de trays gaan er goed in. er is wat ruimte boven en onder voor de airflow te bevorderen. wel moest ik bij een tweetal schijven een beetje "wiebelen" voor een goede fit in de backplane. dit voelde wat soepeler op de Norco Hot-swap bays of in de SuperMicro. wel vind ik dit systeem prettiger qua airflow en qua inbouw.

Afbeeldingslocatie: http://farm7.static.flickr.com/6209/6095622733_e50fa2be1d.jpg
en nog een kleine blik op de slide rails.

momenteel loopt de kopieer actie van mijn oude omgeving naar de nieuwe. meer volgt dus :)

[ Voor 184% gewijzigd door KorneelB op 30-08-2011 14:15 ]

60 TB can not be enough


Acties:
  • 0 Henk 'm!
Build-Log
hierin wil ik alles bijhouden van mijn build en inrichting

nou, daar gaan we dan..

tegen al mijn principes in heb ik in plaats van alles maar meteen inprikken en aansluiten, gestructureerd gebouwd :)

dus dat ding aangesloten, schijven erin, en dan moet je het OS installeren. so far so good. hij vind alle schijven, en bouwen maar met het array. gekozen voor synology hybrid raid. waarom hybrid raid? is eigenlijk hetzelfde als RAID 6, maar dan met de mogelijkheid om schijven om te wisselen voor grotere schijven. waar ik bij RAID 6 perse al mijn 24 disks voor grotere moest vervangen om er gebruik van te kunnen maken, kan ik nu vanaf 3 vervangen schijven al meteen de grotere disks gebruiken.
oftewel: wanneer ik nu van mijn 24 schijven a 2 TB er 3 vervang door een 3 TB schijf heb ik er al meteen 1 TB bij.. pluspunt voor de Synology dus.

maar na het initialiseren van het volume (wat met een quick init toch al 2 uur kost) kon ik gaan werken.. en daar was meteen mijn eerste DOA. naja, meteen een mooie test voor een rebuild.
ik heb me voorbereid op een rebuild tijd van 2 dagen (Areca tijd), maar hij was binnen 8 uur klaar. zeer netjes!

mijn uiteindelijke volume is een 12 disk Synology Hybrid Raid met 2 disk redundancy geworden, oftewel de synology versie van een RAID 6. de andere 2 uitbreidingsbays krijgen eenzelfde volume.
per unit krijg ik dus 18.2 "echte" terabytes welke ik kan gebruiken.

stresstest kan beginnen :)

de LAG daarna geconfigureerd, nu zit zowel mijn huidige server met 4X 1GBPS op mijn switch als de DS3611xs... zou het dan kunnen?

ik ben begonnen met de transfer van mijn blu-ray isos van mijn huidige server naar de Synology.. en ja hoor, 402 mbps.. strak. blurays over in een paar minuutjes. punten voor de Synology!

[ Voor 171% gewijzigd door KorneelB op 30-08-2011 15:37 ]

60 TB can not be enough


Acties:
  • 0 Henk 'm!
blog verloop
ik was van plan alles in mijn start posts bij te houden, dat komt het overzicht niet ten goede. ik ga gewoon deelnemen in het topic :)

[ Voor 154% gewijzigd door KorneelB op 31-08-2011 17:04 ]

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • 430xlkod
  • Registratie: Januari 2007
  • Laatst online: 06-12-2024
Ik volg:).

Acties:
  • 0 Henk 'm!

  • osmosis
  • Registratie: December 2009
  • Laatst online: 21-04 18:33
Me 2, kom ik aan met me p4 en een el cheapo raid kaart met 4X250GB en 2GB DDR2 :'(

Acties:
  • 0 Henk 'm!

  • Blamm
  • Registratie: Februari 2001
  • Laatst online: 17-02 16:45

Blamm

Niet meer Smart

Het prijsverschil is puur al te achterhalen door het gebruik van andere schijven. Is er een reden dat je voor de Synology build goedkopere schijven gebruikt die misschien niet in de DIY oplossing kunnen? Als deze uitwisselbaar zouden zijn zonder gevolgen, valt het prijsargument namelijk in het niet.

Blijft het uiteraard interessant wat de voor/tegens zijn voor DIY versus Synology, en belangrijker nog, het verschil in gebruik en performance :)

Acties:
  • 0 Henk 'm!

  • 107mb
  • Registratie: Juni 2004
  • Laatst online: 14:59
ik mis even het volgende punt:
doel: lomp veel opslag hebben

ik bedoel, is dat niet hetzelfde als een enorme hal bouwen, en die maar volpakken met zooi omdat het kan?

en dan 4500 euro in dit doel investeren? Ga je dit commercieel uitbaten?
Waarom heb je zo ontzettend veel storage nodig? Wat komt er op te staan?

Veel vragen, maar ik ben redelijk verbaasd voor iemand met 3 TB aan opslag (1 TB computer, 1 TB timecapsule, en 1 TB NAS als streaming server), en stel me dan dit soort vragen!

ik vind het wel een cool project!

Acties:
  • 0 Henk 'm!
Blamm schreef op dinsdag 30 augustus 2011 @ 13:33:
Het prijsverschil is puur al te achterhalen door het gebruik van andere schijven. Is er een reden dat je voor de Synology build goedkopere schijven gebruikt die misschien niet in de DIY oplossing kunnen? Als deze uitwisselbaar zouden zijn zonder gevolgen, valt het prijsargument namelijk in het niet.

Blijft het uiteraard interessant wat de voor/tegens zijn voor DIY versus Synology, en belangrijker nog, het verschil in gebruik en performance :)
de prijzen zijn niet puur en alleen de schijven.
dat is inderdaad een verschil van 2000 euro, maar heeft ook wat met de keus te maken. bij een Areca had ik deze schijven niet kunnen gebruiken. ik weet dat er hier mensen zijn die dat toch proberen met consumenten schijven, maar dit loopt te vaak slecht af. TLER is niet aanwezig, en je krijgt gedoe met garanties.
bij de Synology heb ik de keus. natuurlijk ga ik wanneer ik mijn oude raid-set afbreek een twaalftal schijven hergebruiken in de nu nog lege Synology expansion unit, om het verschil in duurzaamheid en performance te testen.

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 13:24
Blamm schreef op dinsdag 30 augustus 2011 @ 13:33:
Het prijsverschil is puur al te achterhalen door het gebruik van andere schijven. Is er een reden dat je voor de Synology build goedkopere schijven gebruikt die misschien niet in de DIY oplossing kunnen? Als deze uitwisselbaar zouden zijn zonder gevolgen, valt het prijsargument namelijk in het niet.

Blijft het uiteraard interessant wat de voor/tegens zijn voor DIY versus Synology, en belangrijker nog, het verschil in gebruik en performance :)
Bij een hardware raid controller wil je liefst Raid Edition schijven, desktop schijven hebben veel bekende problemen in hardware raid, oa TLER ed.
Zijn keuze voor goekopere schijven kan nu omdat er gebruik gemaakt wordt van software raid heb ik begrepen.

[ Voor 38% gewijzigd door BlackShadow op 30-08-2011 13:48 ]


Acties:
  • 0 Henk 'm!
107mb schreef op dinsdag 30 augustus 2011 @ 13:37:
ik mis even het volgende punt:
doel: lomp veel opslag hebben

ik bedoel, is dat niet hetzelfde als een enorme hal bouwen, en die maar volpakken met zooi omdat het kan?

en dan 4500 euro in dit doel investeren? Ga je dit commercieel uitbaten?
Waarom heb je zo ontzettend veel storage nodig? Wat komt er op te staan?

Veel vragen, maar ik ben redelijk verbaasd voor iemand met 3 TB aan opslag (1 TB computer, 1 TB timecapsule, en 1 TB NAS als streaming server), en stel me dan dit soort vragen!

ik vind het wel een cool project!
dat is niet helemaal hetzelfde. ik bewaar graag dingen :)
het is een beetje als de foto-albums van vroeger, of de foto's van nu. je bewaard dingen omdat het kan, en als je gaat verhuizen naar een kleiner huis, gooi je dingen weg omdat het nu niet meer past. dat terwijl je ze soms jarenlang hebt bewaard, omdat het kon.

ik bewaar Blu-Ray Iso's, Full HD MKV's, maar ook series.. heb een 400+ series compleet, waar er heel veel gewoon nergens meer te vinden zijn. dat is alleen al aan voer voor mijn bioscoop een kleine 30 TB.. laat staan alle VHD's van simulaties die ik draai, documenten, scans, muziek eigenlijk alle andere dingen die je vind..
het is ook geen investeren. investeren doe je om iets terug te verdienen, ik verdien er niks op terug. ik geef het geld uit.
zie daarom ook de disclaimer.

60 TB can not be enough


Acties:
  • 0 Henk 'm!
BlackShadow schreef op dinsdag 30 augustus 2011 @ 13:40:
[...]


Bij een hardware raid controller wil je liefst Raid Edition schijven, desktop schijven hebben veel bekende problemen in hardware raid, oa TLER ed.
Zijn keuze voor goekopere schijven kan nu omdat er gebruik gemaakt wordt van software raid heb ik begrepen.
you read my mind ;-)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Viper®
  • Registratie: Februari 2001
  • Niet online
Is software raid niet een stuk langzamer. Zou het nemen van kwalitatief betere schijven niet een veel gunstiger effect hebben op de stabiliteit van je raid configuratie?

Acties:
  • 0 Henk 'm!

  • Blamm
  • Registratie: Februari 2001
  • Laatst online: 17-02 16:45

Blamm

Niet meer Smart

Bedankt beide, is dat punt mij in ieder geval duidelijk ;)
Had al wel een vermoeden dat de consumentenschijven eerder niet gekozen werden omdat het 'niet kon' en de nieuwe controller de tekortkomingen van deze schijven kan opvangen.

Acties:
  • 0 Henk 'm!

  • Viper®
  • Registratie: Februari 2001
  • Niet online
zat overigens gisteren nog naar de Netgear 6 base 6TB Ibood aanbieding te kijken. Ik vond dat al veel geld.

Komt meneer even aan met z'n data storage :P haha

Acties:
  • 0 Henk 'm!

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 13:24
Waar voor mij het grootste verschil en prijs zit is de DIKKE server die ook gebruikt wordt voor virtualisatie, die Synology kan dit niet, in principe is dit niet vergelijkbaar.
Ik zou liever een zelfbouw software raid systeem zien met non-raid controllers en desktop schijven, voor de prijs van de Synology alleen al steek je zo 2 systemen in elkaar.

Ik ga dit topic zeker en vast volgen!

Acties:
  • 0 Henk 'm!
Viper® schreef op dinsdag 30 augustus 2011 @ 13:43:
Is software raid niet een stuk langzamer. Zou het nemen van kwalitatief betere schijven niet een veel gunstiger effect hebben op de stabiliteit van je raid configuratie?
dat is voor mij dus de reden dat ik altijd Hardware Raid heb gedraait. ik virtualiseer, en wil echt een 20 tot 30 virtuele servers kunnen draaien. dan heb je bizar veel IOPS nodig.
als ik nu hier de performance van o.a. de ZFS oplossingen voorbij zie komen dan twijfel ik steeds meer dat het perse hardware RAID moet zijn..
en na de test van Synology met hun DS3611x (1000 MB/Sec met een 10gbe kaart en 100.000+ IOPS met bewijs in een Youtube filmpje) was ik om.. ik neem de gok :)

60 TB can not be enough


Acties:
  • 0 Henk 'm!
BlackShadow schreef op dinsdag 30 augustus 2011 @ 13:49:
[...]


Waar voor mij het grootste verschil en prijs zit is de DIKKE server die ook gebruikt wordt voor virtualisatie, die Synology kan dit niet, in principe is dit niet vergelijkbaar.
Ik zou liever een zelfbouw software raid systeem zien met non-raid controllers en desktop schijven, voor de prijs van de Synology alleen al steek je zo 2 systemen in elkaar.

Ik ga dit topic zeker en vast volgen!
niet mee eens. zoals je kan zien heb ik de meerprijs voor alle virtualisatie investeringen (dikke CPU, veel geheugen) van de prijsvergelijking afgetrokken (meerprijs was iets van 1000 euro). de Synology kan dit idd niet, maar voor 1000 euro kun je wel een leuk virtualisatie gebakje maken, zonder de schijven.. het grote pijnpunt bij virtualiseren is gewoon disk IO. dat heb je nooit genoeg.
de Synology kan idd geen virtual machine host zijn, maar wel ISCSI target. that's all I need :)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Freezerator
  • Registratie: Januari 2000
  • Laatst online: 07:43
Ik ben inderdaad erg benieuwd hoeveel IOPS straks de array haalt. Doorvoer geloof ik wel, maar de IOPS zullen het verschil maken.

Acties:
  • 0 Henk 'm!

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 13:24
freak1 schreef op dinsdag 30 augustus 2011 @ 13:51:
[...]


niet mee eens. zoals je kan zien heb ik de meerprijs voor alle virtualisatie investeringen (dikke CPU, veel geheugen) van de prijsvergelijking afgetrokken (meerprijs was iets van 1000 euro). de Synology kan dit idd niet, maar voor 1000 euro kun je wel een leuk virtualisatie gebakje maken, zonder de schijven.. het grote pijnpunt bij virtualiseren is gewoon disk IO. dat heb je nooit genoeg.
de Synology kan idd geen virtual machine host zijn, maar wel ISCSI target. that's all I need :)
Ok, daar had ik over gelezen.

Maar zoals je zelf al aangaf wint software raid steeds meer terrein op HW raid.
Hardware raid controllers zijn nu eenmaal duur, voor de prijs van de Areca 1280ML kan je al een mooi systeempje in elkaar steken om software raid te draaien, dan vervalt ook de meerprijs van die RE schijven.

Acties:
  • 0 Henk 'm!

  • Viper®
  • Registratie: Februari 2001
  • Niet online
Nadeel van software raid is het cpu gebruik. Deze processor toekenning is dan gelijk weer niet te gebruiken door andere toepassingen.

Acties:
  • 0 Henk 'm!

  • Dromer
  • Registratie: Juni 2000
  • Laatst online: 13:53
Geld is niet altijd de goede motivatie, gewoon dingen makkelijker doen is het ook wat waard.
Ik heb zelf ook de overstap gemaakt een paar maanden geleden.
Ik heb alleen voor de 1511+ gekozen, was/is voor mij genoeg.
Goede keuze, ik heb er in ieder geval geen seconde spijt van gehad en ben er mbt gemak en stroomrekening alleen maar op vooruit gegaan.

Acties:
  • 0 Henk 'm!

  • Luuk1983
  • Registratie: Januari 2004
  • Laatst online: 14:02
Persoonlijk vind ik het compleet van de zotte om zoveel te bewaren dat je daadwerkelijk 40TB vol krijgt, maar ik vind het wel een interessant project. Deze ga ik volgen. Ieder heeft zo z'n hobby :) Ik ben heel benieuwd naar de verschillen tussen de software en hardware RAID!

AMD Ryzen 7 5800X3D | Gigabyte X570 Aorus ELITE | 32GB Corsair vengence 3200 | MSI RTX3080 Gaming Z | 2 x WD Black SN850X 2TB, Samsung 850 EVO 1TB | NZXT H7 Flow | Be quiet! Dark Rock Pro 4 | Corsair RM850x | Meta Quest 3


Acties:
  • 0 Henk 'm!

  • l3p
  • Registratie: Januari 2002
  • Laatst online: 17:10

l3p

www.^.nl

Ik las dat je problemen had met de molex-to-sata connectors, mag ik vragen wat voor problemen dat gaf ?
Heb hier namelijk eerder iets over gehoord maar nooit in verdiept nog.
Gebruik ze zelf ook voor 6 x 2TB in raid5, werkt opzich prima, alleen heb ik soms hele vage voltages vanaf de voeding. Dit treed pas op na maanden gebruik van de voeding dus het probleem is ook niet echt te vinden.
Misschien dat het hieraan kan liggen.

L3p - PC - HT - MK - PV - WP


Acties:
  • 0 Henk 'm!

  • DasHMauL
  • Registratie: April 2001
  • Laatst online: 07-04 09:35
Leuk topic! :)

-Hoe tevreden ben je met DSM? Doet het alles wat jij wilt, of moet je veel externe apps gebruiken (los van sabnzb, sickbeard, couchpotato etc.)
-Hoeveel lawaai maakt de DS3611XS (vergeleken met bijv. een DS211? :> )
-Wat doe je als alle schijven vol zijn? (you know it's gonna happen) Kan je oneindig DX1211's bijprikken via eSata?

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Sorry, maar ik vind je vergelijk nergens op slaan.

Zo vergelijk je:

De processor van de DS3611xs (wat een core i3 2100 is iirc, iig een dualcore intel processor van 3,1ghz) van 100 EUR met een processor van 400 euro?

8GB DDR3 ECC ram aan 125 euro tov 2GB in de DS3611xs

2 velociraptor disks die je in je Synology niet hebt

Een 1200watt voeding van 190 EUR terwijl die Areca staggered spin up ondersteunt, en je zo'n dikke voeding m.i. helemaal niet nodig hebt

En dan nog last but not least: je vergelijkt ook nog eens enterprise disks van 147 EUR die het moeten opnemen tegen standaard consumenten hdd's van 60 euro per stuk, en dit *24?

Dan is het wel érg makkelijk om je Synology NAS oplossing goedkoper te laten uitkomen ja :X

Acties:
  • 0 Henk 'm!
l3p schreef op dinsdag 30 augustus 2011 @ 14:00:
Ik las dat je problemen had met de molex-to-sata connectors, mag ik vragen wat voor problemen dat gaf ?
Heb hier namelijk eerder iets over gehoord maar nooit in verdiept nog.
Gebruik ze zelf ook voor 6 x 2TB in raid5, werkt opzich prima, alleen heb ik soms hele vage voltages vanaf de voeding. Dit treed pas op na maanden gebruik van de voeding dus het probleem is ook niet echt te vinden.
Misschien dat het hieraan kan liggen.
nou, ik had gewoon uitvallende schijven. joost mag weten waarom. iemand riep dat hij problemen had met de molex-to-2-sata power connectors, en ik heb ze daarom uit voorzorg vervangen door molex-to-4-sata van highflow.nl.
hierna waren alle problemen weg.
dit was voor mij dan ook een grote motivator om te kappen met dat zelfbouw gedoe, het moet gewoon veel makkelijker kunnen..

60 TB can not be enough


Acties:
  • 0 Henk 'm!
Ik zal je een keurige reactie geven, maar op voorhand ga ik zeggen dat je niet alles goed hebt gelezen;
sloth schreef op dinsdag 30 augustus 2011 @ 14:16:
Sorry, maar ik vind je vergelijk nergens op slaan.

Zo vergelijk je:

De processor van de DS3611xs (wat een core i3 2100 is iirc, iig een dualcore intel processor van 3,1ghz) van 100 EUR met een processor van 400 euro?
helemaal niet.
ik heb een enterprise bord nodig ivm de dubbele PCI-E X8 poorten en de bijbehorende garantie en mogelijkheden (IPMI e.d.) daar hoort een enterprise proc bij. dat is geen keus, dat is een must. die proc koste me een goede 900 euro. daar trek ik 500 euro vanaf want ik had ook een instap proc kunnen nemen. een normale proc die je in dat systeem stopt wil je energiezuinig zijn kost je 400 euro.
dat deze proc niet dezelfde performance geeft als een I3, meer of minder, doet niet ter zake. ik heb simpelweg dat type proc nodig in die prijsklasse om mijn systeem te laten werken.
8GB DDR3 ECC ram aan 125 euro tov 2GB in de DS3611xs
8 GB moet in dat ding om Server 2008 R2 fatsoenlijk te laten werken met grote volumes. in de DS3611XS zit overigens 6GB maargoed. die 6GB is overkill, 2 GB was voldoende geweest, omdat het een ander type systeem is.
2 velociraptor disks die je in je Synology niet hebt
bootschijven?
aangezien de Synology een ingebouwde module heeft om DSM op te draaien hoeven daar geen velociraptors in.
Een 1200watt voeding van 190 EUR terwijl die Areca staggered spin up ondersteunt, en je zo'n dikke voeding m.i. helemaal niet nodig hebt
heb je zelf enige ervaring met zelfbouw NAS systemen? staggered spinup is leuk, maar de load op je power lines is hoog. ik had gewoon flinke amps nodig op mijn 12 volt lines, klaar. dat leverde deze voeding. ja dat had ik ook gekund met een 800 watt voeding, maar dat zou kosten technisch niet veel hebben uitgemaakt. let er ook op dat ik met dit systeem dus ook rekening hou met groei tot 36 schijven.
En dan nog last but not least: je vergelijkt ook nog eens enterprise disks van 147 EUR die het moeten opnemen tegen standaard consumenten hdd's van 60 euro per stuk, en dit *24?
heb je überhaupt de motivatie daarachter gelezen? bij de Areca had ik heel erg graag consumenten schijven willen gebruiken, maar dat was gewoon geen optie met hardware raid. daar heb ik nu eindelijk keus in. dus ja, heel eerlijke vergelijking.
Dan is het wel érg makkelijk om je Synology NAS oplossing goedkoper te laten uitkomen ja :X
ik stel voor dat je alles nogmaals leest, en dan je vragen herformuleerd.
ik had ook 2 identieke systemen kunnen vergelijken, maar dan is de uitkomst zo makkelijk. ze zijn beide hetzelfde.
het gaat nu om twee heel verschillende systemen, dit uiteindelijk hetzelfde doel dienen. welk doel? zie OP.

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Zakkenwasser
  • Registratie: Februari 2001
  • Niet online
Luuk1983 schreef op dinsdag 30 augustus 2011 @ 13:59:
Persoonlijk vind ik het compleet van de zotte om zoveel te bewaren dat je daadwerkelijk 40TB vol krijgt, maar ik vind het wel een interessant project. Deze ga ik volgen. Ieder heeft zo z'n hobby :) Ik ben heel benieuwd naar de verschillen tussen de software en hardware RAID!
Er zijn veel mensen die hun opslag natuurlijk niet alleen voor Pr0n en andere downloads gebruiken. Wat dacht je van al die data die minimaal 3x bewaard moet worden van zelfgemaakte films, foto's, muziek en alle vakantie's etc etc.

Ik zit zelf al op 3x 500gb (persoonlijke date+backup) en ik schrijf er gemiddeld 1-3 GB aan data per week bij.

PSP 1000 @ 6.60 Pro C2 [+256GB]
PSVita @ Henkaku Enso [+256GB]
3DS @ Luma (B9S) [+160GB]
Nintendo Switch 3.0.1 [+256GB]


Acties:
  • 0 Henk 'm!
DasHMauL schreef op dinsdag 30 augustus 2011 @ 14:15:
Leuk topic! :)

-Hoe tevreden ben je met DSM? Doet het alles wat jij wilt, of moet je veel externe apps gebruiken (los van sabnzb, sickbeard, couchpotato etc.)
-Hoeveel lawaai maakt de DS3611XS (vergeleken met bijv. een DS211? :> )
-Wat doe je als alle schijven vol zijn? (you know it's gonna happen) Kan je oneindig DX1211's bijprikken via eSata?
ik ben nu een paar dagen bezig met DSM.
mooi systeem, erg gebruiksvriendeijk!
ik mis wel wat dingen, maar die vertel ik wel in de issues lijst :)

qua geluid, ik heb een bak geld tegen mijn oude server aan moeten gooien met fans e.d. om hem acceptabel te krijgen, de DS3611xs is gewoon prima out of the box. ik ga hem straks in mijn kantoor zetten, zonder kast of iets eromheen, omdat het gewoon perfect is. erg rustig dus.
schijven vol? dat is het hele mooie juist ervan. omdat je synology hybrid raid gebruikt kun je schijven gaan vervangen door grotere, en vanaf 2 grotere schijven al meteen de extra grootte gebruiken. bij die RAID 6 opstelling moet je echt alle schijven vervangne voordat je de grotere opslag kunt gebruiken :/

hij heeft volgens mij geen Esata poorten, maar wel 2 infiniband. je kunt dus 2 extra DX1211 modules bijprikken voor 36 schijven in totaal.

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 14:48
Ik vind het een leuk vergelijk en ben ook erg benieuwd naar de uitslagen.

Toch ben ik het deels wel met het commentaar van sloth eens.
Ik zou het een eerlijker vergelijk gevonden hebben als je een software raid NAS oplossing (gebaseerd op mdadm, Synogoly kan denk ik geen ZFS draaien?) er tegenover zou zetten.

Dan vervallen opeens je eisen die Windows Server 2008R2 stelt (dat draai je ook niet op je Synology immers), maar heb je gewoon een simpele Ununtu Server, Fedora, kies-maar-uit oplossing nodig.
Die kan ook nog wel op een USB stickje draaien, dus je twee bootschijven vervallen daarmee ook.
Bovendien heb je voor software raid die dure enterprise schijven helemaal niet nodig.

Enige wat dan overblijft is "hoe krijg ik zoveel schijven aangestuurd".
Daarvoor ontkom je volgens mij (helaas) niet aan de dure Areca controller, met bv SASUC8i HBA's ga je gewoon niet genoeg poorten beschikbaar hebben denk ik (tenzij je een bord kunt vinden met 4 x PCIe 8x sloten).
Mocht overigens de Synology van een soort expanders gebruik maken, kun je het wel halen met een simpele HBA van 150 euro en een paar expanders.

Op die manier komt je zelfbouw oplossing veel dichter bij de Synology oplossing, wat het vergelijk voor mij een stuk interessanter zou maken.

Neemt niet weg, dat ik het nog steeds erg leuk vind dat je dit daadwerkelijk uitvoert en benieuwd ben naar de resultaten van de Synology oplossing.

Acties:
  • 0 Henk 'm!

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 19-04 21:38
Zijn die InfiniBand aansluitingen ook daadwerkelijk InfiniBand of gebruiken ze alleen de connectoren en kabels en loopt er een ander of eigen protocol over?

Ik zie in de InfiniBand specs niet zo snel een toepassing hiervoor. Je zou eerder een (mini)SAS aansluiting met een interne SAS expander verwachten in dergelijke oplossing.

Acties:
  • 0 Henk 'm!

  • Luuk1983
  • Registratie: Januari 2004
  • Laatst online: 14:02
MrJey schreef op dinsdag 30 augustus 2011 @ 14:45:
[...]

Er zijn veel mensen die hun opslag natuurlijk niet alleen voor Pr0n en andere downloads gebruiken. Wat dacht je van al die data die minimaal 3x bewaard moet worden van zelfgemaakte films, foto's, muziek en alle vakantie's etc etc.

Ik zit zelf al op 3x 500gb (persoonlijke date+backup) en ik schrijf er gemiddeld 1-3 GB aan data per week bij.
3GB per week, dat kost je 13333 weken om tot 40TB te komen en dat is ruim 256 jaar. Dus ja, mijn idee is nog steeds dat als je zoveel opslag nodig hebt dat je dan bezig bent met werkelijk alles wat los en vast zit te downloaden, ongeacht of je ooit in je hele leven tijd hebt om alles te kijken en luisteren. Maar nogmaals, dat is geen waarde oordeel. Ik vind het een interessant project en ieder z'n ding. Het is alleen niet mijn ding.

[ Voor 0% gewijzigd door Luuk1983 op 30-08-2011 15:18 . Reden: typo ]

AMD Ryzen 7 5800X3D | Gigabyte X570 Aorus ELITE | 32GB Corsair vengence 3200 | MSI RTX3080 Gaming Z | 2 x WD Black SN850X 2TB, Samsung 850 EVO 1TB | NZXT H7 Flow | Be quiet! Dark Rock Pro 4 | Corsair RM850x | Meta Quest 3


Acties:
  • 0 Henk 'm!

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 15:43

Femme

Hardwareconnaisseur

Official Jony Ive fan

Sleepie schreef op dinsdag 30 augustus 2011 @ 15:08:

Enige wat dan overblijft is "hoe krijg ik zoveel schijven aangestuurd".
Daarvoor ontkom je volgens mij (helaas) niet aan de dure Areca controller, met bv SASUC8i HBA's ga je gewoon niet genoeg poorten beschikbaar hebben denk ik (tenzij je een bord kunt vinden met 4 x PCIe 8x sloten).
Mocht overigens de Synology van een soort expanders gebruik maken, kun je het wel halen met een simpele HBA van 150 euro en een paar expanders.
Raid-adapters met meer dan acht poorten maken eigenlijk zonder uitzondering gebruik van sas-expanders. Je kunt er vanuit gaan dat de Synology DX1211 dat ook doet. Er zijn geen bezwaren tegen vanuit het oogpunt van performance zolang je genoeg hebt aan de bandbreedte van de wide-port tussen controller en expander. Bij een systeem met vier gigabit ethernet aansluiting zal performance niet zo'n issue zijn.

Tegenwoordig is er dankzij zfs een beter alternatief voor hardware raid. Een tweaker kan met wat commodity hardware een oplossing neerzetten die beter presteert en flexibeler is dan een hardware raid-adapter. Je zult er wel wat meer werk aan hebben. Het voordeel van die Synology nassen is vooral dat ze out of the box meteen werken. Voor de hobby lijkt het me leuker om een zfs-machine te bouwen (ga ik nu ook doen).

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 14:48
Femme schreef op dinsdag 30 augustus 2011 @ 16:40:
Raid-adapters met meer dan acht poorten maken eigenlijk zonder uitzondering gebruik van sas-expanders. Je kunt er vanuit gaan dat de Synology DX1211 dat ook doet. Er zijn geen bezwaren tegen vanuit het oogpunt van performance zolang je genoeg hebt aan de bandbreedte van de wide-port tussen controller en expander. Bij een systeem met vier gigabit ethernet aansluiting zal performance niet zo'n issue zijn.
Dat denk ik ook inderdaad.
Waar het mij eigenlijk puur om ging is of je die Areca uit de zelfbouw server van Freak per se nodig hebt om zoveel schijven aan te kunnen sturen. Of dat dat misschien op een goedkopere manier kan, zoals misschien (waarschijnlijk) de Synology ook doet.
Allemaal uit het oogpunt het verschil zo klein mogelijk en het vergelijk zo eerlijk mogelijk te maken.
Tegenwoordig is er dankzij zfs een beter alternatief voor hardware raid. Een tweaker kan met wat commodity hardware een oplossing neerzetten die beter presteert en flexibeler is dan een hardware raid-adapter. Je zult er wel wat meer werk aan hebben. Het voordeel van die Synology nassen is vooral dat ze out of the box meteen werken. Voor de hobby lijkt het me leuker om een zfs-machine te bouwen (ga ik nu ook doen).
Dat ben ik helemaal met je eens, mijn ZFS bak staat dan ook hier naast me vrolijk te snorren (gelukkig redelijk onhoorbaar) :)

Acties:
  • 0 Henk 'm!

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 13:24
Sleepie schreef op dinsdag 30 augustus 2011 @ 17:21:
[...]

Dat denk ik ook inderdaad.
Waar het mij eigenlijk puur om ging is of je die Areca uit de zelfbouw server van Freak per se nodig hebt om zoveel schijven aan te kunnen sturen. Of dat dat misschien op een goedkopere manier kan, zoals misschien (waarschijnlijk) de Synology ook doet.
Allemaal uit het oogpunt het verschil zo klein mogelijk en het vergelijk zo eerlijk mogelijk te maken.

[...]

Dat ben ik helemaal met je eens, mijn ZFS bak staat dan ook hier naast me vrolijk te snorren (gelukkig redelijk onhoorbaar) :)
Zo denk ik er idd ook over maar kreeg geen reactie meer :)

Leg dezelfde eisen op voor de DIY NAS als voor de synology, daar zit ook geen hw raid controller in van 1000+ euro.
Enkel zo is het vergelijkbaar imho.

Niet te min is het leuk te zien hoe een HW raid versie ernaast zou presteren.
Misschien kan er iemand een vergelijkbare softraid setup naast plaatsen?

[ Voor 3% gewijzigd door BlackShadow op 30-08-2011 21:24 ]


Acties:
  • 0 Henk 'm!

  • robertobadjo
  • Registratie: Maart 2002
  • Laatst online: 07-04 13:06
ik denk dat het nog niet zozeer gaat om of het nou software raid of hardware raid is maar de performance tussen de 2 systemen. freak1 laat volgens mij buiten de beschouwing of het nou ZFS of mdam of een areca 1280 is.

mss beetje appels met peren vergelijken maar goed vind wel dat je daar met een knipoog naar moet kijken.

wat ik wel vind is dat freak1 aantoont dat je niet complexe DIY NAS hoeft te bouwen maar ook out of the box kan. met dit soort prijzen van duizenden euro's kan je voor jezelf wel nagaan dat je dat maar 1 keer kan uitgeven. wil je meer tweaken zal de neiging ook uitgaan naar DIY. wil je out of the box kies je voor synology of iets vergelijksbaar.

plus niet te vergeten dat de energie rekening nu ook wel iets omlaag zal gaan. ook niet geheel belangrijk lijkt mij.

@freak1: keep up the good work. vond het heerlijk om je bevindingen te lezen in het 10+TB topic en dat je dit weer doet verdient een pluim _/-\o_ d:)b

[ Voor 8% gewijzigd door robertobadjo op 30-08-2011 22:33 ]

Suggesties wat hier te plaatsen


Acties:
  • 0 Henk 'm!

  • Sneezydevil
  • Registratie: Januari 2002
  • Laatst online: 28-11-2024
Ik ga dit topic ook volgen, ik ben vooral benieuwd naar de performance, vond het namelijk wel jammer dat de 10GbE resultaten op de site van synology, met allemaal SSD's zijn behaald.

Acties:
  • 0 Henk 'm!
ik heb even een lees dit eerst toegevoegd :)
leuk dat ZFS en dergelijke, maar kijk eens in het storage showoff topic.. 7 van de top 10 gebruikt daar een areca met windows, maar 1 van de top 10 gebruikt zfs.. dat zegt wel genoeg denk ik. als je dit geld kapot te slaan hebt, moet je wel een echte tweaker zijn wil je dan ook nog voor ZFS gaan. mijn persoonlijke mening is dat het al heel snel een schoenmaker blijf bij je leest verhaal wordt. je kent hardware raid, je kent windows, dus dat gebruik je...
daar is mijn vergelijking dan ook op gebaseerd...

als iemand een zfs benachmark publiceerd, dan doe ik er met liefde een op de synology en mijn hardware raid controller :)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

(jarig!)
leuk topic freak1, even over die schroevjes aan de onderkant van de drivebays dat hebben mijn addonics ook.

plus ik heb mijn beide areca kaarten via ebay gekocht voor 300 en 400 dollar voor de 12 en 16 poort, dus het hoeft allemaal niet zo duur.
en zijn allebei sata en geen sas expanders

dat je allemaal server grade spul wil, mainboard enzo en harddisks moet je helemaal zelf weten maar ik kan prima uit de voeten met mijn samsung spinpoints

[ Voor 61% gewijzigd door thalantis op 31-08-2011 08:46 ]

Jsunnyreports


Acties:
  • 0 Henk 'm!

  • Sneezydevil
  • Registratie: Januari 2002
  • Laatst online: 28-11-2024
Even je "Lees dit eerst" gelezen, en ik moet zeggen dat ik inderdaad erg verbaasd was hoeveel mensen in het 10TB+ topic hardware raid, met windows gebruiken. Misschien komt het wel omdat ik dagelijks met (l)unix werk, waardoor het voor mij vanzelfsprekend is, en dat het me daarom zo verbaasde.

Zelf ben ik bezig met het opzetten van een zfs server, daarom dat ik ook erg benieuwd ben naar jouw resultaten.

Acties:
  • 0 Henk 'm!

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 15:43

Femme

Hardwareconnaisseur

Official Jony Ive fan

freak1 schreef op woensdag 31 augustus 2011 @ 08:21:
ik heb even een lees dit eerst toegevoegd :)
leuk dat ZFS en dergelijke, maar kijk eens in het storage showoff topic.. 7 van de top 10 gebruikt daar een areca met windows, maar 1 van de top 10 gebruikt zfs.. dat zegt wel genoeg denk ik. als je dit geld kapot te slaan hebt, moet je wel een echte tweaker zijn wil je dan ook nog voor ZFS gaan. mijn persoonlijke mening is dat het al heel snel een schoenmaker blijf bij je leest verhaal wordt. je kent hardware raid, je kent windows, dus dat gebruik je...
daar is mijn vergelijking dan ook op gebaseerd...
Als je bijna 5K kunt stukslaan op een opslagserver kun je met ZFS leuke dingen doen met ssd-caching en hou je ook nog wel geld over voor snellere netwerktechniek dan gigabit ethernet. Harde schijven zijn traag, hoe je het went of keert. Voor massa-opslag van films maakt dat niet zoveel uit maar als je de opslagserver wil gebruiken als vervanging voor lokale storage is ssd-achtige performance wel gewenst en ben je beter uit met ssd-caching. Dat kan betaalbaar dmv ZFS of door een raidcontroller met ondersteuning voor caching (Adaptec MaxCache of LSI CacheCade) te gebruiken.

Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

(jarig!)
ben een van de 7 :) ja ik gebruik windows omdat dit makkelijk is enzo

heb wel linux geprobeerd maar vind toch windows makkelijker met sabnzbd en tvix net share en wuala voor de online backup van mij foto's

Jsunnyreports


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 11-08-2024
thalantis schreef op woensdag 31 augustus 2011 @ 09:55:
ben een van de 7 :) ja ik gebruik windows omdat dit makkelijk is enzo

heb wel linux geprobeerd maar vind toch windows makkelijker met sabnzbd en tvix net share en wuala voor de online backup van mij foto's
Same here :)

Ik ben wel bekend met Linux, maar Windows gaat me toch iets beter af. Gezien de hoeveelheid data will ik er zeker van zijn dat ik problemen kan oplossen wanneer deze zich voordoen, en het liefst zonder tussenkomst van een producent en/of leverancier... Daarom zal ik nooit voor iets gaan als Synology.

[ Voor 10% gewijzigd door brederodekater op 31-08-2011 10:33 ]


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

freak1 schreef op woensdag 31 augustus 2011 @ 08:21:
ik heb even een lees dit eerst toegevoegd :)
leuk dat ZFS en dergelijke, maar kijk eens in het storage showoff topic.. 7 van de top 10 gebruikt daar een areca met windows, maar 1 van de top 10 gebruikt zfs.. dat zegt wel genoeg denk ik.
Dat zegt geen ene drol, dat topic is lang niet representatief voor de hele wereld, zelfs niet voor heel GoT. Lang niet iedereen heeft de behoefte zijn systeem te showen in een dergelijk topic.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • MadMike261
  • Registratie: Januari 2011
  • Laatst online: 25-11-2021
Femme schreef op woensdag 31 augustus 2011 @ 08:54:
[...]


Als je bijna 5K kunt stukslaan op een opslagserver kun je met ZFS leuke dingen doen met ssd-caching en hou je ook nog wel geld over voor snellere netwerktechniek dan gigabit ethernet. Harde schijven zijn traag, hoe je het went of keert. Voor massa-opslag van films maakt dat niet zoveel uit maar als je de opslagserver wil gebruiken als vervanging voor lokale storage is ssd-achtige performance wel gewenst en ben je beter uit met ssd-caching. Dat kan betaalbaar dmv ZFS of door een raidcontroller met ondersteuning voor caching (Adaptec MaxCache of LSI CacheCade) te gebruiken.
Dat gevoel heb ik ook :)
Maar hij wil specifiek een out-of-the-box oplossing en dan word het anders.

Maar deze topic is zeker interessant om te volgen!
Voor een aantal mensen zal de vergelijking tussen een synoligy en zelfbouw zeker van toepassing zijn. Misschien niet op een extreme manier als deze maar toch zeker interresant.

Persoonlijk ben ik vooral benieuwd naar je IOPS ervaringen. HDD's zijn en blijven nou eenmaal traag op dat gebied. En mijn persoonlijke ervaring met VM's die draaien op RAID arrays zijn om te huilen (misschien moet ik niet vergelijken met mn VM's die op een SSD draaien). Maar ik lees graag jou ervaringen met een wat extremere versie als wat ik zelf draai. (6x 2TB in RaidZ 2 (ZFS Raid 6))

Acties:
  • 0 Henk 'm!

  • Brains
  • Registratie: Oktober 2006
  • Laatst online: 04-03-2024
Ik plaats mezelf in hetzelfde schuitje als Freak1.
Ik wil een eenvoudig en uitbreidbaar SAN hebben en dan met relatief hoge IOPS. Met hardware raid kom je dan bij SAS-controllers met expanders, Adaptec en LSI hebben daar een uitbreiding op met SSD cache.
Met minder geavanceerde hardware en slimme software, zoals ZFS, kan hetzelfde bereikt worden. Alleen moet daar zelf wat aan gedaan worden. En daar begint het bij mij te knagen.

Hoe ver wil je de technologie in duiken om een bepaald niveau te behalen en wat zijn de risico's wanneer het fout gaat. Het is afweging of je het zelf gaat doen mbv ZFS of het overlaat aan een andere partij als Synology.

Acties:
  • 0 Henk 'm!

  • sukosevato
  • Registratie: December 2010
  • Laatst online: 22-04 19:32
Freak1, wat voor internet verbinding heb jij? 8)7

ik zit hier op een 4 mbit verbinding. Let's do the math, 40TB met 500 kb /s binnen halen.

ongeveer 926 dagen non stop downloaden 8)7

En wat heb je precies aan 4 gigabit aansluitingen? Ik kan me voorstellen dat het nuttig is als 4+ gebruikers tegelijkertijd er data vanaf willen halen (enkele pc heeft maar 1 gigabit aansluiting over het algemeen) Maar ik denk dat je eerder gaat streamen vanaf zo'n systeem dan de films er af kopieren met 100 MB / s. En streamen heb je veel minder voor nodig dus dan heb je aan een gigabit toch ook al meer dan genoeg?

En stel je hebt een 10 gigabit aansluiting. Waar ga je dit op aansluiting? :9 10 Gigabit routers zijn nergens te vinden atm. Maar je kan vast ergens server grade routers vandaan halen die dat wel aan kunnen.

Des al niet te min, lijkt het mij dat je vooral vanaf zulke opslag gaat streamen en dan lijkt me 10 gigabit al helemaal overbodig tenzij je je series en films met de hele buurt deelt :o

Verder, hulde hiervoor _/-\o_ Ik zie me zelf dit ook nog wel eens doen. Ben nu net 19 en heb zelf ook al een dikke 3,5T aan films en series en mijn 4mbit verbinding wordt 's nachts helemaal volgetrokken :P

Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 14:59
Zer0 schreef op woensdag 31 augustus 2011 @ 10:44:
[...]

Dat zegt geen ene drol, dat topic is lang niet representatief voor de hele wereld, zelfs niet voor heel GoT. Lang niet iedereen heeft de behoefte zijn systeem te showen in een dergelijk topic.
Er staat toch ook niet dat hij de hele wereld wilt vertegenwoordigen? hij doet enkel en alleen de vergelijking voor hemzelf, en deelt dit met ons :)

@freak1: Waarom heb je voor de DS3611XS gekozen? In de PW staat ook een DS2411+ die hetzelfde doet als ik me niet vergis. Daarom benieuwd, waarom je dan 900 euro extra hebt uitgegeven. Er zit ongetwijfeld verschil in het binnenwerk.

Ga je gebruik maken van de 10GBe?

bl44t


Acties:
  • 0 Henk 'm!
YaaD schreef op woensdag 31 augustus 2011 @ 12:25:
[...]


Er staat toch ook niet dat hij de hele wereld wilt vertegenwoordigen? hij doet enkel en alleen de vergelijking voor hemzelf, en deelt dit met ons :)

@freak1: Waarom heb je voor de DS3611XS gekozen? In de PW staat ook een DS2411+ die hetzelfde doet als ik me niet vergis. Daarom benieuwd, waarom je dan 900 euro extra hebt uitgegeven. Er zit ongetwijfeld verschil in het binnenwerk.

Ga je gebruik maken van de 10GBe?
goeie vraag!
de ds3611xs kan 2 uitbreidings units aan, de ds2411+ kan er maar 1 aan. ook kan de ds3611xs meer geheugen aan, dus als ik dingen als newznab ga draaien is dat wel handig. ook qua futureproof kan ik aan de ds3611xs nog stevigere netwerkkaarten toevoegen.
momenteel ga ik de 10gbe niet gebruiken, maar wie weet in de toekomst. ik wil het iig wel kunnen.

en 900 euro meer. tja, wat zo klote is is dat als je je oplossing hebt gekozen, en je wilt verder uitbreiden, en je kunt eigenlijk weer opnieuw beginnen omdat je er toen niet goed over hebt nagedacht..
vergeet niet dat ik momenteel ook een 24 disk raid 6 array vol heb, dus als ik die synology inricht met 1 uitbreidingsbay, zit hij eigenlijk meteen "vol". daarom de mogelijkheid voor 2e bay.
Femme schreef op woensdag 31 augustus 2011 @ 08:54:
[...]


Als je bijna 5K kunt stukslaan op een opslagserver kun je met ZFS leuke dingen doen met ssd-caching en hou je ook nog wel geld over voor snellere netwerktechniek dan gigabit ethernet. Harde schijven zijn traag, hoe je het went of keert. Voor massa-opslag van films maakt dat niet zoveel uit maar als je de opslagserver wil gebruiken als vervanging voor lokale storage is ssd-achtige performance wel gewenst en ben je beter uit met ssd-caching. Dat kan betaalbaar dmv ZFS of door een raidcontroller met ondersteuning voor caching (Adaptec MaxCache of LSI CacheCade) te gebruiken.
klopt helemaal! maar dan komt mijn primaire punt weer naar boven, ik weet vrijwel niets van linux.. dat maakt ZFS voor mij complex, en onbekend maakt onbemind. dat het beter zal presteren ben ik ondertussen van overtuigd. ik zou mij er echter niet prettig bij voelen dat mijn teerbeminde ( :') ) data op een systeem staat dat ik eigenlijk niet snap..
verder heb je natuurlijk volkomen gelijk met je punt. echter is dat ook overduidelijk niet de insteek van mijn topic ;)
Zer0 schreef op woensdag 31 augustus 2011 @ 10:44:
[...]

Dat zegt geen ene drol, dat topic is lang niet representatief voor de hele wereld, zelfs niet voor heel GoT. Lang niet iedereen heeft de behoefte zijn systeem te showen in een dergelijk topic.
azijnpissen kunnen we allemaal.
ik haal dat topic aan omdat dat het enige topic is op GOT waar dergelijke systemen worden geshowed. als mensen hun systeem niet showen doen ze niet mee aan statistiek.
het wordt dan erg makkelijk om te roepen dat het niet representatief is.

ik beroep mij op de beschikbare data, met verwijzing erbij, daar zul je het mee moeten doen. vind je het niet representatief, het is een discussie topic, dus kom maar op.. of zoals het in de advocatuur heet, wie eist, bewijst :)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 14:59
freak1 schreef op woensdag 31 augustus 2011 @ 12:30:
[...]

goeie vraag!
de ds3611xs kan 2 uitbreidings units aan, de ds2411+ kan er maar 1 aan. ook kan de ds3611xs meer geheugen aan, dus als ik dingen als newznab ga draaien is dat wel handig. ook qua futureproof kan ik aan de ds3611xs nog stevigere netwerkkaarten toevoegen.
momenteel ga ik de 10gbe niet gebruiken, maar wie weet in de toekomst. ik wil het iig wel kunnen.

en 900 euro meer. tja, wat zo klote is is dat als je je oplossing hebt gekozen, en je wilt verder uitbreiden, en je kunt eigenlijk weer opnieuw beginnen omdat je er toen niet goed over hebt nagedacht..
vergeet niet dat ik momenteel ook een 24 disk raid 6 array vol heb, dus als ik die synology inricht met 1 uitbreidingsbay, zit hij eigenlijk meteen "vol". daarom de mogelijkheid voor 2e bay.
Goed punt. Maar je verwacht dus nog verder uit te gaan breiden dan je nu al hebt? Je gaf zal in het topic aan dat je namelijk een 2TB model kan vervangen voor een 3TB. Als je dat zou doen, met bijvoorbeeld de DS2411+, dan heb je maar liefst 24TB "ruimte" waar je nog naar kan uitbreiden. Is dat zelfs niet future proof?

Ik zal het eens uitrekenen

Een DX1211 kost 950 euro, daar passen 12 schijven in van 2TB, deze kosten rond de 60 euro.
Maakt, een uitbreiding van 24TB totale kosten 1700 euro.

Als je zou upgraden naar 3TB a 114 euro de stuk (goedkoopste) en dus in totaal ook dezelfde capaciteit hebt, gaat je dat 2750 euro kosten ongeveer.

Maar aangezien de DS2411+ 900 euro goedkoper is, bespaar je 100 euro met je huidige aanschaf.
Dan heb ik de verkoop van de 2TB schijven, die je dan vervangt nog niet meegenomen in de kosten.

Ik denk zelf dat je met de 3TB oplossing qua verbruik wel iets lager uit zou komen. Alleen beperk je jezelf dan wel tot "slechts" 24 bays. Maar goed, als dat een beperking is; dan is het einde wel goed zoek bij jou O+

bl44t


Acties:
  • 0 Henk 'm!
haha, ik zie dat dus wel als een beperking.. :P
ik heb nu natuurlijk een hele lading schijven al liggen, dus dat kost me niets extra's ;)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 20-04 13:54

Wouter.S

e^(i*pi ) +1 = 0

YaaD schreef op woensdag 31 augustus 2011 @ 12:45:
[...]


Goed punt. Maar je verwacht dus nog verder uit te gaan breiden dan je nu al hebt? Je gaf zal in het topic aan dat je namelijk een 2TB model kan vervangen voor een 3TB. Als je dat zou doen, met bijvoorbeeld de DS2411+, dan heb je maar liefst 24TB "ruimte" waar je nog naar kan uitbreiden. Is dat zelfs niet future proof?

Ik zal het eens uitrekenen

Een DX1211 kost 950 euro, daar passen 12 schijven in van 2TB, deze kosten rond de 60 euro.
Maakt, een uitbreiding van 24TB totale kosten 1700 euro.

Als je zou upgraden naar 3TB a 114 euro de stuk (goedkoopste) en dus in totaal ook dezelfde capaciteit hebt, gaat je dat 2750 euro kosten ongeveer.

Maar aangezien de DS2411+ 900 euro goedkoper is, bespaar je 100 euro met je huidige aanschaf.
Dan heb ik de verkoop van de 2TB schijven, die je dan vervangt nog niet meegenomen in de kosten.

Ik denk zelf dat je met de 3TB oplossing qua verbruik wel iets lager uit zou komen. Alleen beperk je jezelf dan wel tot "slechts" 24 bays. Maar goed, als dat een beperking is; dan is het einde wel goed zoek bij jou O+
Hij gaf toch al aan dat de benodigde ruimte zal blijven groeien dus in zijn opzicht is het beperken van maximale aantal schijven een serieuze beperking die je jezelf oplegt. Nu kan hij die tweede uitbreiding nog vullen met 2TB schijven en pas later beginnen met grotere schijven. Waarschijnlijk zijn er dan 4TB+ schijven op de markt dan kan je de 3TB generatie overslaan.
Wat hij zelf hierboven zegt dus :P

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 14:59
Wouter.S schreef op woensdag 31 augustus 2011 @ 13:02:
[...]

Hij gaf toch al aan dat de benodigde ruimte zal blijven groeien dus in zijn opzicht is het beperken van maximale aantal schijven een serieuze beperking die je jezelf oplegt. Nu kan hij die tweede uitbreiding nog vullen met 2TB schijven en pas later beginnen met grotere schijven. Waarschijnlijk zijn er dan 4TB+ schijven op de markt dan kan je de 3TB generatie overslaan.
Wat hij zelf hierboven zegt dus :P
Begrijp ik, maar ik vond het even leuk om de vergelijking te trekken. Maar goed, als je jezelf geen beperkingen oplegt, dan is het einde toch zoek? :+

Maar als beperking van het maximaal aantal schijven, dan is 36 bays toch ook simpelweg niet genoeg? Op die manier is het einde zoek natuurlijk :)

Afin als je het kunt betalen en je het leuk vindt, moet je zeker blijven doen wat je leuk vindt natuurlijk.

freak1, zou jij, als je daar aan toe bent en alles lekker werkt, misschien eens 2x1gbit snelheden kunnen posten? Op die manier hoop ik te kunnen vergelijken wat het verschil tussen jouw DS3611xs en de DS2411 is. Ik hoop dat het verschil is te verwaarlozen, anders moet ik maar eens bedenken waarom ik 900 euro extra uitgeef. Tot op heden is me dat nog niet gelukt :+

bl44t


Acties:
  • 0 Henk 'm!

  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 08:01
Cool om ook eens zulke dikke Synology's te zien. Moet zeggen dat ik niet van jou had verwacht dat je van de zelfbouw af zou stappen trouwens :P
Waarmee haal jij die 402 MBps doorvoer? Simultaneous transfers over netwerk shares?

Ergens ben ik het wel met je eens dat Windows + Areca 'standaard' is (ik ben die ene gek die je in de TS aanhaalt met 40TB ZFS), maar ik ben meer nog dan jij overtuigd dat er geen beter cost-efficient alternatief is dan ZFS.
Ik gebruik 20 'desktop' schijven en heb in een jaar tijd NUL uitval gehad. Ik heb geen dure Areca. De box is in een jaar tijd enkel opnieuw gestart nadat ik een kernel upgrade deed omdat ik een nieuwe feature (VIMAGE) wou proberen. Dat was een keer of 5 op een enkele dag, de rest van het jaar 24/7 uptime. Waarschijnlijk is dit te danken aan het megastabiele G32 platform. Desondanks denk ik dat met een simpele 1155 opstelling je net zoveel kunt bereiken. Het kostenplaatje wordt dan toch wel een stuk aanlokkelijker:

Edit: >> meh ignore this, post hieronder is veel interessanter :P

Nu zit ik nog onder de 2500 en ik denk niet dat je qua performance ook maar iets te klagen zult hebben. De behuizing en voeding kunnen best goedkoper.

[ Voor 10% gewijzigd door zzattack op 31-08-2011 13:38 ]


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
freak1 schreef op dinsdag 30 augustus 2011 @ 14:31:
Ik zal je een keurige reactie geven, maar op voorhand ga ik zeggen dat je niet alles goed hebt gelezen;
Eerlijk is eerlijk: hier heb je 100% gelijk in. Ik was nog maar half wakker en ik dacht dat je je NAS systeem 1:1 wou vergelijken met alleen maar de DS3611xs.
Mijn excuses hiervoor. Ik heb nu het e.e.a. beter gelezen en heb alsnog een systeem op basis van gewone x86 hardware waarvan ik denk dat deze goedkoper en beter uit te breiden valt dan je Synology oplossing.
freak1 schreef op dinsdag 30 augustus 2011 @ 14:31:
helemaal niet.
ik heb een enterprise bord nodig ivm de dubbele PCI-E X8 poorten en de bijbehorende garantie en mogelijkheden (IPMI e.d.) daar hoort een enterprise proc bij. dat is geen keus, dat is een must. die proc koste me een goede 900 euro. daar trek ik 500 euro vanaf want ik had ook een instap proc kunnen nemen. een normale proc die je in dat systeem stopt wil je energiezuinig zijn kost je 400 euro.
dat deze proc niet dezelfde performance geeft als een I3, meer of minder, doet niet ter zake. ik heb simpelweg dat type proc nodig in die prijsklasse om mijn systeem te laten werken.
Die Synology's hebben AFAIK ook geen IPMI maar je hebt inderdaad wel behoefte aan minstens 2 PCI-E 8X slots en goede kwaliteit. Die kan je ook in mijn onderstaande config terugvinden.
Wat ik wel heb gedaan om de vergelijking eerlijk te houden is nieuwe hardware gekozen op basis van Intel ipv AMD.
freak1 schreef op dinsdag 30 augustus 2011 @ 14:31:
8 GB moet in dat ding om Server 2008 R2 fatsoenlijk te laten werken met grote volumes. in de DS3611XS zit overigens 6GB maargoed. die 6GB is overkill, 2 GB was voldoende geweest, omdat het een ander type systeem is.
Die Synology's doen ook geen virtualisatie en je bent zelfs erg beperkt in wat je van bijkomstige software er op wil draaien. Dat vind ik dus geen eerlijk vergelijk.
In mijn setup is er per systeem 4GB ram, maar er is ruimte tot 32GB per host.
Verder is volgens de spec pagina 2GB het standaard aantal GB geheugen in de DS3611xs.
freak1 schreef op dinsdag 30 augustus 2011 @ 14:31:
bootschijven?
aangezien de Synology een ingebouwde module heeft om DSM op te draaien hoeven daar geen velociraptors in.
Die hebben je Synology's toch ook niet? Je kan ook het OS, net zoals de ingebouwde module in de Synology's vanaf flashgeheugen draaien. Dit is geen eerlijk vergelijk want je hebt nooit zoveel ruimte en IOS vanaf flash dan bij een raptor disk.
freak1 schreef op dinsdag 30 augustus 2011 @ 14:31:
heb je zelf enige ervaring met zelfbouw NAS systemen? staggered spinup is leuk, maar de load op je power lines is hoog. ik had gewoon flinke amps nodig op mijn 12 volt lines, klaar. dat leverde deze voeding. ja dat had ik ook gekund met een 800 watt voeding, maar dat zou kosten technisch niet veel hebben uitgemaakt. let er ook op dat ik met dit systeem dus ook rekening hou met groei tot 36 schijven.
Dat wist ik niet. Je vergelijkt wel 1 groot systeem waar bijna 40 hdd's in zijn met 3 aparte systemen in een soort van cluster. Dat maakt het vergelijken ook niet echt makkelijk. Ik heb hiervoor 2 systemen verbonden met infiniband (wat Synology ook gebruikt) met aparte 750W voedingen. Mochten deze niet voldoen kan je voor een paar tientjes meer nog zwaardere nemen.
freak1 schreef op dinsdag 30 augustus 2011 @ 14:31:
heb je überhaupt de motivatie daarachter gelezen? bij de Areca had ik heel erg graag consumenten schijven willen gebruiken, maar dat was gewoon geen optie met hardware raid. daar heb ik nu eindelijk keus in. dus ja, heel eerlijke vergelijking.
Mea culpa, weer iets met lezen enzo :) Met mijn config kan je iig ook consumer disks van 60 EUR nemen
freak1 schreef op dinsdag 30 augustus 2011 @ 14:31:
ik stel voor dat je alles nogmaals leest, en dan je vragen herformuleerd.
ik had ook 2 identieke systemen kunnen vergelijken, maar dan is de uitkomst zo makkelijk. ze zijn beide hetzelfde.
het gaat nu om twee heel verschillende systemen, dit uiteindelijk hetzelfde doel dienen. welk doel? zie OP.
Goed, dan hier het beloofde systeem. Wat voldoet aan:
  • Plaats voor in totaal 28 hdd's. Dit *2TB kom je aan 56TB bruto storage
  • 4GB ethernet adapter
  • 5,25" hot swap bays (die ik zinloos vind in een thuissituatie en de kosten de hoogte injagen maar eerlijk is eerlijk)
  • server-class hardware waar je de vrijheid op / mee hebt om aan virtualisatie te doen, elke software te draaien en naar eigen smaak je OS kan inrichten
Indien ik nog wat vergeten ben of iets niet compatible oid is, shoot :)

#ProductPrijsSubtotaal
1Intel PRO/1000 PT Quad Port Server Adapter (4x1000Mbps, PCI-e)€ 344,50€ 344,50
26Western Digital Caviar GreenPower WD20EARS, 2TB€ 59,90€ 1.557,40
2Sharkoon Rebel9 Pro Value€ 54,-€ 108,-
2Intel RAID Controller SASUC8I€ 124,02€ 248,04
2Intel Core i3 2100€ 92,-€ 184,-
2Cooler Master GX 750W€ 79,83€ 159,66
2Kingston KVR1333D3D8R9S/4G€ 33,90€ 67,80
2Supermicro X9SCL-F€ 153,90€ 307,80
Bekijk collectie
Importeer producten
Totaal€ 2.977,20


Bijkomstig:

2 * PCI-E 8X Infiniband 10G adapters + 10M kabel: ~250 EUR
6 * 5,25 -> 3,25" adapters ~ 420 EUR

inventaris: freak1

Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

(jarig!)
vraagje, ga je die 2 kasten aan elkaar modden of word het een mirror?

Jsunnyreports


Acties:
  • 0 Henk 'm!

  • et36s
  • Registratie: Maart 2001
  • Laatst online: 11-03 20:52
En dan loop ik al een tijd te twijfelen of ik mijn 5.4TB na de 10+ moet upgraden. In jou collectie zou ik wel een keer willen snuffelen ^^ Succes met je build.

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
thalantis schreef op woensdag 31 augustus 2011 @ 13:42:
vraagje, ga je die 2 kasten aan elkaar modden of word het een mirror?
Apart laten en de storage van de "slave" server (die zonder 4 * gbit PCI-E nic) doorsluizen via Infiniband volgens ISCSI, omdat ik vermoed dat dat het snelste protocol hiervoor zal zijn.

Acties:
  • 0 Henk 'm!

  • YaaD
  • Registratie: April 2005
  • Laatst online: 14:59
zzattack schreef op woensdag 31 augustus 2011 @ 13:25:
Cool om ook eens zulke dikke Synology's te zien. Moet zeggen dat ik niet van jou had verwacht dat je van de zelfbouw af zou stappen trouwens :P
Waarmee haal jij die 402 MBps doorvoer? Simultaneous transfers over netwerk shares?

Ergens ben ik het wel met je eens dat Windows + Areca 'standaard' is (ik ben die ene gek die je in de TS aanhaalt met 40TB ZFS), maar ik ben meer nog dan jij overtuigd dat er geen beter cost-efficient alternatief is dan ZFS.
Ik gebruik 20 'desktop' schijven en heb in een jaar tijd NUL uitval gehad. Ik heb geen dure Areca. De box is in een jaar tijd enkel opnieuw gestart nadat ik een kernel upgrade deed omdat ik een nieuwe feature (VIMAGE) wou proberen. Dat was een keer of 5 op een enkele dag, de rest van het jaar 24/7 uptime. Waarschijnlijk is dit te danken aan het megastabiele G32 platform. Desondanks denk ik dat met een simpele 1155 opstelling je net zoveel kunt bereiken. Het kostenplaatje wordt dan toch wel een stuk aanlokkelijker:

20x 60 euro voor hdd's
600 euro voor een behuizing, zij het een 19" rack, danwel een groot blok met hotswap bays
300 euro proc+bord
150 euro RAM (16gb eec (ICIDU) vindt ZFS wel lekker)
100 euro voor opstart/programmas SSDtje
100 euro voeding

Nu zit ik nog onder de 2500 en ik denk niet dat je qua performance ook maar iets te klagen zult hebben. De behuizing en voeding kunnen best goedkoper.
Ik ga freak1 niet verdedigen maar vindt het wel leuk om er even op in te gaan. Er zullen ongetwijfeld goedkopere alternatieven zijn en die van jou is natuurlijk een prima optie. Alleen als ik zijn TS eens doorlees zie ik dit:
realiseer je goed dat veel mense met dit soort grote storage systemen helemaal geen zin hebben om na alle tijd en geld die uberhaupt in het bouwen is gestoken, dan ook nog eens een heel nieuw bestandssysteem\software raid systeem te leren kennen. alle verandering is goed, zolang alles maar hetzelfde blijft..
is mijn vergelijking 100% eerlijk? nee. ik vergelijk een groot storage systeem van een luilak met een out-of-the-box syteem voor een luilak. niets meer, niets minder.
Het is ook maar de vraag; zijn dergelijke oplossingen ook daadwerkelijk beter?

bl44t


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
En ik maar denken dat ik een klap van de molen heb gehad met m'n QNAP TS-459 Pro+ met 4*2TB schijven.
Vroeger bouwde ik ook altijd zelf m'n NAS-en, maar was daar nu uiteindelijk voor eens en altijd helemaal mee klaar.

Zijn er nu nog echt voordelen met je infiniband connecties tov 10Gb ethernet adapters?

De QNAP TS-1079 Pro zou met een 10Gb ethernet zo'n 1619/1393 MB/s (read/write) halen en 163.392/140.272 IOPS (read/write).
En dan gaat het hier 'nog maar' om één box.

Acties:
  • 0 Henk 'm!

  • dvl-2
  • Registratie: Mei 2005
  • Laatst online: 09-04 05:29
Ik zal de komende tijd zeer zeker dit topic blijven volgen, zelf ook grootdatabezitter (32tb) en ruimtegebrek. Die synology oplossingen hebben me nog nooit kunnen overtuigen, voor mn gevoel is een DIY oplossing nog altijd goedkoper (ook met areca/HW-raid controllers), naast het feit dat het ook veel leuker is +)

Acties:
  • 0 Henk 'm!
sloth schreef op woensdag 31 augustus 2011 @ 13:27:
[...]


Eerlijk is eerlijk: hier heb je 100% gelijk in. Ik was nog maar half wakker en ik dacht dat je je NAS systeem 1:1 wou vergelijken met alleen maar de DS3611xs.
Mijn excuses hiervoor. Ik heb nu het e.e.a. beter gelezen en heb alsnog een systeem op basis van gewone x86 hardware waarvan ik denk dat deze goedkoper en beter uit te breiden valt dan je Synology oplossing.
dank, hier kan ik wat mee :)
[...]


Die Synology's hebben AFAIK ook geen IPMI maar je hebt inderdaad wel behoefte aan minstens 2 PCI-E 8X slots en goede kwaliteit. Die kan je ook in mijn onderstaande config terugvinden.
Wat ik wel heb gedaan om de vergelijking eerlijk te houden is nieuwe hardware gekozen op basis van Intel ipv AMD.
synologys hebben een rapportage mogelijkheid via mail, en de IPMI is zeg maar de DSM. ook is er een aparte tool waarmee je de Synology kan beheren dmv o.a. IOS e.d.
[...]


Die Synology's doen ook geen virtualisatie en je bent zelfs erg beperkt in wat je van bijkomstige software er op wil draaien. Dat vind ik dus geen eerlijk vergelijk.
In mijn setup is er per systeem 4GB ram, maar er is ruimte tot 32GB per host.
Verder is volgens de spec pagina 2GB het standaard aantal GB geheugen in de DS3611xs.
beperkt beperkt.. valt wel mee, het is een embedded linux. verder heb ik een lijstje eisen en daar voldoet de synology perfect aan. ik zie dat geen beperking. ze doen idd geen virtualsiatie, maar bieden wel een platform ervoor. dat is voldoende voor mij. ik vergelijk verder nu wat ik op mijn huidige server doe tegenover wat hij moet gaan doen. ik wil niet vergelijken met wat hij mogelijk nog meer kan, want dat interesseerd me niet. ik moet zonder verlies van functionaliteit over kunnen, en dat kan.
[...]


Die hebben je Synology's toch ook niet? Je kan ook het OS, net zoals de ingebouwde module in de Synology's vanaf flashgeheugen draaien. Dit is geen eerlijk vergelijk want je hebt nooit zoveel ruimte en IOS vanaf flash dan bij een raptor disk.
windows vanaf een flash disk is bagger. verder moet je dan 50 gb aan flash geheugen erin stoppen, en voor die 120 euro maakt dat geen fluit uit.
[...]


Dat wist ik niet. Je vergelijkt wel 1 groot systeem waar bijna 40 hdd's in zijn met 3 aparte systemen in een soort van cluster. Dat maakt het vergelijken ook niet echt makkelijk. Ik heb hiervoor 2 systemen verbonden met infiniband (wat Synology ook gebruikt) met aparte 750W voedingen. Mochten deze niet voldoen kan je voor een paar tientjes meer nog zwaardere nemen.
oneens. het is 1 systeem, met daaraan 2 losse drive bays. daar staat geen OS op of wat dan ook. jij pakt 2 losse sytemen, met losse OS-en. mijn eis was 1 geintegreerd systeem. met liefde duct-tape ik ze aan elkaar om het 1 kast te maken, het is uiteindelijk 1 systeem. dat er 2 X 12 disks los hangen in een losse behuizing maakt niet uit.. zie het als een E-sata bay.
[...]


Mea culpa, weer iets met lezen enzo :) Met mijn config kan je iig ook consumer disks van 60 EUR nemen


[...]


Goed, dan hier het beloofde systeem. Wat voldoet aan:
  • Plaats voor in totaal 28 hdd's. Dit *2TB kom je aan 56TB bruto storage
  • 4GB ethernet adapter
  • 5,25" hot swap bays (die ik zinloos vind in een thuissituatie en de kosten de hoogte injagen maar eerlijk is eerlijk)
  • server-class hardware waar je de vrijheid op / mee hebt om aan virtualisatie te doen, elke software te draaien en naar eigen smaak je OS kan inrichten
Indien ik nog wat vergeten ben of iets niet compatible oid is, shoot :)
je raid adapter doet alleen raid 0, raid 1 of raid 1+0. dus aangezien mijn eis is dat ik redundant wil kunnen zijn, blijft mij raid1+0 over. dat houdt in dat het 28 tb aan bruikbare storage is. dat is te weinig.
je hardware is niet server class. zo mis ik ECC geheugen, en qua cores is het bij lange na niet voldoende om te virtualiseren. zowel mijn synolgy als mijn huidige server heeft ecc.

ik vind je vergelijking iig een hele goede eerste poging. veel mensen in het 10TB+ storage topic komen niet zo ver met een eerste poging. wel voldoe je niet aan de eisen die ik stel. je hebt er meerdere systemen van gemaakt, ik mis out of band management, ik mis 40 TB+ inclusief redundantie. de oplossing die je aandraagt is wat mij betreft nodeloos complex, en beslaat meerdere losse systemen.
#ProductPrijsSubtotaal
1Intel PRO/1000 PT Quad Port Server Adapter (4x1000Mbps, PCI-e)€ 344,50€ 344,50
26Western Digital Caviar GreenPower WD20EARS, 2TB€ 59,90€ 1.557,40
2Sharkoon Rebel9 Pro Value€ 54,-€ 108,-
2Intel RAID Controller SASUC8I€ 124,02€ 248,04
2Intel Core i3 2100€ 92,-€ 184,-
2Cooler Master GX 750W€ 79,83€ 159,66
2Kingston KVR1333D3D8R9S/4G€ 33,90€ 67,80
2Supermicro X9SCL-F€ 153,90€ 307,80
Bekijk collectie
Importeer producten
Totaal€ 2.977,20


Bijkomstig:

2 * PCI-E 8X Infiniband 10G adapters + 10M kabel: ~250 EUR
6 * 5,25 -> 3,25" adapters ~ 420 EUR

inventaris: freak1

60 TB can not be enough


Acties:
  • 0 Henk 'm!
]Byte\[ schreef op woensdag 31 augustus 2011 @ 15:07:
En ik maar denken dat ik een klap van de molen heb gehad met m'n QNAP TS-459 Pro+ met 4*2TB schijven.
Vroeger bouwde ik ook altijd zelf m'n NAS-en, maar was daar nu uiteindelijk voor eens en altijd helemaal mee klaar.

Zijn er nu nog echt voordelen met je infiniband connecties tov 10Gb ethernet adapters?

De QNAP TS-1079 Pro zou met een 10Gb ethernet zo'n 1619/1393 MB/s (read/write) halen en 163.392/140.272 IOPS (read/write).
En dan gaat het hier 'nog maar' om één box.
infiniband gebruik je alleen om de extenders aant e sluiten, niet om aan te sluiten op netwerk of iets dergelijks..

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 17:04
freak1 op het door sloth voorgesteld systeem zou je bijvoorbeeld NexentaStor CE kunnen installeren, dan heb je een Webgui, via IPMI mogelijkheden tot beheer/troubleshooting indien het niet in de webgui beschikbaar is. En volledige ZFS ondersteuning, van waaruit je de redundantie maakt, niet via de raid-adapter, je gebruikt een simpele HBA ipv een raidkaart. Dat maakt de redundantie en performance opties naar de toekomst een stuk interessanter, een simpele mlc ssd als read cache, ram als algemene cache en eventueel een write optimised ssd als write cache. Performance ten over en toch een makkelijke webgui beschikbaar voor config/aanpassen/enz. ...

je kan dan inderdaag ook via extra drive shelves gaan werken ipv twee systemen opzetten.

Het eerste chassis met alle toeters en bellen, voorzien van interne én externe HBA's waar je nexenta CE op installeert. Daarnaast zoveel extra chassis als je pci-e sloten beschikbaar hebt voor de HBA's in je eerste chassis geconnecteerd met de extra drive shelves.

[ Voor 21% gewijzigd door ItsValium op 31-08-2011 15:24 ]


Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 20-04 13:54

Wouter.S

e^(i*pi ) +1 = 0

ItsValium schreef op woensdag 31 augustus 2011 @ 15:20:
Het eerste chassis met alle toeters en bellen, voorzien van interne én externe HBA's waar je nexenta CE op installeert. Daarnaast zoveel extra chassis als je pci-e sloten beschikbaar hebt voor de HBA's in je eerste chassis geconnecteerd met de extra drive shelves.
De Nexenta Consumer Edition gaat maar tot 18TB, als je meer wilt moet je betalen.

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 12-04 16:56
vind de reactie in begin over windows + areca wel een beetje raar.
Flink op inlezen op ZFS? het zijn 2 man pages en 2 commando's die je moet onthouden.

als je kijk wat SUN voor storage oplossing heeft dan lijkt solaris + zfs the way the go.

[ Voor 21% gewijzigd door matty___ op 31-08-2011 16:00 ]


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 11-08-2024
matty___ schreef op woensdag 31 augustus 2011 @ 15:56:
vind de reactie in begin over windows + areca wel een beetje raar.
Flink op inlezen op ZFS? het zijn 2 man pages en 2 commando's die je moet onthouden.

als je kijk wat SUN voor storage oplossing heeft dan lijkt solaris + zfs the way the go.
Maar is Solaris nog future-proof is de vraag. Dat is wel een zekerheid die je nodig hebt met dit soort systemen.

Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 17:04
Wouter.S schreef op woensdag 31 augustus 2011 @ 15:51:
[...]

De Nexenta Consumer Edition gaat maar tot 18TB, als je meer wilt moet je betalen.
Als dat niet genoeg is dan neem je maar Nexenta Core Platform met de nappit webgui, die is ongelimiteerd, de gui is iets minder grafisch maar voldoet ook prima.

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 12-04 16:56
brederodekater schreef op woensdag 31 augustus 2011 @ 16:10:
[...]


Maar is Solaris nog future-proof is de vraag. Dat is wel een zekerheid die je nodig hebt met dit soort systemen.
Waarom zou het dat niet zijn? De combo solaris+sunhardware + oracle db draait bij genoeg bedrijven. Oracle trekt daar niet zo de stekker eruit.
en over 5 jaar kun je sowieso het system evalueren en bouw je het misschien opnieuw op. Tegen die tijd kun je 10tb met de heft aan harddisk bouwen.

en dan nog als je nu een nas hebt en het draait met de software die je hebt hoef je ook niets te veranderen. Je gaat er toch niet om de 6 maanden upgraden. als het draait zou ik er niet meer aan zitten

[ Voor 32% gewijzigd door matty___ op 31-08-2011 16:16 ]


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 11-08-2024
matty___ schreef op woensdag 31 augustus 2011 @ 16:13:
[...]

Waarom zou het dat niet zijn? De combo solaris+sunhardware + oracle db draait bij genoeg bedrijven. Oracle trekt daar niet zo de stekker eruit.
en over 5 jaar kun je sowieso het system evalueren en bouw je het misschien opnieuw op. Tegen die tijd kun je 10tb met de heft aan harddisk bouwen.

en dan nog als je nu een nas hebt en het draait met de software die je hebt hoef je ook niets te veranderen. Je gaat er toch niet om de 6 maanden upgraden. als het draait zou ik er niet meer aan zitten
Ja oke, als je gebruik maakt van Oracle/Sun hardware, maar dan wordt het denk ik zelfs voor mensen als Freak1 een te dure grap - Ik zie dit soort high-end spullen niet direct verschijnen in iemand's studeerkamertje - Een 40+TB systeem zal dan al gauw 20+k gaan kosten :)

En als je dan alsnog voor Opensolaris zou willen gaan dan is ook niet alles zeker m.b.t hoe lang het nog zal bestaan. Er bestaat voor zover ik weet nog steeds de kans dat Opensolaris op den duur zal verdwijnen, aangezien Oracle een andere koers is gaan varen dan Sun deed.

Acties:
  • 0 Henk 'm!
matty___ schreef op woensdag 31 augustus 2011 @ 15:56:
vind de reactie in begin over windows + areca wel een beetje raar.
Flink op inlezen op ZFS? het zijn 2 man pages en 2 commando's die je moet onthouden.

als je kijk wat SUN voor storage oplossing heeft dan lijkt solaris + zfs the way the go.
want ZFS draait op windows?
voor jou 2 commando's omdat je bekend bent met Linux. zoals je las, ik ben dat niet. ik wil gewoon lekker kunnen klikken, en gewoon werken met dingen waar ik verstand van heb. leuk dat experimenteren, maar niet met mijn data.
vandaar :)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Sjoq
  • Registratie: Februari 2001
  • Laatst online: 26-07-2023
Om eerlijk te te geven je geeft me vele gekke ideen om een dikke dikke zelfbouw 40TB geval te maken..Zet de lat weer hoger zou ik zeggen :)

Linux is zo cool dat ik het koud heb


Acties:
  • 0 Henk 'm!

  • arjankoole
  • Registratie: Januari 2002
  • Laatst online: 21-04 08:00
het is ook geen investeren. investeren doe je om iets terug te verdienen, ik verdien er niks op terug.
Investeren kan ook in goeie apparatuur thuis, waarbij je 'winst' is: dat jij kan bewaren wat je wil bewaren (wat best veel is, inderdaad, en dergelijk niet goedkope storage requirements verantwoord qua investering).

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 14:48
freak1 schreef op woensdag 31 augustus 2011 @ 15:13:


beperkt beperkt.. valt wel mee, het is een embedded linux. verder heb ik een lijstje eisen en daar voldoet de synology perfect aan. ik zie dat geen beperking. ze doen idd geen virtualsiatie, maar bieden wel een platform ervoor. dat is voldoende voor mij. ik vergelijk verder nu wat ik op mijn huidige server doe tegenover wat hij moet gaan doen. ik wil niet vergelijken met wat hij mogelijk nog meer kan, want dat interesseerd me niet. ik moet zonder verlies van functionaliteit over kunnen, en dat kan.

windows vanaf een flash disk is bagger. verder moet je dan 50 gb aan flash geheugen erin stoppen, en voor die 120 euro maakt dat geen fluit uit.
Eerst zeg je dat je Synology Linux draait en dan heb je het opeens over Windows op een flash-drive voor het alternatief?
Dus hoewel de Synology ook gewoon Linux draait is Linux geen alternatief?
oneens. het is 1 systeem, met daaraan 2 losse drive bays. daar staat geen OS op of wat dan ook. jij pakt 2 losse sytemen, met losse OS-en. mijn eis was 1 geintegreerd systeem. met liefde duct-tape ik ze aan elkaar om het 1 kast te maken, het is uiteindelijk 1 systeem. dat er 2 X 12 disks los hangen in een losse behuizing maakt niet uit.. zie het als een E-sata bay.
Daar heb je wel een goed punt :)
je raid adapter doet alleen raid 0, raid 1 of raid 1+0. dus aangezien mijn eis is dat ik redundant wil kunnen zijn, blijft mij raid1+0 over. dat houdt in dat het 28 tb aan bruikbare storage is. dat is te weinig.
je hardware is niet server class. zo mis ik ECC geheugen, en qua cores is het bij lange na niet voldoende om te virtualiseren. zowel mijn synolgy als mijn huidige server heeft ecc.
En weer, Linux met software raid is geen alternatief voor je Synology die Linux draait?
Bovendien, je Synology virtualiseert toch ook niks, daar heb je alsnog een extra server voor nodig die via ISCSI de Synology als datastore kan gebruiken.
In een zelfbouw systeem zou je dat binnen een systeem kunnen realiseren, door ESX(i) te draaien met een virtuele FreeNAS, OI/napp-it, whatever server, waarvan je via NFS/ISCSI de storage weer aanbiedt aan ESX(i). Er zijn genoeg mensen in de verschillende topics die zoiets draaiend hebben.
ik vind je vergelijking iig een hele goede eerste poging. veel mensen in het 10TB+ storage topic komen niet zo ver met een eerste poging. wel voldoe je niet aan de eisen die ik stel. je hebt er meerdere systemen van gemaakt, ik mis out of band management, ik mis 40 TB+ inclusief redundantie. de oplossing die je aandraagt is wat mij betreft nodeloos complex, en beslaat meerdere losse systemen.
Het zeer zeker meer complex, op dat punt heb je 100% gelijk en ook zijn het twee systemen zoals je zegt
Met software raid haal je de 40TB+ makkelijk en doe je imo niks anders dan de Synology doet.

Verder zeg je dat je gewoon wil kunnen klikken, maar bij de Synology doe je dat toch ook gewoon in een (web?) interface. OpenIndiana met napp-it (als voorbeeld) is ook niks meer dan klikken om je systeem te beheren, je hebt totaal geen kennis van Linux ofzo nodig.

Ik voeg nogmaals toe: Dit is absoluut geen 'aanval' of iets dergelijks op jou hoor, dus vat het svp ook niet zodanig op. Ik (en velen met mij) vind het gewoon machtig dat je dit doet en ben ook zeer benieuwd naar de resultaten die je ermee haalt.
Ik vind alleen het woord "vergelijk" niet helemaal juist gekozen, omdat er mijns inziens (gewoon, mijn mening) teveel verschillen tussen de beide oplossingen zitten, waar er ook oplossingen die dichter bij elkaar liggen mogelijk zouden zijn, that's all.

Nog een vraag aan de mede "grootstoragebezitters" (zou die van Dale halen? :P), in het show-off topic is het inderdaad opvallend dat er (nog?) heel veel Windows gebruikt wordt.
Deels waarschijnlijk omdat Windows gewoon een bekend gevoel geeft (en die reden zal nog lang blijven bestaan), maar is het misschien ook niet zo dat meer gespecialiseerde oplossingen gewoon nog niet zo lang bekend zijn bij het grote publiek en dat naar mate die bekender worden er ook meer mensen voor (met name) ZFS met toch wel duidelijke voordelen zullen gaan kiezen?
Dit lijkt namelijk wel een 'trend' die ik in de verschillende storage topics zie.

Keep up the good work Freak1, zodat wij over al dat moois kunnen lezen :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:52

Q

Au Contraire Mon Capitan!

Het storage platform van Freak1 moet 100% stabiel en betrouwbaar zijn.

Dat is voor 99% van de bouwers het belangrijkste.

Stabiel en betrouwbaar betekent ook dat jij als gebruiker in-control wilt zijn over je oplossing en niet in probleemsituaties eens moet gaan uitzoeken hoe dingen werken.

Ik vind de keuze van Freak1 om voor deze kant-en-klare oplossing te gaan erg interessant, het laat een andere optie zien die mogelijk is voor storage freaks.

Ik heb zelf een zelf-bouw NAS op basis van Linux. Ik kan lezen en schrijven met Linux. Maar ik zou nog eerder met Windows en een hardware kaart aan de slag gaan dan met ZFS.

ZFS werkt of met FreeBSD, en dat platform is echt gewoon niet leuk voor thuis gebruik. Thuis wil ik een Apple-ervaring, niet een Unix-nerd ervaring en dat is ook de reden waarom je zoveel Windows / Areca builds ziet. Dat zie je ook bij [H]ard forum builds (zie link in 10+ TB topic).

En dat is ook logisch, hoe stoer ZFS en FreeBSD en Solaris ook mag zijn, er kleven een aantal nadelen aan die heel belangrijk zijn waar veel tech-georienteerde bezoekers hier minder oog voor hebben.

OpenSolaris is officieel dood. Blijft over OpenIndiana, FreeBSD en dan? Is dat de toekomst? Wil je daar je storage platform op consolideren als thuis-gebruiker zonder 100K support contract?

http://louwrentius.com/bl...a-file-system-for-my-nas/

Als je om je data geeft dan speel je voor je NAS op safe en ga je geen experimentele build maken.

ZFS zie ik alleen als betrouwbaar op de echte officiële Oracle Solaris en dat draait niemand. ZFS is een heel mooi platform met allemaal technische verbeteringen die voor 99% van de NAS bouwers in de afgelopen 10 jaar geen issue zijn geweest of voor ons thuisgebruikers gewoon niet belangrijk zijn. Wat we thuis bouwen moet goed zijn want we kunnen het niet backuppen. Maar we zijn geen enterprise, met enterprise-behoeften.

Alhoewel performance belangrijk is voor dit soort systemen, waar ZFS met SSD caches hoge ogen kan gooien, gaat het in de eerste plaats om veel stabiele storage. En dit soort ik-ga-niet-lopen-prieken setups maar zet iets kant en klaars neer geeft stabiliteit en ook heel veel gemak. Daarom heb ik ook zoveel begrip voor de Windows + Areca builds ondanks dat ik zelf wel een beetje gepriekt heb met Linux.


Een laatste interessant aandachtspunt is nu schaalbaarheid. Freak1's storage honger kan met dit systeem schalen tot xxxxx TB, hoeveel is X?

Ik zou zelf nog wel eens verder willen nadenken hoe je een echt oneindig schaalpaar platform kunt bouwen waarbij je gewoon klein nodes met disks toevoegd en ook redundancy behoudt.

  • alexke1988
  • Registratie: Januari 2011
  • Laatst online: 14:35

alexke1988

( ͡° ͜ʖ ͡°)

Mooi setup !

Zelf hier ook iets gelijkaardig staan . Maar dan met Raid 5 en nu 32tb geformateerde en bruikbare ruimte
en ondertussen al 21tb in gebruik! Ik heb nog 7 S-ATA poortjes vrij. Maar bij een verbruik van 300w idlle...
De 3Tb schijfjes worden intresant :)

i7 5960X - Rampage V Extr. - 16GB Quad DDR4 2800 Corsair LPX - MSI 980GTX Ti - AX1200i - Obsidian 650D

als eerste, zie de post van Q. Q heeft het volledig door wat mijn insteek is :) ik wil plug and play. oftewel, alles erin rammen en werken. als er gezeik is wil ik iemand kunnen bellen, die het voor me oplost. tweaken e.d. vind ik fantastisch, maar niet met mijn storage setup.
zoals in het 10tb+ topic te lezen is heb ik een tijd geleden problemen gehad met mijn power connectors, en drives dropte. toen ik mailtjes van de Areca kreeg dat mijn volume gefailed had, omdat ik meer dan 2 disks had verloren, werd ik daar serieus fysiek ziek van. de week daarna dat ik alles probeerde te fixen en uiteindelijk mijn data wel terug had heb ik daar slecht van geslapen. als dit een linux software raid was geweest waar ik dus alleen op een forum voor terecht had gekund dan was ik echt gek geworden..

mbt SLeepie's post:
Sleepie schreef op woensdag 31 augustus 2011 @ 20:34:
[...]

Eerst zeg je dat je Synology Linux draait en dan heb je het opeens over Windows op een flash-drive voor het alternatief?
Dus hoewel de Synology ook gewoon Linux draait is Linux geen alternatief?
uh, dit snap ik niet.
ik reageerde op zijn post waarin hij mijn raptors als niet nodig bestempelde, en daarvoor in de plek een flash drive zette. dat heb ik gecorrigeerd.

mbt linux, het onderliggende OS zal me roesten. al was het OS/2 Warp geweest, prima. zolang ik een e-mail adres en telefoonnummer krijg van een help-desk, het installeren gaat in de vorm van cd erin, volgende klikken en klaar, het opstarten niets meer is als stekker erin, 5 min wachten en klaar, en het installeren met lekker klikken gaat, prima. wil ik een dergelijk storage array met een zelfbouw machine bouwen in linux, dan kom ik niet onder inlezen uit. dat wil ik niet. zie redenatie "luilak-systeem". daarom is zelfbouw met linux geen alternatief voor mij. daarom is overigens ook os/2 warp, osx, unix, freebsd etc. etc. ook geen alternatief voor mij. vat dit dus niet op als een anti-linux rant of wat dan ook.
ja mijn salarisstrook wordt betaald door ome Steve, maar ik vind Linux een prachtig systeem :)
[...]

Daar heb je wel een goed punt :)

[...]

En weer, Linux met software raid is geen alternatief voor je Synology die Linux draait?
Bovendien, je Synology virtualiseert toch ook niks, daar heb je alsnog een extra server voor nodig die via ISCSI de Synology als datastore kan gebruiken.
In een zelfbouw systeem zou je dat binnen een systeem kunnen realiseren, door ESX(i) te draaien met een virtuele FreeNAS, OI/napp-it, whatever server, waarvan je via NFS/ISCSI de storage weer aanbiedt aan ESX(i). Er zijn genoeg mensen in de verschillende topics die zoiets draaiend hebben.
je vat hem niet :)
linux an sich is niet mijn probleem bij een alternatief, het feit dat het geen plug n play oplossing is is mijn probleem, zie boven. als een partij een NAS maakt met linux en ZFS, en daar een mooi grafisch schilletje omheen bouwt, en dat vervolgens met 3 jaar garantie, een lijst leveranciers en een fatsoenlijke helpdesk aanbiedt, sta ik vooraan.
[...]

Het zeer zeker meer complex, op dat punt heb je 100% gelijk en ook zijn het twee systemen zoals je zegt
Met software raid haal je de 40TB+ makkelijk en doe je imo niks anders dan de Synology doet.

Verder zeg je dat je gewoon wil kunnen klikken, maar bij de Synology doe je dat toch ook gewoon in een (web?) interface. OpenIndiana met napp-it (als voorbeeld) is ook niks meer dan klikken om je systeem te beheren, je hebt totaal geen kennis van Linux ofzo nodig.

Ik voeg nogmaals toe: Dit is absoluut geen 'aanval' of iets dergelijks op jou hoor, dus vat het svp ook niet zodanig op. Ik (en velen met mij) vind het gewoon machtig dat je dit doet en ben ook zeer benieuwd naar de resultaten die je ermee haalt.
Ik vind alleen het woord "vergelijk" niet helemaal juist gekozen, omdat er mijns inziens (gewoon, mijn mening) teveel verschillen tussen de beide oplossingen zitten, waar er ook oplossingen die dichter bij elkaar liggen mogelijk zouden zijn, that's all.
prima dat je dat vind :) ik reageer er daarom ook heel open op.
de term vergelijk is wat mij betreft wel zeer toepasbaar. ik vergelijk een "lui" zelfbouw systeem met een off-the-shelf systeem.
een aantal mensen, waaronder jij, komen aanzetten met een zelfbouw systeem wat voor jou en voor andere heel vanzelfsprekend is. voor mij en blijkbaar voor de meesten (zoals Q al aanhaalt ga eens op het [h]ardforum kijken) is linux gewoon niet vanzelfsprekend als storage systeem. leuk dat ik met wat gerommel een openindiana (nooit van gehoord) als web interface kan gebruiken, maar dat is niet hetzelfde volgende volgende klaar. en dat wil ik. als ik nu mijn zelfbouw server in mijn auto zet, naar WebConnexxion rijd, en meld dat de areca stuk is, helpt John me data te recoveren. doe ik ditzelfde met mijn Synology en ik rijd naar Mobile-Harddisk, word ik geholpen.
waar moet ik heen met mijn ZFS setup? waar moet ik heen met openindiana?
want bij mezelf kan ik niet terecht...
Nog een vraag aan de mede "grootstoragebezitters" (zou die van Dale halen? :P), in het show-off topic is het inderdaad opvallend dat er (nog?) heel veel Windows gebruikt wordt.
Deels waarschijnlijk omdat Windows gewoon een bekend gevoel geeft (en die reden zal nog lang blijven bestaan), maar is het misschien ook niet zo dat meer gespecialiseerde oplossingen gewoon nog niet zo lang bekend zijn bij het grote publiek en dat naar mate die bekender worden er ook meer mensen voor (met name) ZFS met toch wel duidelijke voordelen zullen gaan kiezen?
Dit lijkt namelijk wel een 'trend' die ik in de verschillende storage topics zie.

Keep up the good work Freak1, zodat wij over al dat moois kunnen lezen :)
tja, onbekend maakt onbemind. daarbij komt dat een grote schare gebruikers met de storage systemen hier daar ook de tijd niet in willen steken.
ikzelf ben 27, heb een zware baan, en als ik thuiskom wil ik lekker films kunnen kijken. dan wil ik niet een avond gaan pielen met linux (niet neerbuigend bedoeld) om een storage systeem te bouwen. ik rommel al genoeg op het werk, dat hoef ik thuis ook niet nog eens te doen.

nogmaals, als iemand een mooi ZFS systeempje maakt met een distributie systeem van resellers etc etc. dan sta ik vooraan.

60 TB can not be enough

custom software
en de volgende horde moet genomen worden. custom software op mijn Synology, oftewel, ik wil gewoon SabNZBD en consorten draaien.
doel is om te kunnen draaien:
SABNZBD
SickBeard
CouchPotato
HeadPhones

nou, makkelijk toch? ik heb ondertussen al meerdere Synologys ingericht voor vrienden, SuperZebulon packages downloaden, inklikken en gaan.
dus ik die packages gedownload, dan moet je eerst de Python PSK installeren, en helaas "your system architecture: Bromolow. this is not a supported architecture". en installation failed.

daar sta je dan.

dan is er nog een alternatief, dat is installeren via ipkg. soort van apt-get systeem. (ik ben niet helemaal linux-debiel ;) )
voor ipkg moet je bootstrappen.. maar je raad het al, geen bootstrapper voor bromolow CPU.

dan maar posten in het Synology topic op tweakers!
freak1 in "Het grote Synology topic deel 3"
ik post dat ik niet kan bootstrappen, en dus ipkg niet kan gebruiken, en dat ik ook python niet kan installeren.
misschien was ik wat onduidelijk, maar de antwoorden zijn al snel van kastje naar de muur. ik geef duidelijk aan dat bootstrappen cq ipkg niet kan, antwoord is dan dat ik ipkg moet gebruiken.. daar kom ik niet veel verder mee.

daarom wil ik gewoon dat die stomme packages werken. tja, risico van voorop willen lopen.
ondertussen maar bij superzebulon aangekaart dat de bromolow CPU niet in zijn packages zit, maargoed, die kerel is ook onbereikbaar lijkt wel.

ik dus verder zoeken.
een nieuwe poging met een nieuwe geherstructuureerde post:
freak1 in "Het grote Synology topic deel 3"
en ja, bingo!
Ankh in "Het grote Synology topic deel 3"
iemand weet me te melden dat het gewoon een X86 instructie set heeft!
ik zat helemaal op het verkeerde spoor, maar nu heb ik dus wat.
ik kan iig mijn Synology bootstrappen en nu IPKG gebruiken.
maar... dat wil ik eigenlijk niet, ik wil gewoon packages gebruiken. die zijn lekker up to date, nieuwe versies komen ervoor uit, gewoon klikken en knallen, dat is wat ik wil.

uiteindelijk voor de test het package van Merty (ook een Synology Package maker) gebruikt. zijn X86 package gebruikt (zit geen CPU check in) en bingo! sabnzb draait. maar... hele oude versie 0.5.2.

advies: "even" vanaf de cmdline de nieuwe versie downloaden, uitpakken en installeren. right.
ben ik toch wat huiverig voor. ik heb een lijstje cmdlets gevonden, maar geen idee wat ik dan eigenlijk inklop. ook lost het mijn probleem niet op, want dan heb ik nog steeds geen headphones, sickbeard of couchpotato draaien.

terug naar de tekentafel. ik weet tenminste dat mijn synology X86 doet.
langzaam ga ik rommelen, en kom ik verder:
freak1 schreef op maandag 29 augustus 2011 @ 18:20:
ok, here's the deal.

ik dacht, aangespoord door dit succes, dat ik wat ga wijzigen. dus ik heb de python package van SuperZebulon geopend, en het prepost-common bestand zodaning aangepast, dat mijn CPU (bromolow) er ook instaat. vervolgens het ik het X86 gecompileerde bestand ook gekopieerd en hernoemd naar bromolow.

nu installeerd hij ook Python.. succes!
maar als ik nu COuchpotato installereer, of SabNZB, dan installeren ze, maar ze starten niet. sabnzb laat hij zien als started, maar ik krijg geen URL, en de andere services zegt hij dat hij ze start, maar ze doen niks.
wie kan mij hierbij helpen?
vervolgens ga ik dan maar uit ellende aan de gang met IPKG..
ik krijg een beetje hulp maar dat schiet gewoon niet op:
freak1 schreef op dinsdag 30 augustus 2011 @ 19:25:
[...]

dat snap ik.. maar hoe start je zo'n ding? en hoe zie je of hij het goed doet? ik heb wat van die standaard cmdlets geprobeerd, maar dat doet allemaal niks.

nog veel beter, kan ik zo'n psk niet gewoon omkatten?
ik heb zelf het de python installer aangepast zodat die het nu doet bij mij van zebulon, maar als ik dan sabnzb installeer, dan doet die niks. letterlijk niks. hij zegt dat hij running is, maar geen enkele foutmelding of logboek vermelding..
en dat is dus een beetje mijn angst met dit soort cmdlets. je weet al niet precies wat het doet, je tikt het in, en vervolgens ben je afhankelijk van anderen. ik snap dat mijn vragen voor sommigen debiel klinken "hoe start je sabnzbd?" tja, dat klinkt niet intelligent, maar ik weet dat gewoon niet in Linux..
anyhow, deze vragen van mij bloeden dood, dus nieuwe strategie.

omkatten van de packages! hoe moeilijk kan dat zijn?
nou.. moeilijk dus;
freak1 schreef op dinsdag 30 augustus 2011 @ 19:55:
nou, ik ben weer wat verder.
ik weet nu dus zeker dat x86 werkt.
wat heb ik gedaan
ik heb het psk van superzebulon gepakt van python.
die open ik me t7zip.
dan edit ik het prepost-common bestand en voeg mijn cpu toeals volgt
was
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
#!/bin/sh

PATH=/bin:/usr/bin

# Find the CPU architecture
synoinfo=`get_key_value /etc.defaults/synoinfo.conf unique`
arch=`echo $synoinfo | cut -d_ -f2`
[ $arch = 88f6282 ] && arch=88f6281

preinst ()
{
    # Check if the architecture is supported
    case $arch in
        88f5281|88f6281|powerpc|ppc824x|ppc853x|ppc854x|x86)
            true
            ;;
        *)
            cat << EOM
Your architecture is not supported by this package, sorry.
Architecture  : $arch
Synology info : $synoinfo
EOM
        exit 1
            ;;
    esac

    exit 0
}

postinst ()
{
    # Installation directory
    mkdir -p /usr/local/python26

    # Extract the files to the installation ditectory
    ${SYNOPKG_PKGDEST}/sbin/xzdec-$arch -c ${SYNOPKG_PKGDEST}/package.txz | \
        tar xpf - -C /usr/local/python26 bin bin-$arch lib lib-$arch share
    # Remove the installer archive to save space
    rm ${SYNOPKG_PKGDEST}/package.txz

    # Merge the MD part in the MI part
    (
        cd /usr/local/python26
        for file in `(cd bin-$arch && find . \! -type d)`
        do
            mv bin-$arch/$file bin/$file
        done
        rm -fr bin-$arch
        for file in `(cd lib-$arch && find . \! -type d)`
        do
            mv lib-$arch/$file lib/$file
        done
        rm -fr lib-$arch
    )
    
    # Install xzdec for the companion tools installation
    cp ${SYNOPKG_PKGDEST}/sbin/xzdec-$arch /usr/local/python26/bin/xzdec 
    
    # Byte-compile the python distribution
    /usr/local/python26/bin/python -m compileall -q -f /usr/local/python26/lib/python2.6
    /usr/local/python26/bin/python -OO -m compileall -q -f /usr/local/python26/lib/python2.6

    exit 0
}

preuninst ()
{
    exit 0
}

postuninst ()
{
    # Remove the installation directory
    rm -fr /usr/local/python26

    exit 0
}

preupgrade ()
{
    exit 0
}

postupgrade ()
{
    exit 0
}


wordt
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
#!/bin/sh

PATH=/bin:/usr/bin

# Find the CPU architecture
synoinfo=`get_key_value /etc.defaults/synoinfo.conf unique`
arch=`echo $synoinfo | cut -d_ -f2`
[ $arch = 88f6282 ] && arch=88f6281

preinst ()
{
    # Check if the architecture is supported
    case $arch in
        88f5281|88f6281|powerpc|ppc824x|ppc853x|ppc854x|x86|bromolow)
            true
            ;;
        *)
            cat << EOM
Your architecture is not supported by this package, sorry.
Architecture  : $arch
Synology info : $synoinfo
EOM
        exit 1
            ;;
    esac

    exit 0
}

postinst ()
{
    # Installation directory
    mkdir -p /usr/local/python26

    # Extract the files to the installation ditectory
    ${SYNOPKG_PKGDEST}/sbin/xzdec-$arch -c ${SYNOPKG_PKGDEST}/package.txz | \
        tar xpf - -C /usr/local/python26 bin bin-$arch lib lib-$arch share
    # Remove the installer archive to save space
    rm ${SYNOPKG_PKGDEST}/package.txz

    # Merge the MD part in the MI part
    (
        cd /usr/local/python26
        for file in `(cd bin-$arch && find . \! -type d)`
        do
            mv bin-$arch/$file bin/$file
        done
        rm -fr bin-$arch
        for file in `(cd lib-$arch && find . \! -type d)`
        do
            mv lib-$arch/$file lib/$file
        done
        rm -fr lib-$arch
    )
    
    # Install xzdec for the companion tools installation
    cp ${SYNOPKG_PKGDEST}/sbin/xzdec-$arch /usr/local/python26/bin/xzdec 
    
    # Byte-compile the python distribution
    /usr/local/python26/bin/python -m compileall -q -f /usr/local/python26/lib/python2.6
    /usr/local/python26/bin/python -OO -m compileall -q -f /usr/local/python26/lib/python2.6

    exit 0
}

preuninst ()
{
    exit 0
}

postuninst ()
{
    # Remove the installation directory
    rm -fr /usr/local/python26

    exit 0
}

preupgrade ()
{
    exit 0
}

postupgrade ()
{
    exit 0
}


vervolgens open ik de package.tgz die daarin zit, daarin open ik weer de package.tar en vervolgens in sbin hernoem ik xzdec-x86 naar xzdec-bromolow.

nu loopt de package!
maar mijn python dir blijft leeg...
wie o wie heeft de magische oplossing?
en
freak1 schreef op dinsdag 30 augustus 2011 @ 20:31:
ok, en weer een stap verder. nu heb ik ook de package.txz uitgepakt, en ook hierin de lib-x86 en de bin-x86 aangepast naar lib-bromolow en bin-bromolow .

nu worden de directories mooi gevuld, en nu installeerd Python prima.
nu kan ik ook sabnzbd installeren, en hij start niet zomaar!
starten via de cmdline levert nu de volgende fout op:
code:
1
2
3
4
Morgul> /usr/local/etc/rc.d/SABnzbd.sh console
su: can't chdir to home directory '/var/services/homes/sabnzbd'
Sorry, requires Python module sqlite3
Try: apt-get install python-pysqlite2

maar dat ding moet dus meegecompileerd zijn in de python psk.

handmatig de 2 lijnen uit de code draaien:
code:
1
2
  /usr/local/python26/bin/python -m compileall -q -f /usr/local/python26/lib/python2.6
    /usr/local/python26/bin/python -OO -m compileall -q -f /usr/local/python26/lib/python2.6

geven geen foutmeldingen.

tips?
ah, hulp is onderweg!
spoor12b schreef op woensdag 31 augustus 2011 @ 12:05:
[...]


Je hebt dus een ipkg install python26 gedaan maar wat staat er onder de lib map van python26? Bij mij staat er onder de submap python2.6 de map sqlite3. Dus:


[/usr/local/python26/lib/python2.6/sqlite3]
maar helaas:
freak1 schreef op woensdag 31 augustus 2011 @ 12:20:
[...]


nee, ik heb geen ipkg install gedaan. ik heb de zebulon package helemaal omgekat (alle x86 mappen hernoemd naar bromolow).

die loopt volgens mij zonder problemen, dus dat moet gewoon werken lijkt me.
als ik met SSH kijk, dan heb ik idd die subfolder, daar staat in:
code:
1
2
3
Morgul> ls
__init__.py   __init__.pyo  dbapi2.pyc    dump.py       dump.pyo
__init__.pyc  dbapi2.py     dbapi2.pyo    dump.pyc
spoor12b schreef op woensdag 31 augustus 2011 @ 13:29:
Is de ipkg methode niet een stuk gemakkelijker dan het package van Zebulon ombouwen? Of heb je de bootstrap niet draaien?

http://forum.synology.com...g_etc#How_to_install_ipkg
freak1 schreef op woensdag 31 augustus 2011 @ 15:33:
[...]

mijn probleem met ipkg is dat sabnzb wat ouder is die daarin staat, en ik gewoon de ballen verstand ervan heb. die packages worden netjes vernieuwd telkens als er een nieuwe versie van is, ze werken perfect, draaien mooi onder eigen users e.d. dus dat is gewoon zo simpel..
aha, discussie start!
Anoniem: 32925 schreef op woensdag 31 augustus 2011 @ 17:30:
[...]

Aangezien je sabnzbd niet hoeft te compileren, kun je het ipkg pakket installeren en daarna een nieuwe versie er overheen uitpakken.
maargoed, dat is leuk dat dat met IPKG kan, maar dat is dus niet wat ik wil! ik wil netjes die programma's kunnen updaten met packages, geen gerommel ermee, gewoon knallen. zeker omdat het enige wat me blijkbaar nu tegenhoud is gewoon het installeren van Python. de rest gaat volgens mij prima werken!
freak1 schreef op woensdag 31 augustus 2011 @ 17:58:
[...]


draait sab dan ook netjes onder zijn eigen user account? want dat wil ik graag.

maar het is toch bizar dat dit niet goed werkt? die sqlite is er gewoon.
en toen bleef het stil.

ik geef eerlijk toe, ik kan er slecht tegen als iets moet werken,dus ik ben weer aan het rommelen gegaan.
package opnieuw gedownload, en nu het install script helemaal met de hand gedraait. dus:

omgekatte script gedraait op synology.
script installeerd, alle bestanden zijn er. (ja, ik snap LS met SSH )
nou, hele python map weggegooid.
handmatig op mijn pc de hele directory structuur gebouwd zoals het script dat doet
gekopieerd naar mijn synology en met "mv" gemoved naar de /usr/local/ dir waar die blijkbaar thuishoort (argh, waarom heet move niet gewoon move? en waarom een /usr/local? waarom geen /programs? )
vervolgens de resterende make scripts nog eens met de hand gedraait..
heeeee, nu worden een aantal bestanden in de SQLite3 map groen!
het zal toch niet?
vervolgens de sabnzbd package omkatten (een aantal bestanden zijn daar ook x86 specifiek, zoals cmdline par) en package inladen. via cmdline starten (netjes gedocumenteerd door Zebulon) en ja! euforie! SabNZBD draait!

ik moet eerlijk zeggen, het heeft me een week gekost, maar ik ben wel trots op mezelf..

maar wat een gekloot. dit is echt een mega minpunt voor dat ding. alles wat niet met packages te maken heeft en met cmdline moet is zo bagger slecht gedocumenteerd. dingen als "dan move je de directory" in tutorials is allemaal leuk en aardig, maar ik heb geen idee wat het move cmdlet is? "untar the files in the destination directory".. leuk en aardig, maar wat is mijn destination directory? hoe untar ik?

wat me dus tegenvalt is dat wanneer je afwijkt van het gebaande pad, en je cmdline gaat gebruiken, er van je wordt verwacht dat je dan snapt hoe de cmdline werkt.. dat weet ik dus maar half :/

naja, eind goed al goed, dat werkt.. op naar de volgende test :)

60 TB can not be enough


  • YaaD
  • Registratie: April 2005
  • Laatst online: 14:59
Goed verhaal. Duidelijk omschreven wat je precies hebt gedaan. Grappig dat je voorheen aanhaalt dat je een systeem wilt dat je uitpakt, en dat het dan vervolgens gewoon werkt. Als ik dan zie dat je er wederom een week mee bezig bent geweest om wat packages te kunnen downloaden, moet ik lachen :) Je durft je niet te wagen aan linux, omdat je er niks vanaf weet, en nu heb je een oplossing thuis staan, die je toch nog dwingt om moeilijk te doen, met het omzetten van packages en je toch nog dwingt om linux te gebruiken :+

Zo on-the-fly werkt een Synology dus ook niet echt :P

Ik moet wel zeggen: Je hebt me overtuigd om te kiezen voor een makkelijke, veilige en betrouwbare storage oplossing met een dergelijk apparaat. Het kost wat, vereist wat configuratie maar als het werkt, heb je ongetwijfeld een prachtapparaat.

Ikzelf ga voor de DS2411+ omdat ik dergelijke uitbreidbaarheid, zoals jij dat wilt niet nodig hebt.

Ga zo door en ik blijf met me volste aandacht dit topic volgen :)

bl44t

YaaD schreef op donderdag 01 september 2011 @ 08:33:
Goed verhaal. Duidelijk omschreven wat je precies hebt gedaan. Grappig dat je voorheen aanhaalt dat je een systeem wilt dat je uitpakt, en dat het dan vervolgens gewoon werkt. Als ik dan zie dat je er wederom een week mee bezig bent geweest om wat packages te kunnen downloaden, moet ik lachen :) Je durft je niet te wagen aan linux, omdat je er niks vanaf weet, en nu heb je een oplossing thuis staan, die je toch nog dwingt om moeilijk te doen, met het omzetten van packages en je toch nog dwingt om linux te gebruiken :+

Zo on-the-fly werkt een Synology dus ook niet echt :P

Ik moet wel zeggen: Je hebt me overtuigd om te kiezen voor een makkelijke, veilige en betrouwbare storage oplossing met een dergelijk apparaat. Het kost wat, vereist wat configuratie maar als het werkt, heb je ongetwijfeld een prachtapparaat.

Ikzelf ga voor de DS2411+ omdat ik dergelijke uitbreidbaarheid, zoals jij dat wilt niet nodig hebt.

Ga zo door en ik blijf met me volste aandacht dit topic volgen :)
je hebt helemaal gelijk, en zoals je kan lezen, ik baal daar ook stevig van dat ik zoveel zelf heb moeten rommelen.
en ik moet ook eerlijk zeggen, het meest brakke pakket van de 3, headphones, is het enige pakket wat compleet zonder problemen werkt.
momenteel doet sickbeard het alleen in de series directory als ik 2 directories tegelijk toevoeg, anders blijft hij leeg :x in couchpotato kan ik niks toevoegen omdat ik dan een python error krijg..
dus ik ben nog niet klaar.

verder zul jij hier gelukkig geen last van hebben, de ds2411+ gebruikt een atom CPU, en die zit gewoon in de packages verwerkt :)
ik moest weer eens zo nodig voorop lopen.

[ Voor 5% gewijzigd door KorneelB op 01-09-2011 08:43 ]

60 TB can not be enough


  • YaaD
  • Registratie: April 2005
  • Laatst online: 14:59
freak1 schreef op donderdag 01 september 2011 @ 08:42:
[...]


je hebt helemaal gelijk, en zoals je kan lezen, ik baal daar ook stevig van dat ik zoveel zelf heb moeten rommelen.
en ik moet ook eerlijk zeggen, het meest brakke pakket van de 3, headphones, is het enige pakket wat compleet zonder problemen werkt.
momenteel doet sickbeard het alleen in de series directory als ik 2 directories tegelijk toevoeg, anders blijft hij leeg :x in couchpotato kan ik niks toevoegen omdat ik dan een python error krijg..
dus ik ben nog niet klaar.

verder zul jij hier gelukkig geen last van hebben, de ds2411+ gebruikt een atom CPU, en die zit gewoon in de packages verwerkt :)
ik moest weer eens zo nodig voorop lopen.
Ik kan me voorstellen dat je er van baalt. Zeker als je denkt dat alles on the fly zou moeten werken. Maar wat ik niet geheel begrijp uit je verhaal; is je Synology nou simpelweg te nieuw waardoor de pakketten simpelweg niet werken?

In dat opzicht ben je nu dus ook weer afhankelijk van de Synology package makers..
En dus eigenlijk weer terug bij af... in die zin dat als je ZFS zou gebruiken, je ook afhankelijk bent van anderen. Gedsie :X

Is het nu al zeker dat je de DS3611xs als storage device blijft gebruiken?

[ Voor 0% gewijzigd door YaaD op 01-09-2011 08:53 . Reden: device achter storage gezet ]

bl44t

YaaD schreef op donderdag 01 september 2011 @ 08:52:
[...]


Ik kan me voorstellen dat je er van baalt. Zeker als je denkt dat alles on the fly zou moeten werken. Maar wat ik niet geheel begrijp uit je verhaal; is je Synology nou simpelweg te nieuw waardoor de pakketten simpelweg niet werken?

In dat opzicht ben je nu dus ook weer afhankelijk van de Synology package makers..
En dus eigenlijk weer terug bij af... in die zin dat als je ZFS zou gebruiken, je ook afhankelijk bent van anderen. Gedsie :X

Is het nu al zeker dat je de DS3611xs als storage device blijft gebruiken?
de Synology die ik gebruik is vooral gericht op bedrijven, daardoor zal de nood voor packages wat minder zijn. daar komt bij de Intel de processor architectuur icm met Synology nu rapporteert als "Bromolow" terwijl hij gewoon "X86" zou moeten doen (zoals hij bijvoorbeeld doet met de Atom).
omdat die DS3611xs vrij zeldzaam is (mobile-harddisk.nl was de enige met voorraad, en je ziet ook op de synology-fora veel backorders) denk ik dat ik zo ongeveer de eerste ben die hier tegenaan loopt.

ik ben wel overtuigd van de Synology. ik blijf hem dus gebruiken als storage device, heb zelfs mijn Areca al verkocht :)
volgende week nog een batch schijven verkopen, en ik ben er weer klaar voor :)

het couchpotato ding wat niet werkte was overigens een update van couchpotato, zit een rare bug in. heb de orginele erop gezet, en die werkt als een treintje :)

60 TB can not be enough

dit juweeltje wilde ik jullie niet onthouden;
freak1 schreef op donderdag 01 september 2011 @ 09:07:
hmm, ik heb een ander nieuw probleem (waarom ik altijd :') )

zoek ik op een film, dan krijg ik dit in mijn error log:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
TypeError: int() argument must be a string or a number, not 'NoneType'
  File "movie_search_html", line 43, in render_body
    callable_(context, *args, **kwargs)
  File "/usr/local/var/couchpotato/library/mako/runtime.py", line 457, in _exec_template
    _exec_template(inherit, lclcontext, args=args, kwargs=kwargs)
  File "/usr/local/var/couchpotato/library/mako/runtime.py", line 434, in _render_context
    _render_context(template, callable_, context, *args, **_kwargs_for_callable(callable_, data))
  File "/usr/local/var/couchpotato/library/mako/runtime.py", line 403, in _render
    as_unicode=True)
  File "/usr/local/var/couchpotato/library/mako/template.py", line 198, in render_unicode
    return self.template.render_unicode(**env)
  File "/usr/local/var/couchpotato/app/config/render.py", line 14, in __call__
    self.body = self.oldhandler(*args, **kwargs)
  File "/usr/local/var/couchpotato/cherrypy/lib/encoding.py", line 188, in __call__
    response.body = self.handler()
  File "/usr/local/var/couchpotato/cherrypy/_cprequest.py", line 645, in respond
09:04:44 ERROR [01/Sep/2011:09:04:44] HTTP Traceback (most recent call last):
  COOKIE: plushContainerWidth=100%25; plushNoTopMenu=0; jqCookieJar_tablesorter=%7B%22showListTable%22%3A%5B%5B5%2C1%5D%2C%5B1%2C0%5D%5D%7D; SpryMedia_DataTables_artist_table_home=%7B%22iCreate%22%3A1314856841664%2C%22iStart%22%3A0%2C%22iEnd%22%3A2%2C%22iLength%22%3A50%2C%22sFilter%22%3A%22kas%22%2C%22sFilterEsc%22%3Atrue%2C%22aaSorting%22%3A%5B%20%5B0%2C%22asc%22%5D%5D%2C%22aaSearchCols%22%3A%5B%20%5B%22%22%2Ctrue%5D%2C%5B%22%22%2Ctrue%5D%2C%5B%22%22%2Ctrue%5D%2C%5B%22%22%2Ctrue%5D%5D%2C%22abVisCols%22%3A%5B%20true%2Ctrue%2Ctrue%2Ctrue%5D%7D; SpryMedia_DataTables_log_table_logs=%7B%22iCreate%22%3A1314856653461%2C%22iStart%22%3A0%2C%22iEnd%22%3A100%2C%22iLength%22%3A100%2C%22sFilter%22%3A%22%22%2C%22sFilterEsc%22%3Atrue%2C%22aaSorting%22%3A%5B%5D%2C%22aaSearchCols%22%3A%5B%20%5B%22%22%2Ctrue%5D%2C%5B%22%22%2Ctrue%5D%2C%5B%22%22%2Ctrue%5D%5D%2C%22abVisCols%22%3A%5B%20true%2Ctrue%2Ctrue%5D%7D; session_id=ea550c4e59d8a2c583afa49b343658a0d1cf9300; id=65tkVtUXnCtiQ
  ACCEPT-ENCODING: gzip, deflate
  Content-Type: application/x-www-form-urlencoded; charset=utf-8
  ACCEPT-LANGUAGE: nl
  X-REQUESTED-WITH: XMLHttpRequest
  USER-AGENT: Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)
  ACCEPT: text/html, application/xml, text/xml, */*
  Remote-Addr: 172.16.65.30
  CACHE-CONTROL: no-cache
  CONNECTION: Keep-Alive
  HOST: 172.16.65.4:8082
  REFERER: http://172.16.65.4:8082/config/
  Content-Length: 27
Request Headers:
09:04:44 INFO  [01/Sep/2011:09:04:44] HTTP 
09:04:44 INFO  [                   ENGINE] Started monitor thread 'Session cleanup'.
09:04:44 INFO  [.movie.sources.theMovieDb] TheMovieDB - Found: [{'year': '1993', 'imdb': 'tt0106220', 'id': 2758, 'name': u'Addams Family Values'}, {'year': '1993', 'imdb': 'tt0106220', 'id': 2758, 'name': u'La Famiglia Addams 2'}, {'year': '1998', 'imdb': 'tt0146402', 'id': 11508, 'name': u'Addams Family Reunion'}, {'year': '1991', 'imdb': 'tt0101272', 'id': 2907, 'name': u'The Addams Family'}, {'year': '1991', 'imdb': 'tt0101272', 'id': 2907, 'name': u'La Famiglia Addams'}]
09:04:42 INFO  [.movie.sources.theMovieDb] Searching: http://api.themoviedb.org/2.1/Movie.search/en/xml/9b939aee0aaafc12a65bf448e4af9543/addams


maarrrrrr
hij wordt leuker :')
ik heb de qualities gedisabled, alleen dvd-rip en 1080P is er nog.
zoek ik op 1080P, krijg ik de fout. verander ik dat in dvd-rip gaat het goed!
dan vind hij de film, vervolgens klik op dvd-rip en verander in het in 1080P en voegt hij netjes 1080P toe..
how bizar?

:') L0llerC0pter :')
ik had de default quality op 720P staan, maar daa rkon je niet op zoeken want die stond gedisabled. vervolgens maakt hij er zelf 1080P van.
ga je dan zoeken, dna krijg je een foutmelding. dit aanpassen naar 1080P als default quality, en issues zijn weg.

nice :')

60 TB can not be enough


Anoniem: 15758

Dit topic helaas nog niet gezien. :)

Maar niet om vervelend te doen, TS, maar heb je ZFS wel serieus overwogen voor je build? Je haalt een aantal argumenten aan:
  • Ik moet me teveel inlezen voor ZFS
  • slechts 1 persoon in de top10 van het showoff topic gebruikt ZFS
  • Wat de boer niet kent lust hij niet
  • Ik heb geen verstand van Linux
Allemaal stuk voor stuk geen echte argumenten natuurlijk. Als je op zoek gaat naar de beste oplossing, moet je gewoon objectief kijken naar je wensen en eisen, zoals:
  • Veel opslag (40TB) voor het minste geld
  • Goede betrouwbaarheid, goede redundancy en bescherming tegen diverse risico's
  • Makkelijk te beheren en onderhouden, zoals dat je weet wat je moet doen als een schijf uitvalt
  • Goede performance, met name op het gebied van ethernet (10GbE?)
Als je zo'n lijst van eisen maakt, is het makkelijk om alle oplossingen naast elkaar te zetten en te vergelijken. Gevolg? Je zult zien dat je met ZFS qua budget heel gunstig uit komt, qua performance (gebruik van SSDs) heel goed uit komt, qua veiligheid duidelijk het beste uitkomt.

Blijft over het makkelijk te beheren. Je geeft duidelijk aan dat je opkijkt tegen het leren van een systeem wat op basis van ZFS functioneert. Je wilt geen nieuw filesystem leren en alle ins en outs. Daar kan ik het volgende over zeggen:
  • Ken je alle ins en outs over RAID5 en RAID6?
  • Ken je alle ins en outs over alternatieve systemen (Linux met mdadm en Windows met Areca RAID?)
  • Wat doe je in geval van filesystem schade?
Met andere woorden, de 'makkelijke' oplossingen hebben ook hun aandacht nodig, zeker wanneer het misgaat en je recovery moet doen. ZFS mag dan moeilijk lijken, het feit dat fouten automatisch gerepareerd worden, er geen disks uitvallen en je geen last meer hebt van bad sectors of corruptie is zeker een pluspunt wat betreft onderhoud. Eenmaal draaiende heb je er geen of weinig omkijken meer naar.

Ook hoef je niet veel te leren als je voor een kant-en-klare oplossing gaat met Web-Interface. Daar hoef je Linux, FreeBSD of Solaris toch niet voor te kennen? Net zo min als je de interne werking van Windows hoeft te kennen om het te gebruiken. Dat wijst zich enigszins vanzelf.

Kortom, waarom probeer je je mogelijkheden niet eens objectief te verkennen? Installeer eens Virtualbox en probeer wat dingen uit; FreeNAS, ZFSguru, Nexenta.. misschien valt het allemaal hardstikke mee en raak je overtuigd van de voordelen van ZFS qua geld, qua performance en qua veiligheid.

Dat gezegd, je moet doen wat je zelf wilt. Ik denk alleen dat als je zoveel tijd en aandacht besteed aan een vrije forse storage setup je ook best een uurtje vrij kunt maken om wat alternatieven uit te proberen; dat hoeft toch geen hele wekenlange studie te worden?

  • ItMeAedri
  • Registratie: Maart 2009
  • Laatst online: 14:04
Ik denk de voornaamste reden is dat freak1 tech support erbij wilt hebben, mocht het fout gaat.

Anoniem: 15758

Dat zou een geldige reden kunnen zijn, maar dan is alle zelfbouw toch al uitgesloten? In elk geval de topictitel doet vermoeden dat de TS wel degelijk een zelfbouw setup overweegt. Betekent dat niet automatisch dat je geen 'officiële support' hebt maar aangewezen bent op fora en documentatie mocht je problemen tegenkomen?

Daarnaast zou je als tegenargument kunnen geven dat bij een ZFS setup je enorm onderhoudsarm bent; in tegenstelling tot andere oplossingen lost ZFS bijna alle problemen zelf op. Nooit filesystem checks, nooit corruptie (bij een goede setup), nooit geen problemen met de RAID-layer, geen schijven die eruit gekickt worden. Enige wat over blijft is de (eenmalige) installatie en fysiek gefaalde hardeschijven vervangen; dat laatste is natuurlijk enorm simpel op vrijwel alle systemen. Maar bijvoorbeeld bad sectors of filesystem schade na stroomverlies is op non-ZFS systemen zeker niet altijd triviaal.

In plaats van aangewezen te zijn op emailen met een supportafdeling of het hele zaakje 'eventjes' langsbrengen bij een bepaald adres kun je afwegen tegen het grote probleemoplossende vermogen van ZFS waardoor je er sowieso niets van merkt en het gewoon blijft werken.

Dus kun je stellen dat dit een écht argument is, of meer een ontsnappingsargument wat als enige overblijft om ZFS af te wijzen zonder het objectief als alternatief te overwegen?

  • wezep
  • Registratie: Oktober 2000
  • Laatst online: 09-04 21:42
freak1 schreef op donderdag 01 september 2011 @ 07:25:
zoals in het 10tb+ topic te lezen is heb ik een tijd geleden problemen gehad met mijn power connectors, en drives dropte. toen ik mailtjes van de Areca kreeg dat mijn volume gefailed had, omdat ik meer dan 2 disks had verloren, werd ik daar serieus fysiek ziek van. de week daarna dat ik alles probeerde te fixen en uiteindelijk mijn data wel terug had heb ik daar slecht van geslapen. als dit een linux software raid was geweest waar ik dus alleen op een forum voor terecht had gekund dan was ik echt gek geworden..
Als ik dit zo lees, vraag ik me het volgende af: maak je ook backups?
Zo ja, hoe doe je dat met 40TB+?

Asus PP-DLW - 2 x Intel Xeon 3,06 - 1Gb RAM - Coolermaster CM Stacker - 29160 - Seagate 18Gb 15k -=- 2 x LG L1910B 19" TFT

Anoniem: 15758 schreef op donderdag 01 september 2011 @ 09:30:
Dit topic helaas nog niet gezien. :)

Maar niet om vervelend te doen, TS, maar heb je ZFS wel serieus overwogen voor je build? Je haalt een aantal argumenten aan:
  • Ik moet me teveel inlezen voor ZFS
  • slechts 1 persoon in de top10 van het showoff topic gebruikt ZFS
  • Wat de boer niet kent lust hij niet
  • Ik heb geen verstand van Linux
Allemaal stuk voor stuk geen echte argumenten natuurlijk.
wat is mis met die argumenten? ik heb een portomonnee met geld, en stel eisen. mijn eisen zijn, zoals bovenaan gesteld:
simpel
plug and play
tech support
beproefde technologie.

zolang ik de portomonee vasthoud zijn dat behoorlijk echte eisen.
volgens jouw argumentatie zou ik, indien ik een autozaak binennloop met een zak geld, met dezelfde argumenten het fout hebben?
"ik zoek een auto die beproefd is, een track record heeft, en simpel plug and drive is, groen is, en ik vind peugeots mooi? hier is mijn geld"
dan zegt die auto verkoper toch ook niet
"meneer, dat zijn geen echte argumenten. hier is een kitcar, die zet u zelf in elkaar, u tankt biobrandstof, dan bent u op alle fronten beter en goedkoper uit, want dat vind ik."
kom nou.
Als je op zoek gaat naar de beste oplossing,
ik ben niet op zoek naar DE beste oplossing. dat beweer ik ook nergens. ik ben op zoek naar een oplossing die aan mijn eisen en wensen voldoet. en de vergelijking die ik maak met het 10TB+ topic, is dat blijkbaar mijn eisen zo te zien aan dat topic, niet zo heel raar zijn.
moet je gewoon objectief kijken naar je wensen en eisen, zoals:
  • Veel opslag (40TB) voor het minste geld
  • Goede betrouwbaarheid, goede redundancy en bescherming tegen diverse risico's
  • Makkelijk te beheren en onderhouden, zoals dat je weet wat je moet doen als een schijf uitvalt
  • Goede performance, met name op het gebied van ethernet (10GbE?)
veel opslag voor het minste geld is helemaal niet mijn eis. dat is denk ik ook wel te zien aan mijn bron-setup. ik vind het een erg prettige bijkomstigheid, maar als dat synology ding 6 keer duurder was geweest had ik hem gekocht, en had ik als melding gemaakt dat ik het een duur ding vind.
Als je zo'n lijst van eisen maakt, is het makkelijk om alle oplossingen naast elkaar te zetten en te vergelijken. Gevolg? Je zult zien dat je met ZFS qua budget heel gunstig uit komt, qua performance (gebruik van SSDs) heel goed uit komt, qua veiligheid duidelijk het beste uitkomt.
maarrrrrr... ik maak niet zo;'n lijst met eisen.
ik heb een lijst met eisen voorheen gemaakt, daarop iets uitgezocht, en dat deel ik met jullie, evenals de argumentatie. eisen en wensen is een gepasseerd station. dat jij de beslissing anders had gemaakt is prima! dat is ook het mooie van de storage topics! het is fantastisch om te zien hoe iemand dmv consumenten spul en zelfbouw pods 100TB+ haalt. niet mijn ding, maar een super-build! het zou wat zijn als iedereen hetzelfde deed.
Blijft over het makkelijk te beheren. Je geeft duidelijk aan dat je opkijkt tegen het leren van een systeem wat op basis van ZFS functioneert. Je wilt geen nieuw filesystem leren en alle ins en outs. Daar kan ik het volgende over zeggen:
  • Ken je alle ins en outs over RAID5 en RAID6?
  • Ken je alle ins en outs over alternatieve systemen (Linux met mdadm en Windows met Areca RAID?)
  • Wat doe je in geval van filesystem schade?
Met andere woorden, de 'makkelijke' oplossingen hebben ook hun aandacht nodig, zeker wanneer het misgaat en je recovery moet doen. ZFS mag dan moeilijk lijken, het feit dat fouten automatisch gerepareerd worden, er geen disks uitvallen en je geen last meer hebt van bad sectors of corruptie is zeker een pluspunt wat betreft onderhoud. Eenmaal draaiende heb je er geen of weinig omkijken meer naar.
sorry hoor, maar nu lul je echt. ik zie niet in hoe je met ZFS op magische wijze geen bad sectors meer hebt op disks? dat is hardware niveau? dat je er geen last van hebt, dat heb je met SHR, MDADM of RAID5/6 ook niet. dat is juist de truuk.
de makkelijke oplossingen hebben ook aandacht nodig, zeker. maar die ken ik al. en ja, ik ken de ins en outs van raid 5 en 6. en nee ik ken weinig van mdadm. maar is het stuk, dan bel ik synology.
Ook hoef je niet veel te leren als je voor een kant-en-klare oplossing gaat met Web-Interface. Daar hoef je Linux, FreeBSD of Solaris toch niet voor te kennen? Net zo min als je de interne werking van Windows hoeft te kennen om het te gebruiken. Dat wijst zich enigszins vanzelf.

Kortom, waarom probeer je je mogelijkheden niet eens objectief te verkennen? Installeer eens Virtualbox en probeer wat dingen uit; FreeNAS, ZFSguru, Nexenta.. misschien valt het allemaal hardstikke mee en raak je overtuigd van de voordelen van ZFS qua geld, qua performance en qua veiligheid.

Dat gezegd, je moet doen wat je zelf wilt. Ik denk alleen dat als je zoveel tijd en aandacht besteed aan een vrije forse storage setup je ook best een uurtje vrij kunt maken om wat alternatieven uit te proberen; dat hoeft toch geen hele wekenlange studie te worden?
om eerlijk te zijn heb je volgens mij mijn insteek in dit topic niet begrepen. niet om denigrerend te doen, maar lees aub mijn OP nog eens door.
ik beweer helemaal nergens dat ik objectief kijk. ik meld juist overduidelijk waarom ik voor dit heb gekozen. ik meld ook wel 100 keer dat ZFS waarschijnlijk op alle fronten superieur is, afgezien van 1 front. ik kan niet naar de winkel toe, een NAS uit het rek pakken, en thuis met volgende, volgende klaar in de lucht zijn. en dat wil ik nu juist!
dat is mijn hele redenatie om af te stappen van mijn redelijk standaard zelfbouw systeem. ik wil het geexperimenteer helemaal niet meer.

60 TB can not be enough

Anoniem: 15758 schreef op donderdag 01 september 2011 @ 09:43:
Dat zou een geldige reden kunnen zijn, maar dan is alle zelfbouw toch al uitgesloten? In elk geval de topictitel doet vermoeden dat de TS wel degelijk een zelfbouw setup overweegt. Betekent dat niet automatisch dat je geen 'officiële support' hebt maar aangewezen bent op fora en documentatie mocht je problemen tegenkomen?
wellicht dat de topictitel dit doet vermoeden, maar mijn OP is daar zeer duidelijk over. ik vergelijk mijn huidige zelfbouw tegenover een kant en klare NAS. iets wat toen ik begon aan storage systemen simpelweg niet beschikbaar was.
verder is dat met zelfbouw natuurlijk niet uitgesloten. heb ik problemen met mijn areca laad ik de hele handel in naar WebConnexxion, en laat ik het hen oplossen. ze hebben alle spare parts en support spullen liggen.
Daarnaast zou je als tegenargument kunnen geven dat bij een ZFS setup je enorm onderhoudsarm bent; in tegenstelling tot andere oplossingen lost ZFS bijna alle problemen zelf op. Nooit filesystem checks, nooit corruptie (bij een goede setup), nooit geen problemen met de RAID-layer, geen schijven die eruit gekickt worden. Enige wat over blijft is de (eenmalige) installatie en fysiek gefaalde hardeschijven vervangen; dat laatste is natuurlijk enorm simpel op vrijwel alle systemen. Maar bijvoorbeeld bad sectors of filesystem schade na stroomverlies is op non-ZFS systemen zeker niet altijd triviaal.

In plaats van aangewezen te zijn op emailen met een supportafdeling of het hele zaakje 'eventjes' langsbrengen bij een bepaald adres kun je afwegen tegen het grote probleemoplossende vermogen van ZFS waardoor je er sowieso niets van merkt en het gewoon blijft werken.

Dus kun je stellen dat dit een écht argument is, of meer een ontsnappingsargument wat als enige overblijft om ZFS af te wijzen zonder het objectief als alternatief te overwegen?
dude :')
dit is echt de laatste zin die ik hieraan spendeer.
je hemelt ZFS echt toaal op. dat je er enthousiast over bent snap ik. ik hoor er veel goede verhalen over. ik heb het niet overwogen. de reden waarom is denk ik al 100 keer gegeven.
ik heb ook al 100 keer aangegeven dat de redenen waarom IK er niet voor kies, helemaal niet valide hoeven te zijn voor een ander.
maar je maakt me niet wijs dat als ik een 24 disk ZFS pool had gehad ipv mijn huidige RAID 6, en dankzij de power failures van mijn disks op een gegeven moment was ik 11 disks kwijt), ik dan op de overgebleven 13 disks al mijn data had gehad..
sommige dingen kun je simpelweg niets tegen doen.
als mijn vriendin het morgen in haar hoofd krijgt en de Synology uit het raam gooit ben ik ook alles kwijt.
power failures? ik heb een goede UPS (die overigens very nice koppelt aan de Synology).
de bescherming tegen alle what-if's is heel leuk met ZFS, maar doet voor mij totaal niet ter zake.

nogmaals, lees door waarom IK ervoor heb gekozen. daar mag je het mee oneens zijn, start daar lekker je eigen topic. ik word er nu een beetje zuur van.
mijn topictitel suggestie voor je : "de mening van freak1 is helemaal fout want mijn mening is goed."
en dat is je goed recht :) fantastisch dat je zo achter ZFS staat, en fantastisch dat je daarmee een stukken goedkoper en wellicht technisch betere oplossing kan bouwen, maar ook fantastisch dat ik op basis van mijn eigen mening en argumenten een weloverwogen beslissing heb kunnen nemen :)
ik probeer ook niemand te overtuigen dat A of B beter is, ik laat simpelweg zien hoe ik het heb aangepakt.

60 TB can not be enough

wezep schreef op donderdag 01 september 2011 @ 09:51:
[...]

Als ik dit zo lees, vraag ik me het volgende af: maak je ook backups?
Zo ja, hoe doe je dat met 40TB+?
uhm
nope :')

momenteel draai ik 3 RAID6 achtige arrays. deze zijn voor max 66% gevuld. merk ik dat 1 array raar begint te doen, of degraded raakt, kan ik in een nood-scenario alles moven naar mijn 2 goede arrays.
ook heb ik een online backup lopen van mijn "onvervangbare" data.

60 TB can not be enough


Anoniem: 15758

freak1, het is duidelijk dat je geen zin hebt in discussie over de onderwerpen die ik aansnijd, dat is prima!

Dat gezegd; vraag ik me echter wel af waarom je dit topic hebt geopend als je geen behoefte hebt aan feedback, en eigenlijk helemaal geen zelfbouw builds wilt overwegen. Koop dan gewoon je spul en post het in het showoff topic. Zelf zeg je dat dit topic daar niet voor is bedoeld; maar als je geen feedback wenst, is het dan niet juist meer een show-off topic?

In elk geval, je bent duidelijk wat betreft je keus. Dat respecteer ik. Ik wens je dan ook veel succes met je build en hoop dat je er veel plezier (en weinig problemen) mee zult beleven.

  • Notehoutelade
  • Registratie: Oktober 2001
  • Niet online
Ik heb met bewondering gekeken naar je plaatjes en startpost. Wat een apparaat :) wel nog een vraag: wat verbruikt zo'n ding nou? kun je van je maandelijkse voorschot bij wijze van een mooie laptop kopen of valt het nog mee?
Anoniem: 15758 schreef op donderdag 01 september 2011 @ 10:09:
freak1, het is duidelijk dat je geen zin hebt in discussie over de onderwerpen die ik aansnijd, dat is prima!

Dat gezegd; vraag ik me echter wel af waarom je dit topic hebt geopend als je geen behoefte hebt aan feedback, en eigenlijk helemaal geen zelfbouw builds wilt overwegen. Koop dan gewoon je spul en post het in het showoff topic. Zelf zeg je dat dit topic daar niet voor is bedoeld; maar als je geen feedback wenst, is het dan niet juist meer een show-off topic?

In elk geval, je bent duidelijk wat betreft je keus. Dat respecteer ik. Ik wens je dan ook veel succes met je build en hoop dat je er veel plezier (en weinig problemen) mee zult beleven.
kijk, daar is beter mee te praten :)
de onderwerpen die je aansnijd zijn al eerder aangesneden.
heb ik ZFS overwogen? ja, heel kort. toen ik zag dat ik daarvoor een *nix OS moest draaien wat ik zelf moest configureren was ik daar redelijk snel klaar mee.
objectief? nee.
het is puur mijn gevoel, puur mijn insteek om off-the-shelf oplossingen te gebruiken.
waar ik een beetje zuur van wordt\werd is de zoveelste "ZFS is het antwoord van God op alle wereldproblemen" reactie in het topic. dat onderwerp is behandeld, ik heb gezegd waarom het voor mij en mijn zeer subjectieve redenen geen optie was. ook heb ik duidelijk aangegeven waarom het voor andere wel een hele goede oplossing kan zijn.

wil ik feedback?
heel erg graag!
wil ik afgesloten onderwerpen 100 keer herhalen? liever niet ;)
ik wil graag feedback op inrichting van mijn Synology, vragen om waarom ik ergens voor kies, feedback over wat een betere oplossing had kunnen zijn, maar dan wel voldoen aan mijn eisen.
ZFS doet dat simpelweg niet.

60 TB can not be enough


  • MadMike261
  • Registratie: Januari 2011
  • Laatst online: 25-11-2021
Als ik het goed begrepen heb dan is Freak deze topic gestart om aan andere mensen te laten zien wat er naast zelf bouw bestaat als je veel storage wilt. En daarnaast is dit een mogelijkheid voor mensen om hem uit te horen over zijn keuzes en natuurlijk over zijn mooie systeem.

En zoals het lijkt is zijn belangrijkste eis dat hij als het niet werkt iemand kan bellen en kan roepen "FIX IT!"

Wat mensen hier nogal eens lijken te vergeten is dat service en plug en play capabiliteit best iets is waar een hoop mensen graag meer voor willen betalen. Terwijl het voor veel tweakers juist de sport is om zo goedkoop mogelijk te gaan. En natuurlijk lekker zelf te bouwen. (ben zelf ook 1 van de laatste)
Notehoutelade schreef op donderdag 01 september 2011 @ 10:17:
Ik heb met bewondering gekeken naar je plaatjes en startpost. Wat een apparaat :) wel nog een vraag: wat verbruikt zo'n ding nou? kun je van je maandelijkse voorschot bij wijze van een mooie laptop kopen of valt het nog mee?
full load met alle 3 de modules eraan is dat 309 watt.
de disks gaan idle die niet gebruikt worden. ik heb dan ook 3 volumes, per unit 1. op mijn eerste volume staat al mijn download spul, de andere 2 zijn meer "as needed" volumes. die gaan dan ook idle na een 20 minuten.
in de nacht gebruikt het ongeveer 200 watt.

wat kost dat nou?
ik zit bij electrabel, dus ik betaal grofweg 22 cent per kwh. dat is per 7 uur 2 euro (grofweg) dan is 8 euro/dag.
ongeveer 240/maand dus.. als hij continu vol gas ging. ik weet dat mijn voorschot (en daarmee kom ik goed uit) nu op 270/maand ligt electra en gas voor een huis van 180m2.

60 TB can not be enough


  • Notehoutelade
  • Registratie: Oktober 2001
  • Niet online
dat valt eigenlijk nog best mee. Ik had op een of andere manier meer verwacht denk ik :)

  • ieperlingetje
  • Registratie: September 2007
  • Niet online
Interessant topic, maar wat ik mij steeds afvraag bij zo'n grote builds: waarom laat je de hard drive capaciteit niet meegroeien? Je hebt nu meteen 40 TB ter beschikking, lijkt mij sterk dat je dat de eerste 6 maanden vol krijgt, waarom vul je de capaciteit niet gewoon aan later, met de kans op goedkopere schijven of hogere opslagcapaciteit per drive?

Tijdmachine | Nieuws trends


  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
CiPHER, sommige mensen willen blijkbaar graag altijd het laatste woord hebben.
Bij mij bekruipt het gevoel dat jij ook in die categorie valt.

JA, ook ik zou dingen misschien anders hebben gedaan.
Als je alle voor's en tegen's tegen elkaar uitzet kan ik mij wel beeld vormen bij de keuzes die freak1 gemaakt heeft.
Het gaat ook niet om wat "goed" of "slecht" is, maar om wat er mogelijk is om wat je met standaard consumenten ijzer in elkaar kan sleutelen.
Natuurlijk, smaken verschillen. Maar je moet ook weten wanneer je het besluit van een ieder moet respecteren.

Dit hele topic heeft mij in ieder geval wel aan het denken gezet. 1 van de voorbeelden is dat ik mijzelf toch eens te ga verdiepen in ZFS omdat het zeker een aantal voordelen lijkt te hebben tov mijn huidige ext3 en ext4 wat ik gebruik.
ieperlingetje schreef op donderdag 01 september 2011 @ 10:28:
Interessant topic, maar wat ik mij steeds afvraag bij zo'n grote builds: waarom laat je de hard drive capaciteit niet meegroeien? Je hebt nu meteen 40 TB ter beschikking, lijkt mij sterk dat je dat de eerste 6 maanden vol krijgt, waarom vul je de capaciteit niet gewoon aan later, met de kans op goedkopere schijven of hogere opslagcapaciteit per drive?
kan meerdere redenen hebben.
ik heb momenteel 2 van de modules volledig gevuld en in gebruik (2 X12 X 2TB) en d derde module is mijn "overflow". wanneer ik meer nodig heb, ga ik die ook volledig inrichten en vullen. daar heb ik de schijven uit mijn oude build voor.

mijn vorige server heb ik gestart met 12 disks, later expanden naar 16, daarna naar 24.
dat expanden is echter een karwei waar echt dagen overheen gaan. vaak heb je ook als je meteen 24 disks koopt, je een leuke korting krijgt (ik kreeg iets meer als 20 procent!!!! ).

60 TB can not be enough

Pagina: 1 2 3 4 Laatste