They call her... c*ck juggeling Thunderc*nt!
They call her... c*ck juggeling Thunderc*nt!
nou ik moet zeggen dat ik me deze week wel erg gestraft voelde..lampie1979 schreef op vrijdag 19 augustus 2011 @ 16:53:
[...]
Tsja, dat zijn je verdiensten door met goed spul te werken ;-)
schijven die stuk gingen, rebuilds die niet lekker liepen, ik kan je vertellen, als je een rebuild doet met 2 schijven (dus geen protectie) en je krijgt continu read errors op 2 schijven op een gegeven moment, dan zweet je peentjes. langzaam begint mijn vertrouwen nu terug te komen
heb wel de firmware geupdate van de RAID controller ondertussen, was nog 1.48 (uit 2009) en heb nu 1.49 (eind 2010..)
60 TB can not be enough
Mars
X2 7850
Asus M4A78 PRO
OCZ Voeding
3x250GB
2x1TB hitachi's
8GB mem
2x Sweex netwerkkaart jaja dit heb ik gekocht op 04-07-2009 (net opgezocht in de historie
Voor de rest heb ik er toen een D-Link DGS-1005D Switch, 5p 10/100/1000 bijgekocht, ummanaged, maar men wilde meer.
In de loop va ndat jaar heb ik toen via via een HP ProCurve 2524 gekregen, zodat ik daar al mijn poorten op kon aansluiten 100Mbps, dus de server zat 1x Gigabit, Desktop 1x Gigabit Switch 2x Gigabit en 1x uplink.
Pic:

Maar ik wilde meer.. Ik heb toen een hp smart array P400 gekocht, die heb ik tijden in de machine gehad met niks er op (wat wil ik met 2x1TB en 2x250GB (1tje was overleden inmiddels) en ik wilde meeste storage krijgen.
Papa had zijn pc over, en ik had inmiddels een Hypervisior ontdekt, ik heb toen ESXi geinstalleerd op de bovenstaande config, zonder sweex netwerkkaart, vervangen door een Intel Gigabit, de voeding heb ik vervangen zodat ik die in de fileserver kon gebruiken
Die config was nog wat kaler (wat heb ik nog meer nodig?)
ESXi:
X2 7850
Asus M4A78 PRO
Naamloze Voeding
8GB mem
Intel Netwerkkaart
De fileserver heb ik uitgebreid met 1x1TB, 2x1.5TB geleend van iemand (thx!) om de data optezetten, mijn RAID5 optebouwen en de data weer terug te kopieeren.
Fileserver (Shiffle):
E2140
Raar asus bordje met HP bios (waardoor wel altijd netjes braaf de hp smart array p400 wilde booten
1x Samsung Spinpoint 1TB
2x Hitachi 1TB
2x 250GB
Intel Netwerkkaart
OCZ Voeding
En een kast van Collie om deze te huisvesten
De raidconfig:
1TB's 3x in RAID5
2x250GB RAID0
Deze risico heeft tot 8juli ofzo gelopen (kwa Fileserver)
Pic:



Maar ik wilde meer meer en meer.. Een HP Procurve 2824 aangeschaft leuke aanbieding via V&A gehad.
Vlak voordat ik op vakantie ging had ik hem thuis, gelijk alles omgebouwd, kwa netwerken
Pic:

Zo dat was een troep, maar ik kon wel op vakantie
Maar toen stonden er op de V&A een grote UPS, en Collie wilde er ook een paar, hij had eerder een houten 19" rackje voor mij opgehaald, toen kon ik dus toen weer ombouwen

Specs:
ESXi:
X4 810
Asus M4A78 PRO
Naamloze Voeding
8GB mem
Intel Netwerkkaart
Fileserver (Shiffle):
E2140
Raar asus bordje met HP bios (waardoor wel altijd netjes braaf de hp smart array p400 wilde booten
1x Samsung Spinpoint 1TB
2x Hitachi 1TB
2x 250GB
Intel Netwerkkaart
OCZ Voeding
En een kast van Collie om deze te huisvesten
Rand apparatuur:
HP Procurve 2824, 2524 en een pricewatch: APC Smart-UPS (2200VA, Serieel & SmartSlot) HP Officejet G85 (word nauwelijks gebruikt).
Toen heb ik een upgrade gedaan naar een X4 810 in mijn ESXi machine op een gegeven moment.
Toen een upgrade gedaan naar een nieuwe config:
ESXi
# | Product | Prijs | Subtotaal |
1 | Intel PRO/1000 PT Dual Port Server Adapter (2x1000Mbps, PCI-e 4x) | € 138,79 | € 138,79 |
2 | Transcend 8GB DDR3 Dual/Triple Channel Kit | € 35,90 | € 71,80 |
1 | AMD Phenom II X6 1055T Boxed | € 119,90 | € 119,90 |
1 | Asus M4A88TD-V EVO | € 77,15 | € 77,15 |
Bekijk collectie Importeer producten | Totaal | € 407,64 |
Helaas, heb ik die X4 810 gesloopt tijdens het inbouwen

Dus toen is er een X6 1055T aangeschaft.
Hard hard gespaard, en tot 7weken terug was de fileserver nog steeds het zelfde (nooit hoeven te rebuilden, en zeker met die RAID0)
Fileserver (Shiffle)
# | Product | Prijs | Subtotaal |
1 | HP Smart Array P400 Battery Attach Kit | € 38,- | € 38,- |
1 | Intel Gigabit CT Desktop Adapter | € 22,99 | € 22,99 |
8 | Hitachi Deskstar 5K3000, 2TB | € 59,95 | € 479,60 |
2 | Hitachi Deskstar 7K1000.C, 1TB | € 42,45 | € 84,90 |
1 | Samsung Spinpoint F3 HD103SJ, 1TB | € 42,90 | € 42,90 |
1 | Chieftec CA-01B-B-SL | € 83,35 | € 83,35 |
1 | HP P400 | € 147,79 | € 147,79 |
1 | Asus M4A78 PRO | € 0,- | € 0,- |
1 | AMD Athlon X2 7850 Black Edition | € 0,- | € 0,- |
1 | Cooler Master 4-in-3 Device Module | € 14,70 | € 14,70 |
Bekijk collectie Importeer producten | Totaal | € 914,23 |
RAIDconfig:
1TBs -> RAID5 (MDADM)
8x2TB -> RAID5 (HP SMART ARRAY P400)
En nog wat afsluitende pics




En nog veel meer pics (ja die kan ik maken, ik hou er van om het een beetje bij te houden en het is vooral leuk)
gallery: DJ-Visto (1)
gallery: DJ-Visto (2)
gallery: DJ-Visto (3)
gallery: DJ-Visto (4)
gallery: DJ-Visto (5)
Oh en dan nog totaaltjes:
HP smart Array P400: 8x2TB, XFS geformatteerd 512KB blocksize 13TB netto.
MDADM RAID5: 3x1TB, XFS geformatteerd, 64KB blocksize (die moet ik nog steeds migreren
En ik kan wel gaan praten hoe gaaf ESXi is maar ik denk dat ik dan nog wel even bezig ben.. Ik mag nu ook mee doen in het lijstje, alleen om mij zelf nou te toevoegen..
System specifications | |
Component | Value |
---|---|
Case | Chieftec CA-01B-B-SL |
CPU | X2 7850BE |
RAM | 4GB kingston |
Motherboard | Asus M4A78 PRO |
Operating system | Debian Squeeze |
Controller | HP Smart Array P400 with BBU |
Hard drive | 80GB BOOT/OS |
Hard drive | 8 x Hitachi Deskstar 5K3000, 2TB |
Hard drive | 2 x Hitachi Deskstar 7K1000.C, 1TB |
Hard drive | 1 x Samsung Spinpoint F3 HD103SJ, 1TB |
RAID array configuration | 1x RAID5 (8*2TB P400) + 1x RAID5 (3*1TB MDADM) |
Netto storage capacity | 13TB + 2TB MDADM |
Network | 1x Intel Gigabit(PCI-E) Onboard: Realtek |
UPS | APC Smart-UPS (2200VA, Serieel & SmartSlot) |
Idle power usage | Ik zou het niet willen weten |
[ Voor 10% gewijzigd door DJ-Visto op 27-10-2011 00:23 ]
They call her... c*ck juggeling Thunderc*nt!
zoals eerder te lezen heb ik nogal wat shit gehad met mijn array. ondertussen opgelost, draait alweer 2 dagen stabiel nu. ben aan het rebuilden op een andere "slechte" disk zodat ik wanneer maandag mijn replacement schijven komen niet vanaf een onbeschermd array hoef te rebuilden.
anyhow, wat die kaart nu al 3 dagen doet is elke ochtend om 7:30 de beeper laten afgaan. dan gaat hij ongeveer 2 minuten lang af, en gaat dan weer uit. het event log geeft helemaal niets weer, geen enkele foutmelding, en de system beeper staat uit onder system control.
rara?
60 TB can not be enough
voor de duidelijkheid, de interne beeper dus, dus die van de Areca kaart, niet van windows of iets dergelijks..
60 TB can not be enough
Hoop dat je hier wat aan hebt ?freak1 schreef op zaterdag 20 augustus 2011 @ 09:56:
zeg, voor de mede Areca eigenaren hier, ik heb een bijzondere vraag;
zoals eerder te lezen heb ik nogal wat shit gehad met mijn array. ondertussen opgelost, draait alweer 2 dagen stabiel nu. ben aan het rebuilden op een andere "slechte" disk zodat ik wanneer maandag mijn replacement schijven komen niet vanaf een onbeschermd array hoef te rebuilden.
anyhow, wat die kaart nu al 3 dagen doet is elke ochtend om 7:30 de beeper laten afgaan. dan gaat hij ongeveer 2 minuten lang af, en gaat dan weer uit. het event log geeft helemaal niets weer, geen enkele foutmelding, en de system beeper staat uit onder system control.
rara?
Bron''The beep or beeps the card emits while the system boots up means the controller detected a PCI bus reset. One beep means one reset, 2 beeps means controller received bus reset signal twice. The number of beeps will depend on how many times the motherboard issues the reset signal. There are no beep codes related to errors, all errors are listed in the events list. ''
Zoekopdracht
En nog één
BronIt's normal, and can't be stopped.
The reason is, the "beep" sounds the moment the card obtains power. The firmware hasn't yet loaded to determine/do anything, and why the setting won't turn that particular beep off. Once the firmware has loaded, then the the firmware will disable the alarm if you've set it to do so.
Zoekopdracht
Besef me nu alleen dat jij helemaal geen reboot doet, toch ? Dan heb ik er ook niet echt een ''zoek-oplossing'' voor helaas
[ Voor 34% gewijzigd door Perkouw op 20-08-2011 11:36 ]
Hehe, Ik wilde iets soortgelijks posten, gevonden via deze link: http://faq.areca.com.tw/i...id=368:Q10080806&Itemid=1Perkouw schreef op zaterdag 20 augustus 2011 @ 11:31:
[...]
Hoop dat je hier wat aan hebt ?
[...]
Bron
Zoekopdracht
het is echt gewoon een 5 minuten lang durend "alarm" waardoor ik, zeker met de lopende rebuilds en de shit die ik heb gehad, meteen rechtop in bed zit, maar de piep gaat daarna weer weg. ook de optie "view events\mute beeper" mute de beeper op dat moment dus niet
60 TB can not be enough
hij piept nu dus;
events:
geen:
2011-08-20 12:32:29 172.016.065.030 HTTP Log In
2011-08-20 12:27:54 172.016.065.030 HTTP Log In
2011-08-20 11:25:15 172.016.065.030 HTTP Log In
rebuild: loopt prima
temps:
schijven allemaal tussen de 40 en 45, cpu op 61 (Geen fan op CPU van Areca)
geen rare mobo temps of iets dergelijks
en dan piept hij nu een minuut lang, ik kan op view events\mute beeper klikken wat ik wil, maar dat helpt allemaal niks.
en dan (tijdens het typen van deze post) een minuut later, is het piepen weer weg.
60 TB can not be enough
Als ik je verhaal zo lees zou ik me toch beginnen afvragen of de kaart zelf nog wel perfect in orde is? Areca is kwalitatief een topmerk maar ze kunnen toch ook wel kapot gaan, misschien is het allemaal de kroniek van een aangekondigde dood? Hopelijk niet natuurlijk...freak1 schreef op zaterdag 20 augustus 2011 @ 12:34:
echt waar, alsof die kaart meeleest!
hij piept nu dus;
......
en dan piept hij nu een minuut lang, ik kan op view events\mute beeper klikken wat ik wil, maar dat helpt allemaal niks.
en dan (tijdens het typen van deze post) een minuut later, is het piepen weer weg.
Ofwel is het allemaal zeer toevallig maar ik zou me, als ik in je schoenen stond, toch wat ongemakkelijk beginnen voelen. Kan je eigenlijk de kaart zelf niet testen met iets zoals memtest maar dan voor raid controllers
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
heb een beetje hetzelfde gevoelWouter.S schreef op zaterdag 20 augustus 2011 @ 14:24:
[...]
Als ik je verhaal zo lees zou ik me toch beginnen afvragen of de kaart zelf nog wel perfect in orde is? Areca is kwalitatief een topmerk maar ze kunnen toch ook wel kapot gaan, misschien is het allemaal de kroniek van een aangekondigde dood? Hopelijk niet natuurlijk...
Ofwel is het allemaal zeer toevallig maar ik zou me, als ik in je schoenen stond, toch wat ongemakkelijk beginnen voelen. Kan je eigenlijk de kaart zelf niet testen met iets zoals memtest maar dan voor raid controllers
heb daarom een mailtje gestuurd naar Areca. ik weet dat je met SSH diagnostische programm's kan draaien, dus ik kijk even wat ze melden
kaart stuk is niet zo erg, garantie zit er nog op en dan de raidset weer importeren..
60 TB can not be enough
ik heb die webconnexxion site nog eens gelezen, en heb nu wat changes doorgevoerd op basis van zijn aanbevelingen;
SATA stond bij mij op SATA 300 + NCQ. volgens zijn aanbeveling kon dat beter SATA 300 zijn want NCQ werkt niet goed met SATA.
heb ik aangepast, moet ik nog voor rebooten.
firmware upgrade: ik heb aangenomen dat de bios, boot en firm belangrijkwaren, en de mbr0 niet. die heb ik dus ook nooit geupload. dat blijkt een fout mijnerzijde te zijn, die heb ik nu er ook ingezet, en wacht op een reboot.
auto activate incomplete raid, had ik enabled staan, dat is de aanbeveling om dat op disabled te zetten omdat je anders onnodige rebuilds kunt krijgen.. die staat dus ook uit nu.
dit alles wacht even een reboot af, maar het zou zo maar kunne dat het niet uploaden van die mbr0 files tot dat rare beeper gedrag hebben geleid. sowieso is vannacht de laatste rebuild klaar, dan zien we morgen wel weer
60 TB can not be enough
--------------
+1FireDrunk schreef op vrijdag 19 augustus 2011 @ 10:16:
Die vraag is al heel vaak langsgekomen
• Pr0n
• Backups
• Pr0n
• Films
• Pr0n
• Series
• Games
• Pr0n
• ISO's
• Pr0n
• Foto's
• En misschien een beetje pr0n
ik blijf het mooi vinden, niemand heeft ooit afgesproken dat het antwoord 'p0rn' moest zijn, toch doet het idereen, heerlijk.
Een spirap? Tis een beetje troep maar er achter lopen allemaal klittenbandjes, zal ik ook nog wel pics van maken en erbij plakken, dat ding is uit mijn hoofd 2200VALuukje01 schreef op zaterdag 20 augustus 2011 @ 19:38:
DJ-Visto, hoe groot is je ups (in VA, niet in meters xd), en heb jij daar nog een test rapport van? had je trouwens ooit gedacht aan spirap of zo? cuz dit is nu ook niet echt opitmaal zoeken door je kabels (hihi)
Ik moet nog (steeds) een DB9 -> USB kabel kopen (iemand?) zodat ik dat ding via een VM kan uitlezen, om er nou een losse machine bij te zetten


Voor de rest liggen de onderdelen (behalve de voeding die is wel aangekocht
Hmm, ik heb zelf nooit gekeken naar de mbr0.bin. Hoe kun je eigenlijk zien welke versie er op dit moment is geladen? Ik zie alleen de versie nummers van de BootROM & Firmware.freak1 schreef op zaterdag 20 augustus 2011 @ 18:19:
hmm, ik heb waarschijnlijk wel iets doms gedaan..
ik heb die webconnexxion site nog eens gelezen, en heb nu wat changes doorgevoerd op basis van zijn aanbevelingen;
SATA stond bij mij op SATA 300 + NCQ. volgens zijn aanbeveling kon dat beter SATA 300 zijn want NCQ werkt niet goed met SATA.
heb ik aangepast, moet ik nog voor rebooten.
firmware upgrade: ik heb aangenomen dat de bios, boot en firm belangrijkwaren, en de mbr0 niet. die heb ik dus ook nooit geupload. dat blijkt een fout mijnerzijde te zijn, die heb ik nu er ook ingezet, en wacht op een reboot.
auto activate incomplete raid, had ik enabled staan, dat is de aanbeveling om dat op disabled te zetten omdat je anders onnodige rebuilds kunt krijgen.. die staat dus ook uit nu.
dit alles wacht even een reboot af, maar het zou zo maar kunne dat het niet uploaden van die mbr0 files tot dat rare beeper gedrag hebben geleid. sowieso is vannacht de laatste rebuild klaar, dan zien we morgen wel weer
M.b.t de SATA-300 - NCQ vs SATA-300 optie - Er word toch alleen vermeld dat NCQ een mogelijk negatieve impact heeft op de performance? Dit zou als het goed is geen foutmelding moeten genereren... zou je zeggen
Wat ik mij afvraag, stellen jullie voor jezelf een limiet wbt het aantal schijven dat je aansluit op een enkele 'streng'/kabel stroom connectoren zoals die vanaf je voeding komt? Ik had al een twijfelachtig gevoel toen ik 4 7200rpm schijven op dezelfde kabel ging aansluiten, vooral omdat ze als RAID schijven vaak tegelijkertijd actief zijn en dus tegelijkertijd hun max stroom vragen. Maar ik heb de achtergrond nooit uitgezocht. Heeft iemand hier ervaring mee? Of kan ik er gerust 10 aan een kabel hangen
Later post ik misschien nog wel een verhaaltje over mijn eigen 10+ TB storage systeempje
Verwijderd
Deze berekening gaat echter op de schop als je staggered spin-up gebruikt, aangezien dan niet alle harddisk tegelijk volledige watt's en amp's trekken. Een harddisk die op toeren draait, gebruikt ongeveer nog 0.6amp.
Door schijven bv om de 2 seconden op te laten spinnen, trek je dus minder amps tegelijk en kan je dus wat meer schijven aansluiten.
Het mooiste is echter een voeding met een enkele 12v rail, zeker als die bv 40 amp kan leveren. Zonder staggered spin-up kan je dan al ongeveer 16 schijven op een voeding van 200 watt aansluiten. Met staggered spin-up kan je dan zo'n 18 schijven aansluiten (voor meer schijven heb je dan meer dan 200 watt nodig).
Bij berekening van het aantal schijven moet je met enkele factoren rekening houden :
10/12 watt per harddisk voor spin-up en in gebruik. (idle is dus lager)
2 a 2,5amp per harddisk tijdens spin-up, daarna 0.6amp.
Gebruik je wel of geen staggered spin-up (geen staggered spin-up = minder schijven).
Zelf heb ik hier wel enige ervaring mee, zie mijn eerste Build. Daar heb ik het probleem gehad of nou ja eerder gezegd voorkomen dat ik te weinig power hadjjwa schreef op zaterdag 20 augustus 2011 @ 22:41:
Interessant topic!
Wat ik mij afvraag, stellen jullie voor jezelf een limiet wbt het aantal schijven dat je aansluit op een enkele 'streng'/kabel stroom connectoren zoals die vanaf je voeding komt? Ik had al een twijfelachtig gevoel toen ik 4 7200rpm schijven op dezelfde kabel ging aansluiten, vooral omdat ze als RAID schijven vaak tegelijkertijd actief zijn en dus tegelijkertijd hun max stroom vragen. Maar ik heb de achtergrond nooit uitgezocht. Heeft iemand hier ervaring mee? Of kan ik er gerust 10 aan een kabel hangen. (Uiteraard wel proberen te voorkomen dat een schijf zijn stroom via-via-via 6 verschillende converters en splitters zijn stroom moet krijgen.)
Later post ik misschien nog wel een verhaaltje over mijn eigen 10+ TB storage systeempje. Het is wel een gamebak, niet-dedicated, volgens de topicstart voldoet dat niet? Of is dat alleen voor die lijst, en kan ik mijn verhaal rustig posten. Persoonlijk vind ik zelf dat nog het interessantste om over te lezen, storage-systeem in iets dat gewoon een desktop-systeem is, omdat dat iets is dat ergens helemaal niet de bedoeling was, en je dus de oplossingen al snel in een wat creatiever hoekje moet zoeken. (Een storageserver-kast, met storageserver-hardware, waar storage in zit, zal minder mensen verbazen dan 10+ HDDs in een game PC
.)
Ik heb daar 2 voedingen in gebruikt. 1 voeding die niets anders doet dan 6 port multipliers (met een totaal van 6x5 = 30 disks) van stroom voorzien. De andere voeding pakt de rest van alle hardware en de 3 overige port multipliers.
Ook had ik, zoals KeDeShCh al beschrijft, gebruik kunnen maken van een dikke single rail voeding om daar alles aan te hangen. Nu vond ik dat een te erg gekloot worden met kabels e.d. waardoor ik het bij 2 voedingen heb gehouden en het resultaat -> het draait meer dan prima!
Wat betreft je eigen systeem wil ik niet erg bot overkomen maar echt bijzonder is het ook weer niet.
Voorbeeld;
In mijn pc kast, een simpele Cooler Master Scout heb ik bijvoorbeeld al 9 schijven zitten. Het lijkt me dan ook een koud kunstje om een grotere kast te kopen waar 3x een HDR-5 in past zodat je 15 disks kwijt kan en wellicht nog wat in de kast zelf....

Maar schroom vooral niet om je systeem te laten zien wellicht dat ik of anderen er nog wat van kunnen leren!

[ Voor 3% gewijzigd door Perkouw op 20-08-2011 23:11 ]
Verwijderd
Het liefst blijf ik op deze manier werken al werk ik nu nog maar met 2 Raid5 setjes van 8 schijven, in de toekomst zal dit zeker uitgebreid gaan worden.
Dat is heel raar. Heb al vele jaren Areca (1210, 1220, 1261), maar 1 piep tijdens het opstarten is goed. Andere pieps zijn beslist niet goed. Gewoon even aan Areca zelf vragen, of op de site even zoeken. Erg vreemd dat er niks in de log staat.freak1 schreef op zaterdag 20 augustus 2011 @ 09:56:
anyhow, wat die kaart nu al 3 dagen doet is elke ochtend om 7:30 de beeper laten afgaan. dan gaat hij ongeveer 2 minuten lang af, en gaat dan weer uit. het event log geeft helemaal niets weer, geen enkele foutmelding, en de system beeper staat uit onder system control.
rara?
Een paar jaar geleden gaf dit nogal eens problemen met schijven die eruit klapten door NCQ. Maar tegenwoordig moet die geen problemen meer geven met moderne schijven.freak1 schreef op zaterdag 20 augustus 2011 @ 18:19:
SATA stond bij mij op SATA 300 + NCQ. volgens zijn aanbeveling kon dat beter SATA 300 zijn want NCQ werkt niet goed met SATA.
heb ik aangepast, moet ik nog voor rebooten.
[ Voor 26% gewijzigd door tHe_BiNk op 20-08-2011 23:35 ]
APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
Verwijderd
Wat ik momenteel heb dat momenteel aan de 12v rails hangt, is 10 HDDs (waarvan 6x 7200RPM, de rest draait trager), 1 DVD-brander, en een fancontroller die stroom levert aan 7x 12cm fans (en krijgt het zelf binnen via 1x (floppy-)molex). Geen staggered spin-up voor mij btw.
Ik heb even een review erbij gepakt van mijn voeding, en ik heb inderdaad rails die elk los 18A zouden kunnen leveren, maar het zijn er drie ipv twee. Gecombineerd zijn die drie rails 50A / 600 Watt volgens de specificaties van Corsair. In het review meld hij ook dat hij 30A a 40A van een enkele connector (voor de modulaire kabels) kon vragen zonder enige problemen, en dat de drie rails waarschijnlijk 'achter de schermen' er gewoon samen één zijn. Oftewel, wat ik hier volgens mij uit kan concluderen voor mijzelf: 't scheelt geen moer hoe ik het over mijn modulaire kabels verdeel! Lekker makkelijk
Ook dat ik er 20 HDDs op aan zou kunnen sluiten, maar aangezien de rest van mijn systeem (C2D E8400, 1x Radeon 4870) daar ook aan hangt, misschien de grens houden op 15 stuks
Ik heb daar niks over gelezen. De HD103UJ (1TB) ook, of alleen andere varianten?Verwijderd schreef op zaterdag 20 augustus 2011 @ 23:41:
Dat was toen vooral het geval met de Samsung F1 schijven. Door NCQ uit te schakelen, bleven ze wel in hun Raidset hangen.
Want ik heb nml momenteel er daar 4 van in RAID aan een Adaptec 3405 hangen. Er is niks uit het array geschopt, ik heb alleen de laatste tijd wel momenteel dat mijn PC bijna elke dag wel een keer vastloopt zonder dat ik daar een reden voor kan vinden... En in mijn Event Viewer is daar nooit iets over terug te vinden. (Iets dat logisch zou zijn als het de F1s zijn die problemen geven, want hoe schrijf je op een array dat aan het crashen is
Zijn er andere symptomen waar ik op zou kunnen letten, behalve schijven die uit het array geschopt worden? Want behalve een stotterend systeem heb ik verder geen problemen, ook geen corrupte of verloren data ofzo.
Verwijderd
Als het goed is, staat op de sticker van je voeding hoeveel watt en amp er per 12v lijn beschikbaar is. Dat kan je gebruiken zonder de rest van je set up (mobo, insteekkaarten). Alleen alles wat via de molex en sata connectors is aangesloten, dien je bij elkaar op te tellen. Zolang dat niet boven het wattage/amperage komt wat op de sticker staat, zit je veilig (ook al kan je er best wel iets boven).
Wat je natuurlijk altijd kan doen, is de schijven voeden door middel van een aparte voeding (zo werk ik zelf ook). Zo belast je je voeding niet tot het uiterste. 1 voeding staat op het mobo (cpu, ram, insteekkaarten), bootschijf en dvd-brander, een andere voeding voedt de harddisks (Raid 5, 8 x 2TB). Zo heb ik 2 servers draaien (ieder met een eigen Raidset).
Hier heb je een linkje over de F1 en Areca :
problemen met areca 1680ix icm samsung F1
F1 en 3Ware 9650SE :
3ware 9650se in raid 5 blijft degraden
Lees deze 2 linkjes eens, denk dat je er wel wat info uit kan halen.
Ah, educatieve linksVerwijderd schreef op zondag 21 augustus 2011 @ 01:31:
Graag gedaan.
Als het goed is, staat op de sticker van je voeding hoeveel watt en amp er per 12v lijn beschikbaar is. Dat kan je gebruiken zonder de rest van je set up (mobo, insteekkaarten). Alleen alles wat via de molex en sata connectors is aangesloten, dien je bij elkaar op te tellen. Zolang dat niet boven het wattage/amperage komt wat op de sticker staat, zit je veilig (ook al kan je er best wel iets boven).
Wat je natuurlijk altijd kan doen, is de schijven voeden door middel van een aparte voeding (zo werk ik zelf ook). Zo belast je je voeding niet tot het uiterste. 1 voeding staat op het mobo (cpu, ram, insteekkaarten), bootschijf en dvd-brander, een andere voeding voedt de harddisks (Raid 5, 8 x 2TB). Zo heb ik 2 servers draaien (ieder met een eigen Raidset).
Hier heb je een linkje over de F1 en Areca :
problemen met areca 1680ix icm samsung F1
F1 en 3Ware 9650SE :
3ware 9650se in raid 5 blijft degraden
Lees deze 2 linkjes eens, denk dat je er wel wat info uit kan halen.
Ik heb die topics (en meer) gelezen, en zo te zien is het probleem vooral in combinatie met NCQ enabled hebben. En om een mij onbekende reden staat bij mij NCQ al uit voor mijn schijven. Dat kan ik zien in de Adapter Storage Manager. En ik kan ook geen optie vinden om het aan te zetten, ook al is die er volgens de handleiding wel.
Ook lijken de meeste mensen die er last van hebben, dat redelijk snel en onsubtiel te hebben (schijven vallen uit arrays, data raakt corrupt of kwijt). Mijn array is niet degraded, en ik zie ook niet iets relevants in de logs. Ik heb ook nog geen corrupte bestanden op mijn Windows schijf (een kleine RAID-0 partitie op 4x F1, de rest van de schijven is RAID-5 voor storage), of diskchecks gehad bij het rebooten. Zolang dat allemaal niet gebeurt, ga ik er wel van uit dat het hangen van mijn systeem door iets anders komt...
Wat die voeding betreft, die 3x18A=50A komt van de sticker af, de reviewer had die nml overgetikt. Hoefde ik mijn kast lekker niet open te doen
Ik ga zelf voorlopig geen 2e voeding draaien. Zodra ik dat nodig ga hebben, is het tijd om een losse/dedicated storage bak te maken. Maar altijd een optie om te onthouden natuurlijk
Maistro, altijd alles updaten! Sata + NCQ wil met sommige schijven niet goed werken. Bij mijn vorige reeks Samsung disk als ik NCQ activeerde kreeg ik de schijven bingo (deze werken dus random gekicked). Met de 1TB RE3's en mijn 3TB Hitachi geen enkele problemen. Die lange piep komt mij niet bekend voor iig. Verschil is dat ik geen Battery back-up heb (zou mogelijk ook nog iets kunnen zijn). Vermij het updated van firmware tijdens rebuilds.freak1 schreef op zaterdag 20 augustus 2011 @ 18:19:
hmm, ik heb waarschijnlijk wel iets doms gedaan..
ik heb die webconnexxion site nog eens gelezen, en heb nu wat changes doorgevoerd op basis van zijn aanbevelingen;
SATA stond bij mij op SATA 300 + NCQ. volgens zijn aanbeveling kon dat beter SATA 300 zijn want NCQ werkt niet goed met SATA.
heb ik aangepast, moet ik nog voor rebooten.
firmware upgrade: ik heb aangenomen dat de bios, boot en firm belangrijkwaren, en de mbr0 niet. die heb ik dus ook nooit geupload. dat blijkt een fout mijnerzijde te zijn, die heb ik nu er ook ingezet, en wacht op een reboot.
auto activate incomplete raid, had ik enabled staan, dat is de aanbeveling om dat op disabled te zetten omdat je anders onnodige rebuilds kunt krijgen.. die staat dus ook uit nu.
dit alles wacht even een reboot af, maar het zou zo maar kunne dat het niet uploaden van die mbr0 files tot dat rare beeper gedrag hebben geleid. sowieso is vannacht de laatste rebuild klaar, dan zien we morgen wel weer
They call her... c*ck juggeling Thunderc*nt!
Op hun site staan er drie waar in 3x 5,25" bay niet alleen 4x 3,5" HDDs in kunnen, maar er daarnaast ook 2x 2,5" er in passen voor SSDs. Dus eigenlijk 6-in-3.

Lian Li EX-36A2 Lian Li EX-36A3 Lian Li EX-36B1
Ik heb er eentje besteld bij Salland, maar dat duurt al weken, en gaat nog weken duren. Dus blijkbaar zijn ze niet makkelijk verkrijgbaar.
- Heeft iemand ervaring met één of meer van deze producten?
- Waar heb je ze besteld en hoe lang duurde dat?
Ik ben zelf vooral benieuwd naar hun vibratie-dempende eigenschappen, want ik kan aan de informatie op de Lian Li site niet zo goed schatten hoe goed dat geregeld is. Ik ben er achter gekomen dat trillingen van mijn HDDs momenteel de grootste bron van herrie in mijn kast is! Oh, en ik ben benieuwd naar de aansluiting van de fan. Ik hoop dat het een normaal ventilatorenstekkertje is, en niet (alleen) een lompe molex, ivm fancontroller
[ Voor 6% gewijzigd door jjwa op 21-08-2011 04:53 ]
They call her... c*ck juggeling Thunderc*nt!
Misschien een stomme vraag, maar hoe lus je die tweede voeding die alleen je schijven bedient dan zo door dat hij aangaat bij het aanzetten van je pc? Daar ben ik wel nieuwsgierig naarPerkouw schreef op zaterdag 20 augustus 2011 @ 23:09:
....[verhaal over maximale output voeding en het gebruik van twee voedingen]....
Daar is een ATX PSU verloop voor, scheelt zelf prutsen.Staatslot schreef op zondag 21 augustus 2011 @ 08:15:
[...]
Misschien een stomme vraag, maar hoe lus je die tweede voeding die alleen je schijven bedient dan zo door dat hij aangaat bij het aanzetten van je pc? Daar ben ik wel nieuwsgierig naar
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
naja, ik heb areca iig al gemailed. vanmorgen de server gereboot, kijken of we morgenvroeg weer piepjes krijgen.
60 TB can not be enough
Ik kan maandag over een week (29e) ff kijken, als je het dan nog niet weet moet je even een DM sturen, dan vergeet ik het zeker nietlampie1979 schreef op zondag 21 augustus 2011 @ 05:57:
Zou iemand hier met een norco 4220 of 4224 voor mij svp zijn backplane willen opmeten? Ik ben op zoek naar de breedte en diepte van de gehele PCB. Ikzelf heb de 4020 en die backplane is totaal verschillend.

WEGA
Ik mag intussen ook meedoen in dit topic met (momenteel) 12TB effectieve opslag, dus hierbij wil ik mijn NAS bakje even voorstellen.Hardware
# | Product | Prijs | Subtotaal |
1 | Intel Xeon X3440 Boxed | € 184,56 | € 184,56 |
10 | Samsung EcoGreen F2 EG HD154UI, 1.5TB | € 49,20 | € 492,- |
1 | Sharkoon Rebel12 Economy (Zwart) | € 66,55 | € 66,55 |
2 | Icydock MB455SPF-B Zwart | € 137,90 | € 275,80 |
1 | Tagan TG480-U01, 480W (ATX) | € 0,- | € 0,- |
1 | Kingston SSDNow S100 SS100S2/8G 8GB | € 32,89 | € 32,89 |
2 | Kingston ValueRAM KVR1066D3Q8R7SK2/8GI | € 109,- | € 218,- |
1 | Supermicro X8SIL-F | € 161,99 | € 161,99 |
Bekijk collectie Importeer producten | Totaal | € 1.431,79 |
Uitgangspunt bij de keuze van de kast was simpel. Er moesten in totaal 20 disks in hotswap modules inpassen en voor een 19" kast heb ik geen ruimte hier. Na wat zoeken kwam ik toen uit op de Rebel12, daarin past dat prima, je moet alleen de bovenste bay en het front wat aanpassen.
Een serverbordje met een Xeon en ECC geheugen is misschien een wat dure oplossing voor een servertje wat aleen als NAS dienst doet. De hardware is echter besteld met ESXi in gedachten, maar uiteindelijk heb ik dit idee toch weer losgelaten.
Ik wilde graag hotswap modules voor mijn schijven en uiteindelijk heb ik voor de IcyDocks gekozen. Weliswaar niet de goedkoopste modules, maar ik vind ze gewoon erg mooi
(Naast mijn NAS staat een Hyper-V server met een Addonics 4-in-3 module in een Antec ThreeHundred en die maakt meer lawaai dan mn NAS bak)
Het Kingston 8GB SSDtje is in gebruik als bootdisk.
RAID
Ik draai momenteel ZFSguru v 0.1.8 met alle 10 de disks in een RAIDZ2 pool. Deze pool is een ZFS v28 pool.De geschiedenis
Voor ik deze server bouwde, heb ik ongeveer 1.5 jaar lang gebruik gemaakt van een andere machine met een OpenFiler install. De capaciteit was 4 keer 1.5TB in RAID5, dus 4.5TB effectief. Toen deze machine voor >90% gevuld was, werd het tijd voor iets nieuws.In eerste instantie dacht ik ESXi te gaan draaien, waardoor ik ook meteen mijn Hyper-V machine de deur uit kon doen (scheelt weer stroomkosten). Ik ben dan ook begonnen met een ESXi install met een Ubuntu 11.04 server met een mdadm RAID6 set van 6 disks, zodat ik de data over kon kopieren. Daarna de raid-set uitgebreid naar 10 disks. ZFS was toen nog geen optie, want ik had geen mogelijkheid de data ergens te parkeren en je kunt een ZFS pool niet uitbreiden met losse disks. Daarom dus de keuze voor mdadm.
Door twee rotte disks en een niet-zo-slimme actie van your's truly, heb ik het voor elkaar gekregen om deze hele mdadm raid-set uit elkaar te laten klappen. Gevalletje "van 4TB naar 0kB in 1 seconde".
Alle data kwijt dus, maar gelukkig (op wat foto's na) niks wat niet te vervangen is.
Omdat ik nu toch van scratch af aan moest beginnen kon ik meteen naar ZFS overstappen. Ik heb zo'n beetje alle mogelijkheden wel een keer getest al dan niet in combinatie met ESXi.
Om een lang verhaal kort te maken, uiteindelijk ben ik uitgekomen bij ZFSguru. Hoewel nog in ontwikkeling, zit de basis functionaliteit om een ZFS install te beheren er netjes in. Bovendien maakt ZFSguru gebruik van een full FreeBSD install, dus zelfs als het project doodloopt kan ik altijd nog gewoon verder via de command line.
Overige applicaties
De NAS moet uiteindelijk ook gevuld worden, dus op mijn NAS bakje draaien SABnzbd, SickBeard, CouchPotato en Transmission.Deze zijn nu nog handmatig geinstalleerd, maar in de toekomst zullen deze applicaties waarschijnlijk als "Services" via ZFSguru worden aangeboden, wat ik zelf een erg leuk idee van ZFSguru vind.
Foto's
Om af te sluiten nog een paar fototjes van mijn NAS.![]() | ![]() | ![]() |
![]() |

Het bejaarde ijzer:
System specifications | |
Component | Value |
---|---|
Case | CoolerMaster Stacker (STC-T01) |
CPU | dual Tualatin, 1,26 GHz |
RAM | 2 GiB ECC PC-133 SDRAM |
Motherboard | Intel SAI2 |
Operating system | OpenSuSe 11.x |
Controller | 3Ware 7506-4LP; 4 poort P-ATA, PCI 64bit/66MHz 3Ware 8500; 8 poort SATA, PCI 64bit/66MHz |
Hard drive | 200 GiB PATA WDAC tbv OS |
Hard drive | 4 x Western Digital 320 GiB |
Hard drive | 8 x Western Digital 2 TiB EARS |
RAID array configuration | 4 x 320 GiB RAID5 & 8 x 2 TiB RAID5 |
Netto storage capacity | 14 TiB |
Network | NIC 1: Intel 100 Mbit, onboard tbv remote beheer NIC 2: Intel Gbit nic PCI, tbv netwerk |
PSU | Zalman 400W |
UPS | None |
Filesystem | Ext4 |
Idle power usage | ~170 Watt |
Extra | 3 x 4-in-3 modules CM |
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 688G 603G 51G 93% /3ware/7506-4lp
/dev/md0 13T 988G 11T 9% /3ware/8500-8
Jammer genoeg halen de RAID kaart, die JBOD moet draaien ivm de max. array size van 2 TiB, en mogelijk de leeftijd van het systeem, de doorvoersnelheid wel naar beneden.
Toen de array nog 4 x 2 TiB mdadm R5 was gaf:
hdparm -Tt /dev/md0:
Timing cached reads: 228 MB/sec
Timing buffered disk reads: 115 MB/sec
Een dd iflag=direct if=/dev/md0 of=/dev/null bs=64k count=100000
56 MB/sec
en SaMBa schuifelde 30~60 MB/sec over de lijn (Gbit netwerk)
Na de uitbreiding naar 8 x 2 TiB mdadm R5 geeft de array:
hdparm -Tt /dev/md0:
Timing cached reads: 229 MB/sec
Timing buffered disk reads: 115 MB/sec
Een dd iflag=direct if=/dev/md0 of=/dev/null bs=64k count=100000
55 MB/sec
en SaMBa schuifelde 40~60 MB/sec over de lijn (Gbit netwerk)
In vergelijking tot een array van 4 x 2 TiB mdadm R5 op basis van een GigaByte EX38-DQ6,Intel C2D E7400, 8 GB RAM welke de volgende cijfertjes geeft:
hdparm -Tt /dev/md0:
Timing cached reads: 2108 MB/sec
Timing buffered disk reads: 196 MB/sec
Een dd iflag=direct if=/dev/md0 of=/dev/null bs=64k count=100000
139 MB/sec
en SaMBa schuifelde 60~110 MB/sec over de lijn (Gbit netwerk)
zijn de getallen van de 'oude dame' dus pover te noemen.
Maar, de boel werkt (ondanks de aan Altzheimer leidende hardware, zie beneden) en het is een stap in de richting van de wensen die ik in dit topic heb staan.
Pics:
Hoezo Altzheimer, nou het reepje RAM heeft tijdens een omsteek actie wat schade opgelopen. Een van die kleine weerstandje/wat dan ook, heeft ongewild het veld moeten ruimen en dat vond het bordje niet leuk .
2GiB ECC PC-133 SDRAM ipv 2,5 Gib

De binnenkant van de bak:

En de voorkant van de CM Stacker:

Met de watt meter uit de gamma (no name pruts ding) geeft de bak ca. 310 W bij bootstrap, 180~200 W bij volle activiteit en een idle verbruik van ca. 160~170W.
Kortom, het enige zuinige aan deze bak is dat de dame nog steeds leeft en niet haar verbruik.
[ Voor 33% gewijzigd door Pantagruel op 30-09-2011 12:00 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Het lijkt me voor de airflow beter om je voeding boven te hebben omdat warme lucht stijgt en je zo een extra outtake hebt, of ben ik daar verkeerd in?
Ik heb het even opgemeten voor je.lampie1979 schreef op zondag 21 augustus 2011 @ 05:57:
Zou iemand hier met een norco 4220 of 4224 voor mij svp zijn backplane willen opmeten? Ik ben op zoek naar de breedte en diepte van de gehele PCB. Ikzelf heb de 4020 en die backplane is totaal verschillend.

En de sata connectoren steken ieder 0,5cm buiten de pcb.
Yep, wat dat betreft echt oud ijzer, het bord/CPU's/RAM is inmiddels ca. 10 jaar in dienst en heeft me nog nooit in de steek gelaten.
De PSU onderin is eerder omdat de PSU's altijd daar hebben gezeten en er eigenlijk geen problemen zijn met de warmte afvoer. Deze Zalman is de 3e die de bak aan het verslijten is en doet het alweer 5 jaar. Eerlijkheidshalve zeg ik erbij dat de laatste 2 jaar de bak hoogstens 1 a 2x per week aan ging als ik op zoek was naar oud materiaal.sloth schreef op zondag 21 augustus 2011 @ 16:50:
Is er een bepaalde reden waarom je de PSU onder, en niet boven zoals bij een standaard ATX behuizing hebt geplaatst?
Het lijkt me voor de airflow beter om je voeding boven te hebben omdat warme lucht stijgt en je zo een extra outtake hebt, of ben ik daar verkeerd in?
In t dak van de ST101 zit een exhaust fan (80 mm @1700rpm) en de lucht die daaruit komt (kast volledig dicht) is handwarm.
Als de ST101 straks de nieuwe file-server zal gaan herbergen dan zal de psu naar boven verhuizen, maar dan ga ik t dak denk ik ook modden om er een tweetal 120MM low rpm fan's in te zetten. Bijkomend voordeel is dan dat de bodem plaat vrijkomt om HDD cages te plaatsen.
Daarnaast wil ik dan ook de aan/uit/reset knop en de led's verplaatsen richting t dak, dit om de bovenste
3x5 1/4" posities vrij te maken voor een 4 in 3 module. Het zou een optie zijn om alle 5 1/4" posities te vullen met 4 stuks 5 in 3 modules. Dit geeft dan 20 ipv 16 3 1/2 " plaatsen voor HDD's. Jammer genoeg is dat wel een prijzige grap (ca. € 400 a € 500) en dat geef ik eerlijk gezegd liever uit aan opslagruimte. Hot swap is niet zo'n must voor een niet productie bak.
[ Voor 13% gewijzigd door Pantagruel op 21-08-2011 18:12 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
mo-ther-fuck
beter kan ik het niet omschrijven.
het piepen van mijn Areca? opgelost.
t lag wel even wat complexer als ik dacht.
ik heb een bioscoop thuis. daar hangt prijzig spul aan. dus, wat heb ik gedaan, een 3000VA UPS ervoor gekoppeld. beschermd receiver, consoles, projector, de hele meuk.
wat gebeurd er met zo'n ding op een gegeven moment? bad battery
raad eens welk piepje er EXACT hetzelfde klinkt als een Areca?
de Areca zit in een server hok, mijn UPS zit in een afgesloten bioscoop, dus ook qua afstand klonk het helemaal identiek..
ik zat net film te kijken en ik hoorde het piepje weer...
wat is dit kut zeg

naja, tis opgelost. maandag schijfjes omrpikken en gaan !
het waren overigens de SATA splitters die mijn stroom om zeep hielpen.. na die nieuwe SATA kabels helemaal geen problemen meer gehad.
60 TB can not be enough
sorry freak1 maar moest toch ff beetje lachen toen ik dit las. maar blij dat het probleem uit de wereld is. piepjes zijn nooit leuk.freak1 schreef op zondag 21 augustus 2011 @ 18:42:
oh men.
mo-ther-fuck
beter kan ik het niet omschrijven.
het piepen van mijn Areca? opgelost.
t lag wel even wat complexer als ik dacht.
ik heb een bioscoop thuis. daar hangt prijzig spul aan. dus, wat heb ik gedaan, een 3000VA UPS ervoor gekoppeld. beschermd receiver, consoles, projector, de hele meuk.
wat gebeurd er met zo'n ding op een gegeven moment? bad battery
raad eens welk piepje er EXACT hetzelfde klinkt als een Areca?
de Areca zit in een server hok, mijn UPS zit in een afgesloten bioscoop, dus ook qua afstand klonk het helemaal identiek..
ik zat net film te kijken en ik hoorde het piepje weer...
wat is dit kut zegen dat heeft me dus een week bezig gehouden.. te debiel voor woorden
naja, tis opgelost. maandag schijfjes omrpikken en gaan !
het waren overigens de SATA splitters die mijn stroom om zeep hielpen.. na die nieuwe SATA kabels helemaal geen problemen meer gehad.
Thanks mocht ik geen reply krijgen van adere laat ik het je ff weten. Alvast Dank!zzattack schreef op zondag 21 augustus 2011 @ 13:32:
[...]
Ik kan maandag over een week (29e) ff kijken, als je het dan nog niet weet moet je even een DM sturen, dan vergeet ik het zeker niet
They call her... c*ck juggeling Thunderc*nt!
SUPER!!! Mijn dank!brndst schreef op zondag 21 augustus 2011 @ 17:46:
[...]
Ik heb het even opgemeten voor je.
[afbeelding]
En de sata connectoren steken ieder 0,5cm buiten de pcb.
They call her... c*ck juggeling Thunderc*nt!
Hahahaah LOL ik heb exact dezelfdefreak1 schreef op zondag 21 augustus 2011 @ 18:42:
oh men.
mo-ther-fuck
beter kan ik het niet omschrijven.
het piepen van mijn Areca? opgelost.
t lag wel even wat complexer als ik dacht.
ik heb een bioscoop thuis. daar hangt prijzig spul aan. dus, wat heb ik gedaan, een 3000VA UPS ervoor gekoppeld. beschermd receiver, consoles, projector, de hele meuk.
wat gebeurd er met zo'n ding op een gegeven moment? bad battery
raad eens welk piepje er EXACT hetzelfde klinkt als een Areca?
de Areca zit in een server hok, mijn UPS zit in een afgesloten bioscoop, dus ook qua afstand klonk het helemaal identiek..
ik zat net film te kijken en ik hoorde het piepje weer...
wat is dit kut zegen dat heeft me dus een week bezig gehouden.. te debiel voor woorden
naja, tis opgelost. maandag schijfjes omrpikken en gaan !
het waren overigens de SATA splitters die mijn stroom om zeep hielpen.. na die nieuwe SATA kabels helemaal geen problemen meer gehad.
Btw ik had ook sata splitters, waar de mantel licht was gesmolten....
They call her... c*ck juggeling Thunderc*nt!
Geen dank!, dit is overigens een backplane van een 4220 maar volgens mij is het allemaal hetzelfde.
[ Voor 9% gewijzigd door Birdie_NL op 21-08-2011 22:24 ]
Er zijn een aantal verschillende versies in omloop (stuk of 4). Maar dit is degene die ik bedoeldebrndst schreef op zondag 21 augustus 2011 @ 22:24:
[...]
Geen dank!, dit is overigens een backplane van een 4220 maar volgens mij is het allemaal hetzelfde.
They call her... c*ck juggeling Thunderc*nt!
Dat soort dingen vroeg ik mij ook af, vandaar dat ik hier om ervaringen vroegJormungandr schreef op zondag 21 augustus 2011 @ 22:20:
Die Lian-Li's zien er wel nice uit, maar hoe zitten de schijven vast? Het moet allemaal geen hotswap zijn, maar ik krijg er helemaal de t*ring van om bij een kapotte schijf of aanpassing in de setup dat hele ding weer uit de kast te vijzen. Veel cases gebruiken tegenwoordig carriers (Norco, Fractal).
http://gathering.tweakers.net/forum/view_message/36460271jjwa schreef op zondag 21 augustus 2011 @ 03:32:
Ik zag dat de Coolermaster 4-in-3 hier heel populair is. Zijn er ook mensen die ervaringen hebben met dergelijke producten van Lian Li?
Op hun site staan er drie waar in 3x 5,25" bay niet alleen 4x 3,5" HDDs in kunnen, maar er daarnaast ook 2x 2,5" er in passen voor SSDs. Dus eigenlijk 6-in-3.
[afbeelding]
Lian Li EX-36A2 Lian Li EX-36A3 Lian Li EX-36B1
Ik heb er eentje besteld bij Salland, maar dat duurt al weken, en gaat nog weken duren. Dus blijkbaar zijn ze niet makkelijk verkrijgbaar.
- Heeft iemand ervaring met één of meer van deze producten?
- Waar heb je ze besteld en hoe lang duurde dat?
Ik ben zelf vooral benieuwd naar hun vibratie-dempende eigenschappen, want ik kan aan de informatie op de Lian Li site niet zo goed schatten hoe goed dat geregeld is. Ik ben er achter gekomen dat trillingen van mijn HDDs momenteel de grootste bron van herrie in mijn kast is! Oh, en ik ben benieuwd naar de aansluiting van de fan. Ik hoop dat het een normaal ventilatorenstekkertje is, en niet (alleen) een lompe molex, ivm fancontroller.
ik heb ook spul van lian-li alleen dan de EX-33B, die bevallen me prima
Bij mijn Lian-Li PC60B klem je de schijven in een tray, die je vervolgens in de kast schuift.jjwa schreef op maandag 22 augustus 2011 @ 06:29:
Dat soort dingen vroeg ik mij ook af, vandaar dat ik hier om ervaringen vroeg. Het lijkt op de plaatjes er op dat je 4x een rubber dingetje op de schijf schroeft, waaraan het dan weer in dat Lian Li kastje hangt. Dus ik gok dat je een schijf er uit kan halen zonder het hele kastje uit je systeem te halen.
Komt geen schroevendraaier aan te pas
hopelijk binnen 2 weken mijn Synology binnen. ik zal daar een nette post van maken en ga een aantal vergelijkingspost maken tussen mijn huidige High-End Nas en een redelijk low-cost oplossing van Synology. keep you updated
60 TB can not be enough
Hoewel de laatste generatie synology toestellen best goed performen doen ze toch echt een stuk onder tov een high-end nas, sequentieel lukt wel nog maar rondom io is moordend.freak1 schreef op woensdag 24 augustus 2011 @ 13:09:
nou, ook weer een update van mijn kant. ik zet zo de laatste vervangende harde schijf erin, en dan kan de final rebuild beginnen. draait nu alweer een week stabiel.
hopelijk binnen 2 weken mijn Synology binnen. ik zal daar een nette post van maken en ga een aantal vergelijkingspost maken tussen mijn huidige High-End Nas en een redelijk low-cost oplossing van Synology. keep you updated
Als je via een externe SAS aansluiting extra schijven aansluit, geldt dat zeker niet als 1 chasis
maarja, misschien hebben we alles nu wel zo'n beetje gehad en komen er weinig nieuwe builds bij?
Nog niet in de overzichtslijst opgenomen trouwens, wordt die nog bijgehouden?
Er komen nog builds hoorStaatslot schreef op woensdag 24 augustus 2011 @ 13:27:
Eens, ik vind het ook leuker om meer show-off te zien in plaats van te lezen..
maarja, misschien hebben we alles nu wel zo'n beetje gehad en komen er weinig nieuwe builds bij?
Niet echt spectaculair qua opslag, maar wel een mooi systeem in mijn ogen
Misschien dat ik vanavond tijd heb om wat foto's te maken
Even niets...
naja, dat is dus niet wat Synology beweerd.. daarom ga ik mijn huidige systeem vergelijken op dat soort punten met een DS3611xs met 2 expanders van Synology.. kostentechnisch stukken interessanter dan een zelfbouw NAS (high-end) en toch dezelfde performance.ItsValium schreef op woensdag 24 augustus 2011 @ 13:12:
[...]
Hoewel de laatste generatie synology toestellen best goed performen doen ze toch echt een stuk onder tov een high-end nas, sequentieel lukt wel nog maar rondom io is moordend.
60 TB can not be enough
Ik heb altijd het gevoel dat je het zelf goedkoper kan dan een prebuilt NAS.
Zo'n Atom powered ding met 4 disks kost 400 euro, een E350 kost 110 euro, doe er nog een kastje omheen en je hebt dezelfde performance in een klein doosje...
Tel uit je winst..
Enige voordeel wat een prebuilt NAS heeft is (vaak) de software.
Even niets...
naja, de DS411j van Synology kost je dus 285, dat is dan compleet ex schijven.. zeker met de bijgeleverde software, 3 jaar garantie op t ding, en het stroomverbruik, daar bouw je niet goed tegenop..FireDrunk schreef op woensdag 24 augustus 2011 @ 15:08:
Nou, ik vind dat je nog wel wat meer punten mee mag wegen... Random IO is leuk, maar alleen maar interresant voor bedrijven... Thuis doe je geen Random IO, tenzij je iSCSI of NFS gebruikt om een ESX host te voorzien van storage.
Ik heb altijd het gevoel dat je het zelf goedkoper kan dan een prebuilt NAS.
Zo'n Atom powered ding met 4 disks kost 400 euro, een E350 kost 110 euro, doe er nog een kastje omheen en je hebt dezelfde performance in een klein doosje...
Tel uit je winst..
Enige voordeel wat een prebuilt NAS heeft is (vaak) de software.
verder heb ik het over een iets ander model denk ik dan de andere hier, ik heb het over een 36 disk model met 8 gb gheugen en een xeon
60 TB can not be enough
Even niets...
dat ga ik dus doenFireDrunk schreef op woensdag 24 augustus 2011 @ 15:16:
En dat wil je vergelijken met een 32 disk NAS? Dat wil ik zien
60 TB can not be enough
Even niets...
vergelijking gaat over throughput (kan 400 mb/sec genererenFireDrunk schreef op woensdag 24 augustus 2011 @ 15:21:
Vergelijk dan wel appels met appels he... Dus SabNZBd laten parren bijvoorbeeld... lekker veel Random IO en CPU gebruik
60 TB can not be enough
Bedenk wel waar je aan begint, ik heb ook wel eens proberen op te sommen wat ik allemaal met mijn Custom NAS doe om te kijken of een prebuilt nas iets is, maar komt altijd uit op dingen die ik met mijn NAS doe die niet kunne met zo'n huis-tuin-en-keuken apparaat
Even niets...
eens, voor mij zou het hoofdpunt zijn het stuk virtualisatie. daarom zal ik altijd een losse server erbij moeten hebben. de rest kan allemaal wel met een standaard NAS, en ook nog eens met een fors lager stroomverbruikFireDrunk schreef op woensdag 24 augustus 2011 @ 15:45:
Lastige vergelijking, maar goed om te doen! Succes!
Bedenk wel waar je aan begint, ik heb ook wel eens proberen op te sommen wat ik allemaal met mijn Custom NAS doe om te kijken of een prebuilt nas iets is, maar komt altijd uit op dingen die ik met mijn NAS doe die niet kunne met zo'n huis-tuin-en-keuken apparaat
60 TB can not be enough
Verwijderd
hint : die qnap firmware kan je gratis downloaden ..Enige voordeel wat een prebuilt NAS heeft is (vaak) de software.
reverse engineren van de winter
[ Voor 33% gewijzigd door Verwijderd op 24-08-2011 16:14 ]
Ik heb momenteel 5x 1TB (allemaal Samsung HD103UJ), 4x 2 TB (1 7200RPM Hitachi, 1 Seagate Green, 2 Seagate LP), en 1x 3TB (WDEZRX).
4 van de 1TB schijven zitten in een RAID-5 array (en een klein RAID-0 arraytje voor Windows
Ik zat te denken dat het best gunstig zou kunnen zijn om een RAID 5 of 6 array te maken van 4 tot 8 2TB schijven. Om nu 8 nieuwe schijven te kopen zodat alles hetzelfde type is, is natuurlijk erg duur (voor mij
Behalve dat een array van gemengde schijven zich zal gedragen alsof elke schijf zo traag is als de traagste, en zo klein als de kleinste, denken jullie dat ik nog meer problemen zou krijgen?
[ Voor 8% gewijzigd door jjwa op 24-08-2011 17:50 ]
Ik heb er nu een X3 415e in zitten en 3x2GB van mijn i7 met 10 WD 2GB EARS en 1GB USB stick met Freenas. Gelukkig schijnt het verder wel te werken, de disks zie iig staan
Het werkt verder ok (raidz2) maar toch nog wat meer moeite met Freenas dan verwacht. Ik zie geen log/diagnostics info, geen smartdrive, geen CRON optie en die dingen zie ik toch hier en daar op screenshots. Ook geen serienummers bij de disks. Als ik een disk lostrek is het enige wat ik zie 'degraded' maar verder geen enkele indicatie welke disk. Maar via SSH en zpool status zie ik dan wel welke disk offline is dus ik heb dat zo een beetje in kaart gebracht nu.
Duidelijk dat ik nog veel moet lezen, troubleshooting online valt mij nog een beetje tegen voor Freenas. Verder is de read rond de 100Mb/s (SMB) and write rond de 80-109MB/s dus dat is voor mij wel voldoende.
Geheugen gebruikt ligt blijkbaar rond de 5GB en CPU rond de 25%
Dus ik wil nog 's verder kijken naar FreeBSD/ PC-BSD om eventueel ook een virtual box te kunnen gebruiken. Ik vraag me wel af of FreeBSD ook lekker van een USB stick werkt, maar goed ik heb geen sata poort meer vrij
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Deze vraag kan je beter in Het grote DIY RAID NAS topic deel 3 stellen.jjwa schreef op woensdag 24 augustus 2011 @ 17:48:
Heeft iemand ervaring met RAID arrays met verschillende merken en types drives?
Ik heb momenteel 5x 1TB (allemaal Samsung HD103UJ), 4x 2 TB (1 7200RPM Hitachi, 1 Seagate Green, 2 Seagate LP), en 1x 3TB (WDEZRX).
4 van de 1TB schijven zitten in een RAID-5 array (en een klein RAID-0 arraytje voor Windows). Dat array van de 1TBtjes bevalt me eigenlijk heel goed (mijn eerste HW RAID setje ooit
). Behalve dat RAID 5 of 6 natuurlijk veel leuker is met 8 of 12 ipv 4 poorten.
Ik zat te denken dat het best gunstig zou kunnen zijn om een RAID 5 of 6 array te maken van 4 tot 8 2TB schijven. Om nu 8 nieuwe schijven te kopen zodat alles hetzelfde type is, is natuurlijk erg duur (voor mij). Dus vroeg ik me af hoe nadelig het zou zijn als ik mijn huidige schijven voor zoiets zou gebruiken.
Behalve dat een array van gemengde schijven zich zal gedragen alsof elke schijf zo traag is als de traagste, en zo klein als de kleinste, denken jullie dat ik nog meer problemen zou krijgen?
Dit is een showoff topic
attentie
Graag even DM als je vind dat je in de lijst thuis hoort maar er nog niet in staat. Heb wel even geduld, kan even duren voor je er ook in staat.Wat heel erg helpt is als je zelf even een DM stuurt met de juiste tabel layout en llinkjes zodat er alleen wat gecopy/paste hoeft te worden.
Je hebt helemaal gelijkiMars schreef op woensdag 24 augustus 2011 @ 18:31:
[...]
Deze vraag kan je beter in Het grote DIY RAID NAS topic deel 3 stellen.
Dit is een showoff topic
Ik heb lang geleden al eens noodgedwongen een raid0 array gehad van eens ata en sata disk van verschillende merken. Performance was zelfs nog oke, sneller dan een array van 2x ide maar uiteraard langzamer dan een array van 2x sata.
Mbt jouw setup, ik draai al jaren hitachi disks en heb ook array's draaien met verschillende drives (wel allemaal hitachi). Heb nu de 1tb k71000 en 7k1000.B en 7k1000.C gecombineerd draaien in een 18-disk raid6 array (verdeling 13 : 4 : 1) en dat gaat al jaren goed. Jij hebt nu wrs de 7K2000 2tb die je wilt combineren met een 5K3000 / 7K3000 2TB. Gezien mijn ervaringen verwacht ik beide gevallen geen problemen. Persoonlijk zou ik wel de 7K3000 2tb nemen omdat die qua zoektijden meer in de buurt komen van je 7k2000 dan de 5k3000.
nooit.thalantis schreef op donderdag 25 augustus 2011 @ 09:08:
een vraag voor de mede Areca eigenaren, hoe vaak doen jullie een volume check?
60 TB can not be enough
Nooitthalantis schreef op donderdag 25 augustus 2011 @ 09:08:
een vraag voor de mede Areca eigenaren, hoe vaak doen jullie een volume check?
nooitthalantis schreef op donderdag 25 augustus 2011 @ 09:08:
een vraag voor de mede Areca eigenaren, hoe vaak doen jullie een volume check?
Nog nooit gedaan, maar ja de Areca heb ik net 24h in mijn bezitthalantis schreef op donderdag 25 augustus 2011 @ 09:08:
een vraag voor de mede Areca eigenaren, hoe vaak doen jullie een volume check?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Ik ben zeer benieuwd naar jouw ervaring en resultaten van de vergelijking. De nieuwe Synology sprong mij ook al in het oog. Met name de mogelijkheid tot uitbreiding, de best krachtige cpu en de eenvoud van de software lijken mij een ideale combinatie. Daar wil ik wel wat performance voor inleveren.freak1 schreef op woensdag 24 augustus 2011 @ 14:59:
[...]
naja, dat is dus niet wat Synology beweerd.. daarom ga ik mijn huidige systeem vergelijken op dat soort punten met een DS3611xs met 2 expanders van Synology.. kostentechnisch stukken interessanter dan een zelfbouw NAS (high-end) en toch dezelfde performance.
Zou je en jouw test ook een iscsi test willen doen?
Volume check?thalantis schreef op donderdag 25 augustus 2011 @ 09:08:
een vraag voor de mede Areca eigenaren, hoe vaak doen jullie een volume check?
Heeft iemand al geprobeerd om de QNAP of Synology firmware te draaien op eigen hardware?Verwijderd schreef op woensdag 24 augustus 2011 @ 16:11:
[...]
hint : die qnap firmware kan je gratis downloaden ..
reverse engineren van de winter
Ik zie misschien iets over het hoofd, maar hoe is die DS3611xs (evt. met expanders) zoveel goedkoper dan zelfbouw?
Hoezo goedkoper dan zelfbouw ?Sleepie schreef op donderdag 25 augustus 2011 @ 22:22:
Ik ben eigenlijk helemaal niet bekend met dat Synology spul, maar als ik de prijs van die DS3611xs zo eens bekijk, voor dat geld kun je toch ook makkelijk zelf een NAS in elkaar bouwen?
Ik zie misschien iets over het hoofd, maar hoe is die DS3611xs (evt. met expanders) zoveel goedkoper dan zelfbouw?
i3+I3 mobo, 2GB ram, hba kaartje, rebel12 met 2 hotswapbays.
Dat zal bij elkaar toch bij lange na geen 2200E kosten
Nvrmind, alleen die laatste regel lezen geeft nogal een vertekend beeld
[ Voor 8% gewijzigd door heuveltje op 25-08-2011 22:43 ]
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Inderdaad niet echt duidelijk sorry
Nooitthalantis schreef op donderdag 25 augustus 2011 @ 09:08:
een vraag voor de mede Areca eigenaren, hoe vaak doen jullie een volume check?
APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
Voordeel van zelfbouw is ook dat je makkelijk kunt upgraden, zowel software als hardware. Dus persoonlijk hou ik niet van kant-en-klare NASjes. Bijvoorbeeld. Binnenkort lekker uitbreiden met een Intel Thunderbold/lightpeak aansluiting (Wikipedia: Thunderbolt (interface)) voor een razend snelle 600MB/sec link (http://www.anandtech.com/...r6-mac-thunderbolt-review) naar je work/game stations. Thunderbolt kabels zijn wel duur en kort qua lengte, helaas.ItsValium schreef op woensdag 24 augustus 2011 @ 13:12:
[...]
Hoewel de laatste generatie synology toestellen best goed performen doen ze toch echt een stuk onder tov een high-end nas, sequentieel lukt wel nog maar rondom io is moordend.
APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
nou, niet zo moeilijkSleepie schreef op donderdag 25 augustus 2011 @ 22:22:
Ik ben eigenlijk helemaal niet bekend met dat Synology spul, maar als ik de prijs van die DS3611xs zo eens bekijk, voor dat geld kun je toch ook makkelijk zelf een NAS in elkaar bouwen?
Ik zie misschien iets over het hoofd, maar hoe is die DS3611xs (evt. met expanders) zoveel goedkoper dan zelfbouw?
als je eerlijk gaat vergelijken, dus je wilt een zo energie zuinig mogelijke oplossing, wat je met redelijk mainstream spullen kan bouwen, dan kom je al snel met zelfbouw op:
bizar dure kasten (om 36+ disks kwijt te kunnen), server grade moeder borden, server grade raid controllers, server grade schijven, hot swap bays etc. etc.
dat heb ik nu jarenlang gedaan, nu heb ik die kosten eens uitgezet tegen een synology, om eenzelfde betrouwbaarheid te kunnen hebben, en dat is dus gewoon goedkoper.
ik zal het in een ander topic voorrekenen
en ja, ik weet dat ik de linux software NAS oplossingen hier oversla, en met een reden. indien mijn huidige areca nu crashed, pak ik mijn server op, rij ik naar webconnexxion, en helpt john me.
indien een synology crashed, mail ik naar synology die remote inlogt en me helpt, of ga ik naar de importeur die het oplost.
heb ik een opensource software raid icm zelfbouw, dan kan ik dat niet.
ja, ik kan terecht op het forum en ik kan hopen dat iemand me dan wil helpen, maar dat is het dan ook wel.
let op, dit doet totaal geen afbreuk aan de betrouwbaarheid van een ZFS of wat dan ook, dit is puur gezien vanuit de consument.
60 TB can not be enough
kan met een Synology ook? QNAP volgens mij ook.. hebben gewoon uitbreidingspoorten. Synology ondersteund bijvoorbeeld extra 10gbe kaarten..tHe_BiNk schreef op vrijdag 26 augustus 2011 @ 04:00:
[...]
Voordeel van zelfbouw is ook dat je makkelijk kunt upgraden, zowel software als hardware. Dus persoonlijk hou ik niet van kant-en-klare NASjes. Bijvoorbeeld. Binnenkort lekker uitbreiden met een Intel Thunderbold/lightpeak aansluiting (Wikipedia: Thunderbolt (interface)) voor een razend snelle 600MB/sec link (http://www.anandtech.com/...r6-mac-thunderbolt-review) naar je work/game stations. Thunderbolt kabels zijn wel duur en kort qua lengte, helaas.
60 TB can not be enough
De prijs had ik overigens helemaal niet naar gekeken. Ben zelf vaak geneigd om zoiets "over te designen" en dus een dikke raidcontroller en dergelijke en dan maar 1gbit poort gebruiken bijvoorbeeld. Bouw in eigen beheer geeft meer vrijheid en ruimte tot betere performance, als daar een out-of-the-box nas bij in de buurt komt dan zet ik mijn data daar liever op.
Ik zoek iets wat solide is en waar ik nog iets aan kan uitbreiden. Bijvoorbeeld bij Synology een tweede kabinet aan een expansiepoort hangen.
Zelf ben ik wel aan het experimenteren met ZFS guru
Dat klopt inderdaad maar een belangrijk aspect voor mij is het spelen/experimenteren met nieuw materiaal.freak1 schreef op vrijdag 26 augustus 2011 @ 06:19:
[...]
nou, niet zo moeilijk
als je eerlijk gaat vergelijken, dus je wilt een zo energie zuinig mogelijke oplossing, wat je met redelijk mainstream spullen kan bouwen, dan kom je al snel met zelfbouw op:
bizar dure kasten (om 36+ disks kwijt te kunnen), server grade moeder borden, server grade raid controllers, server grade schijven, hot swap bays etc. etc.
dat heb ik nu jarenlang gedaan, nu heb ik die kosten eens uitgezet tegen een synology, om eenzelfde betrouwbaarheid te kunnen hebben, en dat is dus gewoon goedkoper.
ik zal het in een ander topic voorrekenen
en ja, ik weet dat ik de linux software NAS oplossingen hier oversla, en met een reden. indien mijn huidige areca nu crashed, pak ik mijn server op, rij ik naar webconnexxion, en helpt john me.
indien een synology crashed, mail ik naar synology die remote inlogt en me helpt, of ga ik naar de importeur die het oplost.
heb ik een opensource software raid icm zelfbouw, dan kan ik dat niet.
ja, ik kan terecht op het forum en ik kan hopen dat iemand me dan wil helpen, maar dat is het dan ook wel.
let op, dit doet totaal geen afbreuk aan de betrouwbaarheid van een ZFS of wat dan ook, dit is puur gezien vanuit de consument.
Ik ben nu bezig aan een bak waas ESXi op draait, daar gaat mijn NAS op draaien, maar ook nog een heel deel andere (test)opstellingen.
Tenslotte kan ik voor de betrouwbaarheid er nog steeds een kant-en-klaar NASje naast zetten die een mirror bevat van mijn belangrijkste data. Dat is imho zowiezo noodzakelijk als je vaak aan je NAS wil sleutelen of gewoonweg altijd een toegankelijke backup te hebben.
[ Voor 3% gewijzigd door BlackShadow op 26-08-2011 09:28 ]
Ben nu toch wel een beetje nieuwsgierig naar je reken modelfreak1 schreef op vrijdag 26 augustus 2011 @ 06:19:
[...]
dat heb ik nu jarenlang gedaan, nu heb ik die kosten eens uitgezet tegen een synology, om eenzelfde betrouwbaarheid te kunnen hebben, en dat is dus gewoon goedkoper.
ik zal het in een ander topic voorrekenen
juh heb een aanvraag gedaan of ik een vergelijkingstopic mag makenPerkouw schreef op vrijdag 26 augustus 2011 @ 10:20:
[...]
Ben nu toch wel een beetje nieuwsgierig naar je reken modelAls je het desbetreffende topic hier nog eens wilt neerzetten ?
60 TB can not be enough
Om heftige discussies te voorkomen in het topic, lees eerst goed de start post om te weten waar aan het systeem moet voldoen. Ben je van mening dat jouw systeem toch in dit topic hoort maar valt hij niet binnen de gestelde eisen, neem dan contact op met een van de auteurs van dit topic zij zullen open staan voor goede argumenten, zoals ook vermeld in de start post.
Gebruik de in de TS geplaatste tabel om dit topic leesbaar te houden!