Een goedkope voeding is als een lot in de loterij, je maakt kans op een paar tientjes korting, maar meestal betaal je de hoofdprijs. mijn posts (nodig wegens nieuwe layout)
Een drive reset kan toch niet terwijl er een IO in progress is?Femme schreef op zaterdag 17 december 2005 @ 12:48:
Elke keer als er communicatie met een drive opgezet moet worden, moet er een tijdrovende drive reset plaatsvinden.
Dat zou betekenen dat SATA port multiplers even slecht zijn als een PATA kanaal (maar een device actief).
Verwijderd
Ik moet het eens testen, ze staan nu te syncen en dat duurt lang. Waarom zou je raid1 over 6 HD's willen, Raid5 is handiger uiteraard.TD-er schreef op zaterdag 17 december 2005 @ 21:57:
@RutgerM:
Wat halen die kastjes in de praktijk aan transferrate?
en dan met name raid-1 en raid 5.
Wat heb je ervoor betaald?
Ik kan eigenlijk alleen maar dit vinden:
BTW, ik heb ze nu aan een UW-controller hangen dus moet eigenlijk wat snellers hebben, U2W gebruik ik namelijk voor interne HD's. Aangezien ik ze toch maar 1x vol pompen en daarna ga bijwerken op veranderde files lijkt me dit wel even voldoende.
Ze hebben me € 100,- per stuk gekost met 12x 45GB erin.
[ Voor 4% gewijzigd door Verwijderd op 17-12-2005 22:19 ]
Dit is wat ik uit een whitepaper van LSI Logic haal:OlafvdSpek schreef op zaterdag 17 december 2005 @ 22:09:
[...]
Een drive reset kan toch niet terwijl er een IO in progress is?
Dat zou betekenen dat SATA port multiplers even slecht zijn als een PATA kanaal (maar een device actief).
bronSATA II and Port Multipliers
But as enterprises increasingly turn to SATA disc drives for nearline, backup/restore and other low-availability storage duties, the need for greater scalability has steadily grown. The new SATA II specification addresses this rising demand with the advent of devices known as Port Multipliers (PMs). While SATA 1.0 allows only one drive per host controller port (requiring additional ports to accommodate extra drives), SATA II’s Port Multiplier functions like a hub, enabling each PM-equipped port on the host controller to connect up to 15 drives. (Note that PMs with four- or eight-drive connectivity will likely prove more common).
To be sure, Port Multipliers clearly enhance SATA’s scalability in workstation and high-performance PC environments. Video editing, audio editing, graphic design and video games are just a few of the applications that can benefit from the improved performance and capacity of PC RAIDs utilizing Port Multipliers. Furthermore, such RAID configurations can significantly boost the effectiveness of low-end servers. Nevertheless, Port Multipliers fall short of meeting the enterprise’s needs in a data center environment. Specifically, SATA infrastructure, including its Port Multipliers, presents challenges in the following areas:
· Compatibility
Port Multipliers require SATA II host controllers that are Port Multiplier-aware; legacy SATA 1.0 controllers will need to be replaced.
· Expandability
Unlike conventional hubs, Port Multipliers cannot be linked together, severely limiting their flexibility and expandability in a network environment. PM’s can quickly become prohibitively complex as drive quantities reach enterprise-class levels. For example, based on the theoretical limit of 15 drives per PM, deployment of 100 SATA drives would require seven PMs. Connecting 100 drives via the more common eight-port PM configuration would require 13 Port Multipliers.
· Performance
Switches are the de facto enterprise standard because they enable simultaneous communication between multiple initiators and targets. But Port Multipliers support only one active host connection, significantly slowing effective throughput. Furthermore, each time communication is initiated with a drive, a time-consuming drive reset must occur.
Raid1 over 6 HD's is inderdaad een beetje zinloos, maar per 2 en dan 3 setjes zou mooi zijn, of een andere combinatie (bijv 1x raid-1 en 1x raid5 van 4 schijven)Verwijderd schreef op zaterdag 17 december 2005 @ 22:18:
[...]
Ik moet het eens testen, ze staan nu te syncen en dat duurt lang. Waarom zou je raid1 over 6 HD's willen, Raid5 is handiger uiteraard.
[...]
Ikzelf heb namelijk niet echt veel dezelfde schijven liggen, laat staan 6 gelijken en zat dus een beetje te denken of het handig voor mij zou zijn.
Ik ga er een beetje vanuit dat schijven > 120 GB niet zullen werken, of in elk geval niet meer dan 128 GB adresseerbaar zullen hebben.
Een goedkope voeding is als een lot in de loterij, je maakt kans op een paar tientjes korting, maar meestal betaal je de hoofdprijs. mijn posts (nodig wegens nieuwe layout)
Verwijderd
Moet ik testen, ik duw er meteen even een 200GB inTD-er schreef op zondag 18 december 2005 @ 02:02:
[...]
Raid1 over 6 HD's is inderdaad een beetje zinloos, maar per 2 en dan 3 setjes zou mooi zijn, of een andere combinatie (bijv 1x raid-1 en 1x raid5 van 4 schijven)
Ikzelf heb namelijk niet echt veel dezelfde schijven liggen, laat staan 6 gelijken en zat dus een beetje te denken of het handig voor mij zou zijn.
Ik ga er een beetje vanuit dat schijven > 120 GB niet zullen werken, of in elk geval niet meer dan 128 GB adresseerbaar zullen hebben.
Wat een supersnelle serviceVerwijderd schreef op zondag 18 december 2005 @ 02:19:
[...]
Moet ik testen, ik duw er meteen even een 200GB in
Een goedkope voeding is als een lot in de loterij, je maakt kans op een paar tientjes korting, maar meestal betaal je de hoofdprijs. mijn posts (nodig wegens nieuwe layout)
Verwijderd
Ah, het werkt
Na wat eerder rekenwerk dacht ik dat 400GB wel haalbaar moest zijn, dit is volgens mij een limit waar ik zeker aan vast zit. Iemand even een HD over om te kijken ? Duurt maar een paar seconde
[ Voor 103% gewijzigd door Verwijderd op 18-12-2005 02:47 ]
Verwijderd schreef op zondag 18 december 2005 @ 02:37:
[...]
Ik heb alleen een 120GB, ik moet hem alleen even als "Single Disk" zien te jumperen... even bij Maxtor looken.
edit:
Ah, het werktgewoon als master jumperen
Na wat eerder rekenwerk dacht ik dat 400GB wel haalbaar moest zijn, dit is volgens mij een limit waar ik zeker aan vast zit. Iemand even een HD over om te kijken ? Duurt maar een paar seconde
Ik heb hier een Pata-200 GB schijf van WD in mijn handen, lukt het zo denk je?
Kabeltje ff richting Groningen mikken en dan moet het wel lukken denk ik.
Een goedkope voeding is als een lot in de loterij, je maakt kans op een paar tientjes korting, maar meestal betaal je de hoofdprijs. mijn posts (nodig wegens nieuwe layout)
Verwijderd
Kabeltje komt de bracket niet uit dus ik denk dat het lastig wordtTD-er schreef op zondag 18 december 2005 @ 03:09:
[...]
offtopic:
Ik heb hier een Pata-200 GB schijf van WD in mijn handen, lukt het zo denk je?
Kabeltje ff richting Groningen mikken en dan moet het wel lukken denk ik.
540gb voor €100 ? Dat lijkt mij een best mooie prijsVerwijderd schreef op zaterdag 17 december 2005 @ 22:18:
[...]
Ze hebben me € 100,- per stuk gekost met 12x 45GB erin.
Energie zuinig zijn die dingen waarschijnlijk niet, maar het is zeker wel leuk speelgoed
Kan je is een testje draaien met hoeveel mb's p/s je haald?
Verwijderd
€ 100,- per device, dus in totaal 300 euro, leek me ook niet te duurarnoman schreef op zondag 18 december 2005 @ 14:23:
[...]
540gb voor €100 ? Dat lijkt mij een best mooie prijs
Energie zuinig zijn die dingen waarschijnlijk niet, maar het is zeker wel leuk speelgoed
Kan je is een testje draaien met hoeveel mb's p/s je haald?
Ik kan eens kijken. IK weet dat het backpanel UDMA33 is, niet vreselijk snel maar het gaat mij om de "redundancy" van de dingen. Dubbele voedingen enz. Ondanks dit alles zou ik mag 80MB/S moeen kunnen halen.
Er is een ook een versie met een UDMA100 backplane, deze haalt 160MB/S. Ik vraag me af of dit alleen de controller is of ook echt de backplane.
Ik ben nu een beetje met CentOS aan het spelen om de machine waar ze aan hangen dus ik test later wel een keer de snelheid.
Het gaat mij hier dus meer om bruikbaarheid ipv snelheid. Komt toch als backup te draaien, dus redelijk dood systeem.
[ Voor 3% gewijzigd door Verwijderd op 18-12-2005 14:53 ]
Nu zag ik dat er aansluitingen op zitten voor de HDD- en Fault leds. Zijn hier ook "kant en klare" oplossingen voor die je er zo op kunt aansluiten? Of moet je hier zelf iets voor knutselen?
Ik ben namelijk niet superhandig met het solderen van dit soort dingen
Bij Areca zag ik overigens niets staan als optie.
Of wellicht iemand die wat meer kan vertellen over die "I2C" cable. Ik zie daar nl. ook erg weinig over staan waar ik iets mee kan.
Hoe hebben andere dat gedaan?
[ Voor 22% gewijzigd door rally op 25-02-2006 12:15 . Reden: Vraag toegevoegd ]
http://www.deyterra.com
Helaas zit er slechts 1 groen ledje per schijf in, wil je dus ook met je fault-leds (of de activity, maar net welke je aan wilt sluiten) dan moet je ook daar zelf gaan knutselen.
Voor zover ik in alle documentatie (die van Areca vrij volledig, die van Chenbro al een stuk minder, maar bij Chenbro valt wel een documentje mbt 3ware controllers te vinden, die hebben dezelfde led-aansluiting) heb kunnen vinden zijn het gewoon 1-op-1 kabels, maar voordat je zomaar pinnetjes gaat verbinden zou ik het toch eerst mbv de diverse pdf-jes uitzoeken, al was het maar voor de polariteit.
Over de I2C connector heb ik ze ook al eens gemailed, maar die is schijnbaar voor proprietaire meuk waar ze niets over vrij willen geven.
[ Voor 67% gewijzigd door Paul op 25-02-2006 12:34 . Reden: Quote niet nodig - uitgebreid ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
2 84-210710-031 HOT-SWAP Serial ATAII BK CC1012 drivecages. http://www.chenbro.com.tw...cessories_view.php?aid=62
De drivecage heeft een SATAII backplane en zorgt ervoor dat je direct diskactivity leds hebt zonder kabels. Door de diskfault van de Areca aan de speciale 4 pins aansluiting op de Chenbro backplane aan te sluiten heb je de beschikking over:
Disk locate led
Disk fault led
Disk rebuilt led
Disk activity (vanaf het backplane zelf)
Ondanks dat de disk led aansluitingen als paren op de controller aanwezig zijn, hoeft slechts 1 pool (cathode) te worden aangesloten.
Met de I2C (vierpolige kabel) zou je op een I2C compatible backplane dus zo kunnen aansluiten en worden alle diskleds aangestuurd incl. activity, fault, rebuilt en locate. Volgens Areca zou het moeten werken met Chenbro en zeker met backplane van Ci Design.
http://www.areca.com.tw/news/html/release_16_9_05.htm
[ Voor 20% gewijzigd door John2B op 25-02-2006 20:42 ]
A friendship founded on business is better than a business founded on friendship
Dat ziet er wel goed uit... zouden deze ook in een CoolerMaster Stacker werken? Om nu een nieuwe kast te kopen alleen voor een backplane? (Ik moet er nl. minimaal 8 schijven in kwijt kunnen, tot maximaal 17).John2B schreef op zaterdag 25 februari 2006 @ 20:37:
Ik heb zelf de Chenbro SR108 server kast samen met
2 84-210710-031 HOT-SWAP Serial ATAII BK CC1012 drivecages. http://www.chenbro.com.tw...cessories_view.php?aid=62
De drivecage heeft een SATAII backplane en zorgt ervoor dat je direct diskactivity leds hebt zonder kabels. Door de diskfault van de Areca aan de speciale 4 pins aansluiting op de Chenbro backplane aan te sluiten heb je de beschikking over:
Disk locate led
Disk fault led
Disk rebuilt led
Disk activity (vanaf het backplane zelf)
Ondanks dat de disk led aansluitingen als paren op de controller aanwezig zijn, hoeft slechts 1 pool (cathode) te worden aangesloten.
Met de I2C (vierpolige kabel) zou je op een I2C compatible backplane dus zo kunnen aansluiten en worden alle diskleds aangestuurd incl. activity, fault, rebuilt en locate. Volgens Areca zou het moeten werken met Chenbro en zeker met backplane van Ci Design.
http://www.areca.com.tw/news/html/release_16_9_05.htm
http://www.deyterra.com
Ik ben dus wel zoekende naar deze standaard SATAII Drivecages waar alle led's op werken dus voor tips hou ik mij aanbevolen.
[ Voor 3% gewijzigd door John2B op 25-02-2006 20:58 ]
A friendship founded on business is better than a business founded on friendship
Ik heb me al helemaal blauw gezocht naar alternatieven, maar er is gewoon helemaal niets te vinden
Nou zou ik eventueel zelf iets kunnen fabriceren, maar ik weet nu al dat het er niet uit gaat zien als ik dat ga doen

http://www.deyterra.com
Verwijderd
jah lijkt me wel, je heb nartellijk nog kast voeding en een netwerkaart nodig.
Maar daarna zit je op hardware gebied wel rond.
Vervolgens zou je Windows Server 2003/2000 kunnen instaleren of gewoon Windows XP of 2000.
Vervolgens map je mappen aan en deel je die en dan ben je klaar.
Dan is het neits meer daneen fileserver.
Een mooi backplane of DriveCage SATAII met leds en je bent op de helft, als het dan nog eenvoudig is aan te sluiten aan de Areca is het mooi in 1x af.rally schreef op zaterdag 25 februari 2006 @ 21:02:
Damn... dat is slecht nieuws.
Ik heb me al helemaal blauw gezocht naar alternatieven, maar er is gewoon helemaal niets te vinden
Nou zou ik eventueel zelf iets kunnen fabriceren, maar ik weet nu al dat het er niet uit gaat zien als ik dat ga doen
A friendship founded on business is better than a business founded on friendship
Ik heb Dr. Google al geprobeerd, maar hij is daar "wat lastig" (understatement) te krijgen in Nederland?
@Bud: Waar heb jij die twee HotSwap backplanes vandaan?
http://www.deyterra.com
Wel een beetje herry maker...
Hij is ook als Chieftec te krijgen. Bij bv. 4Launch of Alternate.rally schreef op woensdag 15 maart 2006 @ 13:19:
Weet iemand waar de "procase SNT3141" te krijgen is?
Ik heb Dr. Google al geprobeerd, maar hij is daar "wat lastig" (understatement) te krijgen in Nederland?
@Bud: Waar heb jij die twee HotSwap backplanes vandaan?
I rather have a bottle in front of me, then a frontal lobotomie
- Tyan Tunder MPX (dual athlon pci 64 bit) €194,01
- 2x AMD Athlon M 2800+ (2 ghz 512kb) 2x €79,90 = €159,80
- 1 gb geheugen (kingston 266 mhz ECC Reg.) €112,00
- Adaptec AAR-2810SA (8x SATA150 RAID, PCI64/66) €510,31
- 5x Maxtor MaxLine III, 300GB (7200rpm, SATA, 16MB, NCQ) €120,38 = €601.90
- Western Digital Raptor WD360GD, 36GB (10000rpm, SATA, 8MB) €104,86
Voor een 300 euro moet je wel een kast, psu en een vga kaartje kunne vinde denk ik?
T is net binne 't budget van 2000 euro, maar dan heb je wel een snel (dual proc 1 gb) raid5 systeem met ongeveer 1.1 TB hardeschijf ruimte (voor opslag) en een 10.000 rpm raptor system disk.
Het geheuge is ECC Reg, en kan als het te weinig word uitgebeid worden tot maximaal 4 gb ecc (registed ondersteuning).
De Adaptec AAR-2810SA is weggegooid geld. Trage kaart met een zwaar verouderde I/O processor. Neem een Areca ARC-1120/ARC-1220 voor topprestaties of een LSI MegaRAID SATA 300-8X voor een goede price/performance.
Zonder doel van de server kan er weinig zinnigs over gezegd worden natuurlijk.bakvis schreef op woensdag 15 maart 2006 @ 14:13:
Ffe iets samegesteld:
Thanks, maar dit is de 15-bay rackmount chassis. Ik was eigenlijk op zoek naar die 4-bay Backplane voor in een Coolermaster Stacker (kunnen drie van dat soort apparaten in).bakkerl schreef op woensdag 15 maart 2006 @ 13:28:
http://www.supermicro.nl/...is/3U/933/SC933T-R760.cfm
Wel een beetje herry maker...
En herrie maakt niet uit want het staat bij mij toch in de kelder
Als alles af is post ik wel wat plaatjes.
Aangezien we nu toch dicht bij voltooien van het project zijn: De specs zoals op het moment besteld (laatste spullen komen waarschijnlijk de 39-31e binnen van deze maand):
ASUS P5ND2-SLI (aangezien ik bestel n.a.v. de compatibility matrix van Areca. Wil niet hetzelfde gedonder hebben als de TS
2 x 512 PC 4200 (Kingston)
Pentium D-920 (3.0GHz) -> Voornamelijk voor het par en rarwerk. Downloaden doe ik op mijn hoofd PC
Areca ARC-1260 (16 poorts)
Battery Backup Unit
1GB 333MHz Cache geheugen
8 x 500GB MaxLine Pro (i.v.m. 5-jaar garantie, hotswap en s.m.a.r.t. mogelijkheden)
Dit alles in een CoolerMaster Stacker met 3 x 4 Drivebay units. Eigenlijk wil ik er hotswap bays in hebben, maar gezien de kosten houden we het hier maar even bij
Zou (voorlopig) toch genoeg moeten zijn
http://www.deyterra.com
[ Voor 11% gewijzigd door bakvis op 15-03-2006 16:39 ]
Ik kan me niet voorstellen dat de DM11 serie geen SMART ondersteund en de ML serie wel?
Wat dacht je van deze optie met € 89,00 is het betaalbaar.
Die heb ik zelf net aangeschaft en het werkt maar je zult wel even de ventilator moeten slopen want dat kreng maakt gewoon een pokkeherrie. Wellicht niet ernstig als de bak op zolder staat maar als-t-ie zoals bij mij onder het bureau in een stille kamer staat dan is het niet te harden.
[ Voor 5% gewijzigd door jwpmzijl op 15-03-2006 16:59 ]
Hans van Zijl
Sata & Pata Cagesjwpmzijl schreef op woensdag 15 maart 2006 @ 16:58:
@rally
Wat dacht je van deze optie met € 89,00 is het betaalbaar.
Die heb ik zelf net aangeschaft en het werkt maar je zult wel even de ventilator moeten slopen want dat kreng maakt gewoon een pokkeherrie. Wellicht niet ernstig als de bak op zolder staat maar als-t-ie zoals bij mij onder het bureau in een stille kamer staat dan is het niet te harden.
Sata & Pata Cagesjwpmzijl schreef op woensdag 15 maart 2006 @ 16:58:
@rally
Wat dacht je van deze optie met € 89,00 is het betaalbaar.
Die heb ik zelf net aangeschaft en het werkt maar je zult wel even de ventilator moeten slopen want dat kreng maakt gewoon een pokkeherrie. Wellicht niet ernstig als de bak op zolder staat maar als-t-ie zoals bij mij onder het bureau in een stille kamer staat dan is het niet te harden.
*De Areca heb ik voor € 1050 bij WebConnexion vandaan. In mijn systeem kunnen totaal 14 HD's (op voorwaarde dat ik mijn powerknop verplaats
*Reden om voor de ML Pro te gaan is dat deze 5 jaar garantie heeft tegenover 3 jaar voor de DM serie. Voor het prijsverschil van € 25,00 wil ik wel 2 jaar garantie kopen.
*Voeding is een Enermax Liberty 620
Totaal prijs...<slik> Daar gaan we (ik hoopte hier niet meer mee geconfronteerd te worden
*CoolerMaster Stacker € 124,00
*Asus P5DN2 € 88,00
*1GB Kingston Geheugen € 124,00
*Pentium D 920 € 258,00
*PCI-e Videokaart (had ik nog liggen) € 59,00
*Enermax Liberty 620 € 148,00
*Areca 1260 € 1050,00
*Battery Backup Unit € 135,00
*1GB DDR 333MHz voor Areca € 104,00
*8xMaxtor Maxline Pro 500GB € 2400,00
Totaal (AUW

Zoals je ziet zitten de grootste kosten in de HD's + de Controller (maar liefst 78% van de totaalprijs!)
Dit alles gaat in RAID6 draaien (met 2.8TB effectieve opslagruimte neem ik liever niet al teveel risico). Doel is (bijna) de 5TB te gaan halen in de komen de jaren. Dat is ongeveer 1000DVD's + nog wat overige data.
Ja... HEEL veel geld, maar nu kan ik de komende jaren voort zonder weer van server e.d. te hoeven verwisselen, bovendien kan ik nu eenvoudig capaciteit uitbreiden indien nodig. Ook staat al mijn data op 1 locatie (i.p.v. zoals nu op 4 locaties met totale capaciteit van 1.1TB).
Belangrijke data ga ik op een Maxtor OneTouch backup disk zetten.
Hopelijk krijg ik snel mijn schijven binnen (daar is het wachten dus nog op
http://www.deyterra.com
Dank, dat topic had ik nog niet gezien.
Hans van Zijl
Ik heb er nu 12 x een 400 GB harddisk in hangen en ben gisteravond om ongeveer 03:00 's nachts (dus eigenlijk vanochtend
Nu zegt de controller in het RAID overzicht "Need Init" en zodra ik op de RAID config druk "initializing". Er is echter nergens een soort van progress report te zien.
Hoe lang gaat het initialiseren van een 4TB volume ongeveer duren (draai hem nl. in RAID6). Uiteraard heb ik hem niet in de achtergrond laten draaien. Dit is nl. het enige volume.
Iemand ervaring mee? Ik kan namelijk niets vinden hierover (ook niet op de site en/of documentatie van Areca.
Config:
Areca 1260
Write Back
Battery Backup Unit
12 x 400 GB
http://www.deyterra.com
Bij mij (16x 300gb in raid6, met BBU) duurt een rebuild (80% background task prio, fileserver was tijdens rebuilds voornamelijk idle) tussen de 3 uur 48 minuten en 4 uur 5 minuten.
Hij wilde steeds rebuilden na een reboot, maar na de 3e keer was het me opgevallen dat hij er steeds dezelfde schijf uit schopte, dus die is (na controle of hij inderdaad stuk was) RMA gegaan
[ Voor 4% gewijzigd door Paul op 08-04-2006 21:21 . Reden: typo's en zinsopbouw ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Alleen maar in de web console (onder Raid Set Hierarchy) "need init".
Als ik daarna op de Raid Set Information click, dan zie ik dus "initialising" maar dus geen voortgang.
Ik probeer die raidset aan te maken in de webadmin, maar wellicht kan ik dan beter een poging gaan wagen in BIOS.
In ieder geval bedankt voor de feedback.
http://www.deyterra.com
- Information
-Raid Set Hierarchy

A friendship founded on business is better than a business founded on friendship
Ik ben een aantal maanden aan het voorbereiden om ook een RAID5-setup aan te schaffen, maar van wat ik nu zie lijkt het wel of er geen enkele kaart/hdd/mobo-combo bestaat dat goed onder linux kan werken...
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Maar de Areca ondersteund:
Ø Windows 2000/XP/Server 2000
Ø CentOS-4.1
Ø Debian3.1Sarge
Ø Debian3.0-r2
Ø Mandrake 9.0
Ø RedHat
Ø Redhat 7.3
Ø Redhat 8.0
Ø Redhat 9.0
Ø Redhat-Advance Server-3.0-i386
Ø Redhat-AdvanceServer-3.0-i386-Update4_Beta
Ø Redhat-AdvanceServer-4.0-i386
Ø Redhat-AdvanceServer-4.0-x86-64
Ø Redhat Fedora-core2-i386
Ø Redhat Fedora-core2-X86-64
Ø Redhat Fedora-core3-i386
Ø Redhat Fedora-core3-X86-64
Ø SourceCode
Ø SuSE
Ø Redhat Enterprise Linux 3.0 Update 4
Ø Suse 7.3
Ø Suse 9.0 SLES i386
Ø Suse 9.0 SLES x86-64
Ø Suse 9.1 Professional
Ø SuSE 9.2 Professional
Ø Suse-9.2-Professional-x86-64_Beta
Ø TurboLinux
Ø FreeBSD4.2.R
Ø FreeBSD4.4.R
Ø FreeBSD5.2.1.
Ø FreeBSD5.3.R-AMD64 (X86-64)
Ø FreeBSD5.3.R-i386
Ø Solaris10
En Dick Tienhuis heeft een kant en klare ISO met Areca driver ingebakken:
http://www.tienhuis.nl/areca/
En staat ook op de FTP site van Areca:
ftp://ftp.unnet.nl/pub/areca-unofficial/
[ Voor 5% gewijzigd door John2B op 08-04-2006 22:19 ]
A friendship founded on business is better than a business founded on friendship
Ik weet niet of de Areca-drivers al in de officiele kernels van kernel.org zitten, maar het installeren van de drivers is, als je eenmaal over het "oeh, kernel compileren, eng..." heen bent, kip simpel.
1 dir kopieren en 2 stukjes tekst copy/pasten naar evenzovele bestandjes
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Yup... en waarbij you de voortgang staat, staat bij mij alleen "Need Init". Ik denk dus dat er ergens of een bugje zit of dat ik iets fout doe in de websetup (maar ik *gok* het eerste aangezien er nl. niet meer opties te vinden zijn bij het aanmaken van een RAID array).John2B schreef op zaterdag 08 april 2006 @ 21:04:
Heb je gekeken links onder:
- Information
-Raid Set Hierarchy
[afbeelding]
Ik ga vanmiddag wel even kijken of ik het process kan opstarten in het BIOS en of ik dan wel de status progress kan volgen.
In ieder geval bedankt voor de bevestiging, want ik weet nu 100% zeker dat er iets niet goed aan het gaan is
http://www.deyterra.com
Had je de aanmaak van een RAID5 met de "Quick Create" optie aangemaakt?
A friendship founded on business is better than a business founded on friendship
In eerste instantie had ik eerst een Raid Set aangemaakt en daarna een Volume Set, maar dat werkte dus niet. Ook de quick optie werkte niet (beide via de Web Interface).
Net heb ik het via de BIOS optie geprobeerd en nu werkt het dus wel. Hij is vrolijk de Array aan het creeren.
In ieder geval bedankt voor de bevestigingen. Scheelt een hoop onnodig wachten
Update: nu 1,25 uur later en zit inmiddels op 12,5%. Niet supersnel dus, maar in ieder geval zit er nu duidelijk progressie in.
[ Voor 15% gewijzigd door rally op 09-04-2006 16:58 . Reden: Wat info toegevoegd ]
http://www.deyterra.com
om een 2+TB volume te maken(Areca manual) moet je met 64bit LBA of met de "sector vergroting" werken.rally schreef op zaterdag 08 april 2006 @ 18:17:
Snelle vraag...
[...]
van een 4TB volume ongeveer duren (draai hem nl. in RAID6).
[...]
Welke gebruik jij? en een vraag over dat in het algemeen: de voordelen/nadelen en de compatibiliteit icm andere OS'en van 64Bit vs sector
De Areca controllers hebben 2 methoden om het 2TB probleem te omzeilen:ThaHandy schreef op maandag 10 april 2006 @ 02:48:
[...]
om een 2+TB volume te maken(Areca manual) moet je met 64bit LBA of met de "sector vergroting" werken.
En een vraag over dat in het algemeen: de voordelen/nadelen en de compatibiliteit icm andere OS'en van 64Bit vs sector
1. Voor Windows: Door het aanpassen van de sector grote van de standaard 512Kb naar 4K. De maximum volume capaciteit wordt dan 16TB. Deze optie werkt alleen met Windows. En kan niet worden geconverteerd naar Dynamic Disk, omdat 4K sector grote geen standaard formaat is.
2. LBA64 : Deze optie gebruikt 16 byte CDB ipv 10 byte. De maximale volume capaciteit is 512TB. Deze optie werkt onder verschillende OS'sen welke 16 Byte CDB ondersteunen zoals:
Windows2003 met SP1,
Linux 2.6.x of later,
FreeBSD 5.2.1 of later.
Optie 1 is dus alleen voor Windows te gebruiken en heeft dan geen standaard formaat, maar als je een Windows versie hebt die geen 16 byte CDB ondersteund zou dit een optie kunnen zijn.
Optie 2 Heeft mijn voorkeur gezien het feit dat het een standaard is, en dus op meerdere OS'sen kan worden toegepast (mits het OS dus die 16 byte CDB ondersteund.)
A friendship founded on business is better than a business founded on friendship
Ik heb de laatste tijd diverse re-builts gedaan i.v.m. problemen met maxtor HD's en daarbij de re-built gestart vanuit zowel de bios als de applicatie en onder firmwares 1.36 en 1.39
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
EN dat geld natuurlijk ook voor harddisken, en voor alle andere hard en software...!!Verwijderd schreef op maandag 10 april 2006 @ 09:55:
Toch zijn de HW-controllers dus niet zaligmakend ?
Dus ja, of je met die uitspraak nu echt iets nieuws verteld betwijfel ik. Lijkt me eerder een open deur en voegt dus niets toe aan dit probleem/discussie.
ONTOPIC
Kies je bij het aanmaken van een array de quick optie, of maak je eerst een array en daarna een volume aan?jacovn schreef op maandag 10 april 2006 @ 09:49:
Ik heb net mijn systeem ge-rebuilt (Areca 1130). De init van de array duurde iets van 6-8 uur. (5 x WD RE-2 400GB HD) Ik kan zowel in het bios als de applicatie de voortgang zien.
Ik heb de laatste tijd diverse re-builts gedaan i.v.m. problemen met maxtor HD's en daarbij de re-built gestart vanuit zowel de bios als de applicatie en onder firmwares 1.36 en 1.39
[ Voor 80% gewijzigd door John2B op 10-04-2006 10:05 ]
A friendship founded on business is better than a business founded on friendship
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Nog wel een kanttekening hierover. Als je wil uitbreiden van een volumeset kleiner dan 2TB naar een die groter is, dan kan je tegen problemen lopen. De controller vraagt dan niet welke manier je wil gebruiken en maakt er volgens mij automatisch een LBA64 volume van.John2B schreef op maandag 10 april 2006 @ 08:37:
[...]
De Areca controllers hebben 2 methoden om het 2TB probleem te omzeilen:
1. Voor Windows: Door het aanpassen van de sector grote van de standaard 512Kb naar 4K. De maximum volume capaciteit wordt dan 16TB. Deze optie werkt alleen met Windows. En kan niet worden geconverteerd naar Dynamic Disk, omdat 4K sector grote geen standaard formaat is.
2. LBA64 : Deze optie gebruikt 16 byte CDB ipv 10 byte. De maximale volume capaciteit is 512TB. Deze optie werkt onder verschillende OS'sen welke 16 Byte CDB ondersteunen zoals:
Windows2003 met SP1,
Linux 2.6.x of later,
FreeBSD 5.2.1 of later.
Optie 1 is dus alleen voor Windows te gebruiken en heeft dan geen standaard formaat, maar als je een Windows versie hebt die geen 16 byte CDB ondersteund zou dit een optie kunnen zijn.
Optie 2 Heeft mijn voorkeur gezien het feit dat het een standaard is, en dus op meerdere OS'sen kan worden toegepast (mits het OS dus die 16 byte CDB ondersteund.)
Dat geintje heeft me een compleet raid volume gekost (ik had 2 volumes in 1 raid set vanwege het ontbreken van de 2TB optie bij eerdere firmwares) en via een omweg heb ik bijna alles terug kunnen krijgen (volledige backup via win2k3, en vervolgens de hele handel opnieuw aanmaken) 1 van de 2 volumesets was met de noorderzon vertrokken en op geen enkele manier meer te recoveren.
Naja, na een hoop gedoe is alles nu wel opgeschaald van 8x400 gb naar 12x400gb, en het draait als een zonnetje onder XP. Heb wel geexperimenteerd met 2k3 en de 64 bit versies, maar om een of andere reden misten ze iets.. de 64 bitters wilden niet aan de 3d, en 2k3 wilde niet eens meer installeren (die nieuwe versie dan, R2 oid)
Zal mij benieuwen wat voor grappen er gaan komen met de komende big update van mobo/cpu/mem/video

Specs | FFXIV: Maki Kato@Alpha
Bedankt voor de info, daar gaan we wat mee doen.
A friendship founded on business is better than a business founded on friendship
John2B schreef op maandag 10 april 2006 @ 12:50:
OK, dat was jij dus...
Bedankt voor de info, daar gaan we wat mee doen.
Specs | FFXIV: Maki Kato@Alpha
Niet gepost, maar volgens mij heb je mij een mailtje hierover gestuurd...of vergis ik me?Major Carnage schreef op maandag 10 april 2006 @ 16:34:
[...]
kan me niet herinneren dat ik dit ergens anders gepost heb..
A friendship founded on business is better than a business founded on friendship
Ik heb nu 5x300GB WD schijven er in hangen en ben hier erg tevreden over.
Omdat de bak in een groot netwerk hangt heb ik 2 netwerk kaarten, hierdoor kan ik nog fatsoenlijk bij mijn data komen op momenten dat de andere kaart wordt vol getrokken naar de 100mbit. De enige beperkende factor is de PCI bus denk ik, als ik data van een SCSI schijf naar de raid array verplaats of omgekeerd dan haal ik hooguit een mb of 40/sec. Als ik met hdparm kijk hoesnel een enkele 300gb schijf presteerd is dit een mb of 60/sec, de SCSI schijven halen dit ook makkelijk. Then again, der zit maar een 100mbit kaart in dus meer dan 20mb/sec hoeft ie toch niet te leveren. Al krijgt hij het wel zwaar als er 50+ smb connecties open staan...
Dit hele zooitje met nog 3x80GB in raid 5 en 2 SCSI schijven voor het systeem zit in een 3U hoge Antec kast. Meer info en foto's zie ook http://midiserver.student...uur/computers/midiserver/
blabla
Ik denk dat dat iemand anders was danJohn2B schreef op maandag 10 april 2006 @ 16:55:
[...]
Niet gepost, maar volgens mij heb je mij een mailtje hierover gestuurd...of vergis ik me?
Deze zijn van de 8 disk setup met ARC 1120-8 128mb. Ze staan ook in de Benchdb:Tortelli schreef op dinsdag 11 april 2006 @ 10:23:
ik zou wel eens wat benchmarks willen zien van Major Carnage zijn systeempje
HDTach
HDTune
SiSoft Sandra
ATTO
Zal binnenkort eens kijken met de huidige setup. Het is wel jammer overigens dat een hoop tests vereisen dat je hele schijf leeg moet zijn, of het is zo'n testprog waarvoor je moet betalen..
Specs | FFXIV: Maki Kato@Alpha
Ligt dat aan de benchmark progsels?
Als je test met data die in zijn geheel in de cache past (zoals met Atto) dan test je dus eigenlijk de cache ipv de schijven / de hele setup.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
waar ik naar zit te kijken is een SM PDSMi-LN4 (E7230) , SM PDSG4 (955X) of een SM PDSGE (955X) icm een Intel Pentium D 9x0 CPU en een Areca PCI-X controller
Inprincipe is deze setup dus niet instaat een PCI-e x1 bus vol te drukken, is een kaart als jou areca comparible met pci-e x1 of x4?Major Carnage schreef op dinsdag 11 april 2006 @ 13:07:
[...]
Ik denk dat dat iemand anders was dan
[...]
Deze zijn van de 8 disk setup met ARC 1120-8 128mb. Ze staan ook in de Benchdb:
HDTach
HDTune
SiSoft Sandra
ATTO
Zal binnenkort eens kijken met de huidige setup. Het is wel jammer overigens dat een hoop tests vereisen dat je hele schijf leeg moet zijn, of het is zo'n testprog waarvoor je moet betalen..
Ligt aan de caching.. Als er goed gecached kan worden dan kan de kaart 700mb halen (atto)Tortelli schreef op dinsdag 11 april 2006 @ 16:12:
[...]
Inprincipe is deze setup dus niet instaat een PCI-e x1 bus vol te drukken, is een kaart als jou areca comparible met pci-e x1 of x4?
Toen m'n mobo in de RMA zat heb ik voor de grap eens een bench gedraaid met de kaart in een standaard PCI slot. De PCI bus werd zonder moeite volgetrokken (logisch), en kwam daar echt niet boven ook al kon alles gecached worden. Dus als je veel caching hebt is het raadzaam om iets meer dan PCI-E x1 in te schakelen omdat je anders nog steeds aan een max van 250mb/s zit van PCI-E x1.
Wat ondersteunde PCI-E snelheden betreft weet ik het niet zo precies.. Areca geeft zelf 1x/8x aan in de specs. Of dat inhoudt dat 4x niet ondersteund wordt.. geen idee (ik draai zelf op PCI-X)
volgens dit stukje uit de faq moet het gewoon lukken, zolang je slot op het mobo maar groot genoeg is
[ Voor 10% gewijzigd door Major Carnage op 11-04-2006 16:54 ]
Specs | FFXIV: Maki Kato@Alpha
De Areca controllers ondersteunen PCI-E x1, x4 en x8 lanesMajor Carnage schreef op dinsdag 11 april 2006 @ 16:49:
[...]
Wat ondersteunde PCI-E snelheden betreft weet ik het niet zo precies.. Areca geeft zelf 1x/8x aan in de specs. Of dat inhoudt dat 4x niet ondersteund wordt.. geen idee (ik draai zelf op PCI-X)
edit:
volgens dit stukje uit de faq moet het gewoon lukken, zolang je slot op het mobo maar groot genoeg is
A friendship founded on business is better than a business founded on friendship
Nadat je een Raid 5 of 6 config hebt opgezet, maak je dan 1 of meerdere partities aan
Steeds meer zit ik te denken om een Areca kaart aan te gaan schaffen, en mijn server uit te rusten met Ubuntu. Geen idee wat verstandiger is 1 grote partitie met daarin een mappenverdeling wat flexibeler is wat ruimte betreft (MP3, DVD, Documenten, etc) of meerdere partities met die onder verdeling.
Ikzelf zie niet echt meer een voordeel voor partities, tenzij je er echt een goede reden voor hebt. (OS gescheiden of bijvoorbeeld een aantal maildirs waar dus idioot veel files in staan)The Undertaker schreef op dinsdag 11 april 2006 @ 19:10:
Een vraag aan de mensen met +1 Terabyte:
Nadat je een Raid 5 of 6 config hebt opgezet, maak je dan 1 of meerdere partities aan
Steeds meer zit ik te denken om een Areca kaart aan te gaan schaffen, en mijn server uit te rusten met Ubuntu. Geen idee wat verstandiger is 1 grote partitie met daarin een mappenverdeling wat flexibeler is wat ruimte betreft (MP3, DVD, Documenten, etc) of meerdere partities met die onder verdeling.
Als het gaat om verschillende soorten data (documenten en mp3's bijvoorbeeld), dan zijn partities in de meeste gevallen irritant, omdat je altijd de verkeerde verhouding kiest qua grootte.
Het hele concept van partities begint ook een beetje achterhaald te worden, nu je steeds meer LVM-achtige structuren tegenkomt. (je slaat dan niet een bestand op een bepaald stukje van een schijf op, maar op een filesysteem en waar dat dan op welke schijf terecht komt maakt niet uit)
Een goedkope voeding is als een lot in de loterij, je maakt kans op een paar tientjes korting, maar meestal betaal je de hoofdprijs. mijn posts (nodig wegens nieuwe layout)
de 24poort versie is 500 euro duurder dan de PCI-x versie-krekel- schreef op dinsdag 11 april 2006 @ 14:36:
een sli bord en daar de pci-e versie van de areca kaart op prikken is geen optie? Dat is toch wel een stuk goedkoper dan een duur server bord van supermicro.... Dan zou je namelijk ook wat zuinigere Athlon 64's kunnen gebruiken ipv een P4.
De prijs van de Areca 24 poorts PCI-E is een fictieve prijs omdat die nog niet exact bekend is, dus die vergelijking gaat helaas niet op, maar dat kon jij niet weten.ThaHandy schreef op dinsdag 11 april 2006 @ 20:50:
[...]
de 24poort versie is 500 euro duurder dan de PCI-x versie
Overigens is de PCI-X ARC-1170 niet te vergelijken met de ARC-1280 want dat is een nieuwe generatie controller, wel te vergelijken met de ARC-1270 maar die is nooit geproduceerd.
Kijk je naar de prijs van een 8 poorts, dan is de PCI-E uitvoering iets goedkoper.
Dat is op zich een prima optie, en die is inmiddels al heel veel toegepast. Vele tweakers gingen je voor. Oftewel veel, snel en toch op een relatief betaalbaar desktop moederbord.-krekel- schreef op dinsdag 11 april 2006 @ 14:36:
een sli bord en daar de pci-e versie van de areca kaart op prikken is geen optie? Dat is toch wel een stuk goedkoper dan een duur server bord van supermicro.... Dan zou je namelijk ook wat zuinigere Athlon 64's kunnen gebruiken ipv een P4.
A friendship founded on business is better than a business founded on friendship
Yep, dat is er een met een netwerk poort._-= Erikje =-_ schreef op dinsdag 11 april 2006 @ 23:07:
en een 12 poort acrea pci-e adapter. (als die die network port heeft)
A friendship founded on business is better than a business founded on friendship
Ik heb zelf 1 partitie gemaakt van 1.1TB met reiserfs als filesystem, dan kan je makkelijk bestanden van de ene "map" naar de andere verplaatsen.The Undertaker schreef op dinsdag 11 april 2006 @ 19:10:
Een vraag aan de mensen met +1 Terabyte:
Nadat je een Raid 5 of 6 config hebt opgezet, maak je dan 1 of meerdere partities aan
Op mijn server is nu 1 smb share voor gebruikers en daarin heb ik mappen gemaakt met wat er in te vinden is, muziek, films, series, etc.
blabla
ik heb 1.8TB, en 1x 10GB voor windows en mijn D is de rest, meeste is toch filmes en iso's die toch niet fragmenteren, heb je nergens last van. (ziet er ook errug leuk uit in dat taartdiagrammetjeThe Undertaker schreef op dinsdag 11 april 2006 @ 19:10:
Een vraag aan de mensen met +1 Terabyte:
Nadat je een Raid 5 of 6 config hebt opgezet, maak je dan 1 of meerdere partities aan
wat een geheim agent toch allemaal niet moet doen om incognito op zijn werk te verschijnen
Omdat ik een server met SCSI schiven toch wat overdreven vind en ik ook geen compaq support voor dit ding nodig heb (en geld ook een rol speelt) wilde ik zelf wat gaan bouwen.
Het ding hoeft niet heel snel te zijn, als er maar flink veel data op kan. Wel een hardware matige raid 5 controller want daar heb ik net wat meer vertrouwen in dan in een software matige. En daar 4 400 GB schijven aan in een raid 5 opstelling.
Mijn eerste gedachte was een moederbord met raid 5 aan boord, deze heb ik niet kunnen vinden.
tweede gedachte was een nforce 6100 bord met onboard video en een vrij 16x pci express slot, zodat daar een raid kaart in kan, nu kan ik echter niet duidelijk vinden welke raid kaarten er al met een PCI-express interface zijn uitgerust (uitgezonderd Areca maar die levert mijn hardware boer niet).
PCI-X (64bit) kaarten zijn er voldoende, maar om op de gok zo'n kaart te bestellen en dan maar hopen dat deze werkt of past in een normaal PCI slot gaat me wat te ver.
2 vragen:
is er een moederbord (liefst voor een Athlon) met hardware matige raid 5 controller onboard.
Of, kent iemand een combinatie van een moederbord van Asus of Gigabyte met een PCI-X van adaptec of LSI
En anders ga ik op zoek naar een Areca controller en schiet ik het wel voor.
Welke combi PCI 64 bit kaart werkt zeker in een normaal
Dat hangt er maar net vanaf hoeveel users er tegelijktijd op zitten en met hoeveel mb/s die zitten te uppen/downen. Mijn amd xp 2400+ trekt gemiddeld ongeveer 15 a 20 mb/s omdat de cpu te weinig aan kan (met +- 12 users) terwijl hij feitelijk 36 mb/s zou moeten kunnen..Eskimootje schreef op vrijdag 15 oktober 2004 @ 15:12:
Je ziet het goed, maar aangezien de cpu toch niets doet en goedkoop is (een Sempron 2400+ oid kost 60 euro). Zou ik daar niet te veel in investeren.
57696520646974206c65657374206973206e657264
ik heb zelf een 8 poorts pci-e controller met 1.8tb (zie vorige post) verdeeld over 7 300GB maxotrs.Roland73 schreef op woensdag 12 april 2006 @ 18:10:heel verhaal
HighPoint RocketRAID 2320 (8x SATA300, PCI-e, X4) € 287,00
Maxtor MaXLine III, 300GB (7200rpm, SATA II, 16MB, NCQ) € 113,89 x 5 = 869,45
totaal = € 856,45
(300GB heeft lagere prijs per gb, maxline voor de 5 jaar garantie)
kanttekening: die kaart kan je teamen, dus je kan maximal 1 array maken van 16(!) 300GB schijven.
300*16-1=4.5TB
wat een geheim agent toch allemaal niet moet doen om incognito op zijn werk te verschijnen
[ Voor 3% gewijzigd door Tortelli op 12-04-2006 19:52 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
8 schijven (de oude setup dus) en 12 schijven.
[ Voor 7% gewijzigd door Major Carnage op 13-04-2006 10:30 ]
Specs | FFXIV: Maki Kato@Alpha
ja, pricewatch: Asus A8N-VM CSM, GeForce 6150 (mATX, PCI-e, Sound, G-LAN, SATA II RAID, 1394, VGA)Roland73 schreef op woensdag 12 april 2006 @ 18:10:
Mijn eerste gedachte was een moederbord met raid 5 aan boord, deze heb ik niet kunnen vinden.
tweede gedachte was een nforce 6100 bord met onboard video en een vrij 16x pci express slot, zodat daar een raid kaart in kan, nu kan ik echter niet duidelijk vinden welke raid kaarten er al met een PCI-express interface zijn uitgerust (uitgezonderd Areca maar die levert mijn hardware boer niet).
PCI-X (64bit) kaarten zijn er voldoende, maar om op de gok zo'n kaart te bestellen en dan maar hopen dat deze werkt of past in een normaal PCI slot gaat me wat te ver.
2 vragen:
is er een moederbord (liefst voor een Athlon) met hardware matige raid 5 controller onboard.
dat is uiteraard niet de harware raid welke je krijgt van een areca kaart, maar raid welke berekend moet worden door je processor. hoe deze raid 5 presteerd weet ik niet, maar ik zou het zeker overwegen
enphase 8300wp (3460 ZO, 2740 ZW, 2100 NO), 2x20 vacuümbuizen op 300l SWW, Panasonic WH-MXC12J9E8, gasloos sinds Juni 2022 Stromer st3 voor woon-werk
Tortelli schreef op woensdag 12 april 2006 @ 19:51:
Ik zeg: benchmarks, ik ben nog steeds zoekende naar een leuke controller op mijn Asus A8N SLI Premium (zo'n ding met een PCI-e x4 slot
) maar vind al die 8 poort controllers erg duur......
(
wat een geheim agent toch allemaal niet moet doen om incognito op zijn werk te verschijnen
[ Voor 93% gewijzigd door JohnB op 14-04-2006 08:27 ]
Tussen volledig hardware RAID, Software RAID en Software RAID zit wel verschil in. Zo heb ik een RAIDcore BC4852 welke prima presteerd voor een "vorige generatie" kaart. De kaart heeft geen eigen XOR engine, waardoor de RAID5 pariteit wordt berekend door de host CPU, maar deze extra CPU load valt best mee. Met een beetje moderne processor is dit prima te doen. Zelf heb ik de kaart in een Athlon MP 2800+ zitten.Roland73 schreef op woensdag 12 april 2006 @ 18:10:
Ik heb hier een oude beheer server staan die het allemaal niet meer aan kan, deze moet wil ik vervangen. Hier staat ook barstens veel data op (images, wus, loghistorie e.d.)
Omdat ik een server met SCSI schiven toch wat overdreven vind en ik ook geen compaq support voor dit ding nodig heb (en geld ook een rol speelt) wilde ik zelf wat gaan bouwen.
Het ding hoeft niet heel snel te zijn, als er maar flink veel data op kan. Wel een hardware matige raid 5 controller want daar heb ik net wat meer vertrouwen in dan in een software matige. En daar 4 400 GB schijven aan in een raid 5 opstelling.
Linkje naar een review: reviews: Mega roundup van Serial ATA RAID 5-adapters (in middels een beetje gedateerd, geeft wel een redelijk beeld)
Let er wel op dat lang niet alle PCI-e 16x sloten RAID controllers accepteren, ge dit na bij de fabrikant van het moederbord (mogelijk dat een BIOS update dit verhelpt). Daarbij zal een PCI-e 16x slot welke wel een PCI-e 4x of 8x accepteerd toch op 1x draaien.Mijn eerste gedachte was een moederbord met raid 5 aan boord, deze heb ik niet kunnen vinden.
tweede gedachte was een nforce 6100 bord met onboard video en een vrij 16x pci express slot, zodat daar een raid kaart in kan, nu kan ik echter niet duidelijk vinden welke raid kaarten er al met een PCI-express interface zijn uitgerust (uitgezonderd Areca maar die levert mijn hardware boer niet).
De RAIDcore BC4x52 (PCI-X) kaarten zijn backward compatibel met PCI (32-bit).PCI-X (64bit) kaarten zijn er voldoende, maar om op de gok zo'n kaart te bestellen en dan maar hopen dat deze werkt of past in een normaal PCI slot gaat me wat te ver.
Voor PCI-X sloten zou je moeten kijken naar server of highend werkstation moederborden.2 vragen:
is er een moederbord (liefst voor een Athlon) met hardware matige raid 5 controller onboard.
Of, kent iemand een combinatie van een moederbord van Asus of Gigabyte met een PCI-X van adaptec of LSI
En anders ga ik op zoek naar een Areca controller en schiet ik het wel voor.
Welke combi PCI 64 bit kaart werkt zeker in een normaal
P.s. Voor een leuk assortiment met veel verschillende kaarten zou je eens hier kunnen kijken: www.webconnexxion.com
[ Voor 7% gewijzigd door _Dune_ op 14-04-2006 11:29 ]
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Gebruik je windows of linux up die machine? want ik heb (maar) een TBird 1400 in mijn bak hangen, met 1,5 gb ram en die trekt makkelijk 2x 10 mb/sec up en dan nog es 10 mb/down met 50+ gebruikers tegelijk... ok, dan heeft dat ding wel een load van 8 en is er met de console weinig te beginnen, maar de smb shares blijven nog goed te gebruiken.Sluuut schreef op woensdag 12 april 2006 @ 18:18:
Dat hangt er maar net vanaf hoeveel users er tegelijktijd op zitten en met hoeveel mb/s die zitten te uppen/downen. Mijn amd xp 2400+ trekt gemiddeld ongeveer 15 a 20 mb/s omdat de cpu te weinig aan kan (met +- 12 users) terwijl hij feitelijk 36 mb/s zou moeten kunnen..
Zijn er trouwens meer linux gebruikers die soms een soort van lock krijgen door pdflush ? ik weet dat het iets met faulty pages in je ram te maken heeft, maar ik heb nog geen manier gevonden om te voorkomen dat pdflush een hoog interrupt afgeeft waardoor mijn hele server voor ongeveer 1 seconde "hangt".
edit: pdflush kan je niet renicen ...
[ Voor 4% gewijzigd door MidiMaze op 14-04-2006 10:25 ]
blabla
Ik moet zeggen dat ik niet echt onder de indruk ben van je performance onder Raid5. Ik heb mijn setup nog nooit kunnen benchen, dit omdat mijn voeding kort naar de aanschaf de geest gaf
In Raid0 op een Supermicro controller haalde ik met 4 van deze schijven pieken over de 400mb p/s. Oké ik weet dat Raid0 totaal niet te vergelijken is met Raid5, maar een factor 10-11 minder performance
Gentoo. 10 mb/s is heel wat anders dan 26 mb/sMidiMaze schreef op vrijdag 14 april 2006 @ 10:23:
[...]
Gebruik je windows of linux up die machine? want ik heb (maar) een TBird 1400 in mijn bak hangen, met 1,5 gb ram en die trekt makkelijk 2x 10 mb/sec up en dan nog es 10 mb/down met 50+ gebruikers tegelijk... ok, dan heeft dat ding wel een load van 8 en is er met de console weinig te beginnen, maar de smb shares blijven nog goed te gebruiken.
Zijn er trouwens meer linux gebruikers die soms een soort van lock krijgen door pdflush ? ik weet dat het iets met faulty pages in je ram te maken heeft, maar ik heb nog geen manier gevonden om te voorkomen dat pdflush een hoog interrupt afgeeft waardoor mijn hele server voor ongeveer 1 seconde "hangt".
edit: pdflush kan je niet renicen ...
smb shares trekt toch gemiddeld 5 a 7 mb/s in plaats van 10?
57696520646974206c65657374206973206e657264
"Helaas" zitten daar 4 x 250GB schijven in RAID0 in. 1 schijf plof = Jammerrrrr alles kwijt.won schreef op vrijdag 14 april 2006 @ 22:30:
LaCie uber BigDisk 1000GB opslag is geloof ik 850euro.
Met dat soort hoeveelheden data neem ik toch liever geen risico
http://www.deyterra.com
Het varieerd nogal, tussen de middag loopt ie vaak vol richting de 10mb/sec. Dan heeft iedereen pauze en gaat wat programma's en films van het net vissen. s'avonds heb je veel streamers van tv series en pr0n, dit geeft meer belasting omdat je dan vaak met 50+ users zit. Gedurende de hele dag zit je tevens nog met mp3 streamers. Ik laat iptraf al een tijdje mee lopen (uptime 2 maanden), maar die bak verplaatst nu zo'n 900 GB in de week...Sluuut schreef op vrijdag 14 april 2006 @ 22:53:
[...]
Gentoo. 10 mb/s is heel wat anders dan 26 mb/sEn als je 50 users hebt zitten leechen kan ik me voorstellen dat je die waardes krijgt op die bak, 10 mb/s/50=200kb/s.. met een load van 8.
smb shares trekt toch gemiddeld 5 a 7 mb/s in plaats van 10?
blabla
4x ARC-1280 = 96 x Seagate Barracuda 7200.10 750 GB = 72 Terra of zoiets?

reviews: CeBIT 2006: Storage
http://www.gamepc.com/lab...10&page=1&cookie%5Ftest=1
[ Voor 51% gewijzigd door Youri Carma op 14-06-2006 03:24 ]
Has Balls
Uhm, wat probeer je nu te melden?Youri Carma schreef op maandag 12 juni 2006 @ 16:23:
What about!
2x ARC-1280 = 48x Seagate Barracuda 7200.10 750 GB = 36 Terra of zoiets?
[afbeelding]
reviews: CeBIT 2006: Storage
http://www.gamepc.com/lab...10&page=1&cookie%5Ftest=1
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Verwijderd
dat je met dit mobo

wel 90 TB kan halen icm 5x arc 1170 (PCI-X) en dat allemaal in raid0/JBOD
[ Voor 15% gewijzigd door ThaHandy op 12-06-2006 19:52 ]
doe dan ff een raid 5 of zo.. die 750gb mis je dan echt niet hoorYouri Carma schreef op maandag 12 juni 2006 @ 16:23:
What about!
2x ARC-1280 = 48x Seagate Barracuda 7200.10 750 GB = 36 Terra of zoiets?
[afbeelding]
reviews: CeBIT 2006: Storage
http://www.gamepc.com/lab...10&page=1&cookie%5Ftest=1

wat een geheim agent toch allemaal niet moet doen om incognito op zijn werk te verschijnen
Nou bij 24 schijven wil je denk ik wel RAID6 gebruiken.the_virus schreef op maandag 12 juni 2006 @ 17:56:
[...]
doe dan ff een raid 5 of zo.. die 750gb mis je dan echt niet hoor
De kans op uitval is dan namelijk best wel groot, zelfs bij RAID5.
en 2 op 24 schijven is nog steeds minder dan 10% overhead. en het is ook nog eens minder dan de ruimte die je "kwijt" bent door de 1000/1024 verhouding bij dergelijke groottes
Een goedkope voeding is als een lot in de loterij, je maakt kans op een paar tientjes korting, maar meestal betaal je de hoofdprijs. mijn posts (nodig wegens nieuwe layout)
Maar er zit waarschijnlijk wel 'een' performanceverschil tussen RAID 0 en 5.the_virus schreef op maandag 12 juni 2006 @ 17:56:
doe dan ff een raid 5 of zo.. die 750gb mis je dan echt niet hoor

wat een geheim agent toch allemaal niet moet doen om incognito op zijn werk te verschijnen