12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Nou is daar wel wat voor te zeggen omdat tegen de tijd dat je upgrade ongetwijfeld een grotere HDD de aantrekkelijkste € per GB verhouding heeft, maar steeds een parity disk kwijtraken is ook weer niet handig.
Edit: overigens werkt ZFS heerlijk en is het inderdaad zeker de moeite waard om even de elegantie te testen in een VM.
[ Voor 12% gewijzigd door Erik Jan op 29-03-2008 15:57 ]
This can no longer be ignored.
ik snap het verhaal met pools niet echt.
gewoon raid5 dus?Copy-on-write transactie model
Alle bewerkingen zijn copy-on-write transacties. Hierdoor moet het ZFS bestandssysteem nooit nagekeken worden op fouten. Elk blok wordt nagekeken om stille datacorruptie te vermijden, de data herstelt zichzelf indien er gebruik gemaakt wordt van een replica configuratie (RAID). Als een kopie beschadigd is zal ZFS dit detecteren en een andere kopie gebruiken om de fout te herstellen.
Maarja hoe lang duurt het nog wel niet voordat het in "productie" omgeving gebruikt kan worden. Het gaat wel veel processorkracht kosten als alles altijd automatisch nagekeken wordt op fouten. Maar dat is niet erg. als freenas met een zfs versie komt ga ik voorzichtig proberen.
moet al m'n hardware toch nog aanschaffen en bouwen
Heb je dit moederbord getest op freebsd 7? of alleen freenas gebaseerd op freebsd6.2?NL-JP schreef op dinsdag 25 maart 2008 @ 21:06:
Heb FreeNas aan de praat op de volgende doos:
GigaByte GA-MA78GM-S2H
Phenom 9500
1 x Raptor 36Gb als boot schijf (had ik nog liggen)
2 x Spinpoint 750gb in raid 1 voor data
2 Gb ram
1 x Linksys EG1032 (RTL8169S) Gigabit NIC
Coolermaster CM 690
Ik gebruik geen hardware raid omdat ik hierdoor een BTX loader error kreeg. Ik kan Freenas wel installeren op een CF card maar....weer een BTX loader error met booten. Van alles geprobeerd met bios instellingen maar ik denk dat het te maken heeft met de nieuwe chipset. De onboard NIC wordt ook niet herkend en heb er dus maar een los kaartje bij gezet. Zal dus moeten wachten op 7.1 of 6.4 en mogelijk op in 8.0 volgens Erik Jan. Er zit in ieder geval schot in FreeNAS 0.7 http://freenas.blogspot.c...-state-of-freenas-07.html.
Het werkt, maar ik vertrouw het nog niet helemaal. Bij het aanzetten van wat opties (schijven uit na 30 min, SMART, system power control) hoor ik de schijven even tikken en het systeem resette zichzelf. Moest toen de raid rebuilden. Als mijn boardje goed wordt ondersteund ben ik ook van plan om nog een schijf bij te kopen en in raid 5 te gaan draaien.
iSCSI werkt prima en ook rSync. Moet nog even uitzoeken hoe ik dan weer bij de backup kan, iemand tips hiervoor?
Ik draai nu inderdaad Gentoo, alle problemen in 1 klap weg. Jammer want FreeBSD was 3 keer zo snel met schrijven en 1,5 keer zo snel met lezen oid, maar ik heb er niks aan als het blijft crashenQ schreef op zaterdag 29 maart 2008 @ 00:04:
[...]
Hoe staat het nu met jouw setup? Wat draai je nu Gentoo? Ik had begrepen dat je onder Linux geen problemen had?
There is no replacement for displacement!
Ik heb een poging gedaan met freebsd 7 maar de onboard nic werd niet gevonden en mijn conclusie was dat het board nog niet (goed) ondersteund wordt. Draai nu op freenas 0.686.3DARKLORD schreef op maandag 31 maart 2008 @ 12:08:
[...]
Heb je dit moederbord getest op freebsd 7? of alleen freenas gebaseerd op freebsd6.2?
Ik heb 1 van de mirrored schijven losgetrokken als test, en daarna overschreven met /dev/zero.
Terughangen, booten, even slices opnieuw aanmaken en importeren en whop, ZFS resilvert de array binnen minuten. ZFS schrijft alleen de data over en niet de lege ruimte, dus alles gaat stukken sneller dan geom_mirror(welke ik nog voor de boot slice gebruik)
transparante compressie is geniaal trouwens, check dit:
root@ehecatl # zpool status pool: tank state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 mirror ONLINE 0 0 0 ad4s2a ONLINE 0 0 0 ad6s2a ONLINE 0 0 0 errors: No known data errors root@ehecatl # zfs list NAME USED AVAIL REFER MOUNTPOINT tank 3.39G 219G 18K none tank/root 33.5M 219G 33.5M legacy tank/tmp 370K 1024M 370K /tmp tank/usr 2.71G 219G 2.26G /usr tank/usr/ports 454M 219G 327M /usr/ports tank/usr/ports/distfiles 127M 219G 127M /usr/ports/distfiles tank/var 665M 219G 665M /var tank/var/log 306K 219G 306K /var/log root@ehecatl # zfs get compression tank/usr/ports tank/var/log NAME PROPERTY VALUE SOURCE tank/usr/ports compression gzip local tank/var/log compression gzip local root@ehecatl # zfs get compressratio tank/usr/ports tank/var/log NAME PROPERTY VALUE SOURCE tank/usr/ports compressratio 2.63x - tank/var/log compressratio 7.22x -
Dat scheelt als je lompe apache logs hebt dacht ik zo.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
okee. dan kan ga ik het gewoon ook bestellen en gebruiken. als het alleen de nic is die niet werkt vind ik het niet zo'n probleem. gebruik je de onboard SATA of heb je een aparte RAID controller?NL-JP schreef op woensdag 02 april 2008 @ 10:33:
[...]
Ik heb een poging gedaan met freebsd 7 maar de onboard nic werd niet gevonden en mijn conclusie was dat het board nog niet (goed) ondersteund wordt. Draai nu op freenas 0.686.3
Ik gebruik gewoon onboard SATA, hardware RAID wordt niet herkend. Freenas draait nu overigens op een 256mb CF card die met een converter op de IDE connector zit.DARKLORD schreef op woensdag 02 april 2008 @ 15:29:
[...]
okee. dan kan ga ik het gewoon ook bestellen en gebruiken. als het alleen de nic is die niet werkt vind ik het niet zo'n probleem. gebruik je de onboard SATA of heb je een aparte RAID controller?
ik wilde een highpoint rocketraid 2320 pci-e raid controller (4x sataII) aansluiten en daarop RAID5 3x 1TB samsung spinpoint installeren. dit met een athlon 64 x2 be-2350 processor. lekker zuinig als ie 24/7 aanstaat. als bij jou alles verder gewoon goed werkt in FreeNAS dan zie ik behalve de NIC geen problemen. chipset wordt dan binnenkort wel volledig ondersteund door freebsd...NL-JP schreef op woensdag 02 april 2008 @ 17:54:
[...]
Ik gebruik gewoon onboard SATA, hardware RAID wordt niet herkend. Freenas draait nu overigens op een 256mb CF card die met een converter op de IDE connector zit.
en voorlopig gewoon een hardeschijf of usb stickje ipv CF.



De plaatjes zijn klikable, de CLI is nog eenvoudiger, je wordt er in de gui zelfs op gewezen door de daadwerkelijk benodigde commando's te laten zien.
Raid-Z is een geavanceerde softwarematige RAID-5.
Nog wat andere + punten van ZFS:
- ZFS is op basis van Copy On Write, waardoor eigenlijk gelijk een copy/snapshot gecreerd word en daarbij alles is checksummed tot op het uberblock toe. Dit heeft als voordeel dat er geen fscheck gedraait hoeft te worden bij bevoorbeeld een power outage. Bij ext3/ufs kan het uren duren voordat je fs/journal gechecked is.
Oja ook leuk, goedkope replicatie dmv het ZFS send/receive command, ook incremental. Leuk als je je collectie mp3/foto's/doc's naar de buren/familie wilt repliceren
Solaris gaat zich op den duur ook deels positioneren als storage OS, vandaar dat NetApps, SUN ook heeft aangeklaagd
btw, OpenSolaris is gratis te downloaden, alle functionaliteit graties. okok het vergt alleen wat Solaris energie/kennis maar komt bijna op freebsd neer.
http://opensolaris.org/os/downloads/
Zou eigenlijk wel in de openingspost moeten worden opgenomen naar mijn mening...
We love the smell of innovation in the morning!
ik heb geen tijd en zin om me weer helemaal in een nieuw OS te gaan verdiepen. het moet gewoon werken out of the box zoals freenas dat doet op freebsd.
alleen vraag ik me dan af, is het nog nodig om een RAID controller te kopen, om RAID5 te draaien, als ik dan later toch overstap op ZFS's RAID-Z ?? want dat is gewoon softwarematig. of kan je gewoon RAID5 met een hardware controller installeren met hierop als filesystem ZFS ?
[ Voor 7% gewijzigd door DARKLORD op 02-04-2008 22:22 ]
kun je je onboard sata gebruiken. Je kunt nu al ZFS gebruiken als je gewoon freebsd pakt ipv. freenas. Het is echt niet zo moeilijk als je denkt.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Ik heb freenas op een usb stick geprobeerd te installeren maar dat lukte niet, dat kan natuurlijk ook aan mij liggenDARKLORD schreef op woensdag 02 april 2008 @ 21:18:
[...]
en voorlopig gewoon een hardeschijf of usb stickje ipv CF.
Ik zou graag eens ZFS willen uitproberen. Het lukt me ook nog om freebsd te installeren maar zonder zo'n gebruiksvriendelijke interface als freenas kom ik geen stap verder door gebrek aan kennis. Ik zou echt een goede handleiding nodig hebben. Is die een beschikbaar?P5ycho schreef op woensdag 02 april 2008 @ 23:57:
je kunt freebsd toch ook gewoon met software geom_raid5 draaien?
kun je je onboard sata gebruiken. Je kunt nu al ZFS gebruiken als je gewoon freebsd pakt ipv. freenas. Het is echt niet zo moeilijk als je denkt.
edit:
Dit is nou een mooie gelegenheid om me eens te verdiepen in de unixen en linuxen.
[ Voor 7% gewijzigd door NL-JP op 04-04-2008 20:56 ]
Ziet er inderdaad erg interessant uit.NoE948 schreef op woensdag 02 april 2008 @ 21:52:
Zou eigenlijk wel in de openingspost moeten worden opgenomen naar mijn mening...
http://gathering.tweakers.net/forum/list_messages/1259660
zorg wel dat je genoeg ram hebt, en het liefst 64bit freebsd draait.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Hij boot lekker snel en serveert de files aan al mijn machines zonder problemen. Nu is het echter zo dat ik al een maandje op een degraded RAID5 draai van 2 disks. Inmiddels heb ik mijn 3e harddisk binnen, maar ik krijg hem met geen mogelijkheid toegevoegd aan de RAIDset !
1
2
3
4
| olympos Tomba /usr/home/Tomba # graid5 status Name Status Components raid5/OlymposRAID5 DEGRADED HOT ad1 ad6 |
Nu had ik begrepen dat je mbv 'graid5 insert [raidset] [dev]' de harddisk kon vervangen, echter ik krijg een (voor mij en google althans) erg obscure foutmelding:
1
2
| olympos Tomba /usr/home/Tomba # graid5 insert OlymposRAID5 /dev/ad4 graid5: There is no provider '/dev/ad4'. |
Zoals je kunt zien bestaat /dev/ad4 namelijk wél !
1
2
3
4
| olympos Tomba /usr/home/Tomba # ls /dev/ad* /dev/ad0 /dev/ad0s1b /dev/ad0s1e /dev/ad4 /dev/ad0s1 /dev/ad0s1c /dev/ad0s1f /dev/ad6 /dev/ad0s1a /dev/ad0s1d /dev/ad1 |
Kan iemand mij misschien uitleggen hoe ik dit werkend krijg ?
De image heb ik erop geschreven met physdiskwrite-0.5.1
Wil ik er van booten, dan komt ie zover dat ik boot, boot safe etc kan kiezen, maar direct daarna reboot de compaq. Iemand een idee wat het probleem is?
zelfde geldt voor opstarten vanaf livecd
[ Voor 6% gewijzigd door sander817 op 06-04-2008 13:56 ]
de verbinding tussen de 2 zal dan moeten gebeuren door een gigabit switch of -router maar ik vind geen echte aanraders
kan iemand mij wat raad geven?
[Gbit] Betaalbare en goede Gigabit switches_W_ schreef op zondag 06 april 2008 @ 19:40:
nu neem ik aan dat als ik een gigabit netwerk wil, ik zo een intel gigabit kaart in mijn NAS moet steken en eentje in mijn pc
de verbinding tussen de 2 zal dan moeten gebeuren door een gigabit switch of -router maar ik vind geen echte aanraders
kan iemand mij wat raad geven?
Speciaal voor jou even opgezocht : Veel lees plezier
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
There is no replacement for displacement!
Ik ben momenteel bezig met het regelen van een paar extra Samsung T166 schijven (500 GB), heb er 2 en er komen er nog 2 bij.
Doel: Meer snelheid (niet burst)
Grootste nadeel (volgens mij): De Intel ICH9R heeft Intel Matrix Storage optie, deel v/d schijf Raid 1 en andere deel van dezelfde schijf in Raid 0.
Alles draait op dit moment op de Intel ICH9R controller van mijn GigaByte P35 DS4. Ik zit een beetje te kijken voor een wat "goedkopere" controller.
Op het oog had ik deze controllers
HP LSI 3041E (4x SAS/SATA)
Promise TX4650 (4x SAS/SATA)
HighPoint RocketRAID 23XX (4x SAS/SATA), waarbij ik het verschil in performance niet weet tussen de 2300, 2310 en de 2320.
Wat ik mij af vraag, ga ik door zo'n toch wel wat goedkopere controller te kopen erop vooruit in performance of moet ik dan echt naar kaartjes van 250+ euro met cache stappen? Een tweede is natuurlijk, welk kaartje aan te raden is, ik heb geen ervaring met losse controllers.
Overige specs:
GigaByte P35 DS4
Intel Q6600 @ 3,2 GHz (8x400)
4x 1GB Corsair Dominator PC8500 (C5DF)
thanks, zeker de moeite om te lezen, zit al een aantal pagina's vernero355 schreef op maandag 07 april 2008 @ 11:51:
[...]
[Gbit] Betaalbare en goede Gigabit switches
Speciaal voor jou even opgezocht : Veel lees plezier
maar nu vraag ik mij af of het wel degelijk een switch is dat ik nodig heb en niet een router
ik heb een modem van telenet, die gaat naar een Linksys WRT54G die de static dhcp verzorgt en sommige apparaten via wifi op het net laat
ik zou mijn vaste PC en NAS (die beide hun ip van de Linksys krijgen) willen koppelen via gigabit
wordt het dan:
- telenet modem -> LinksysWRT54G -> gigabit switch
- telenet modem -> LinksysWRT54G -> gigabit router
- iets heel anders..
ben namelijk geen held in het hele netwerkgebeuren dus een duuwtje in de goeie richting wordt geapprecieerd
bedankt, ziet er een aangenaam geprijsde oplossing uit!_eXistenZ_ schreef op maandag 07 april 2008 @ 13:49:
Neem een NetGear GS108, superstabiele dingen met alle features die je maar wilt. In je server een Intel Pro 1000 PCI-E kaartje proppen en gaan met die banaan
ik ga eerst nog even door de 17 pagina's van het andere topic woelen en ga deze in gedachten houden
Sorry voor de kick, maar ik kom gewoonweg niet verder. Ook google helpt mij niet....Tomba schreef op zondag 06 april 2008 @ 10:40:
* Tomba is nog steeds erg tevreden over zijn op FreeBSD7 gebaseerde NASje.
Hij boot lekker snel en serveert de files aan al mijn machines zonder problemen. Nu is het echter zo dat ik al een maandje op een degraded RAID5 draai van 2 disks. Inmiddels heb ik mijn 3e harddisk binnen, maar ik krijg hem met geen mogelijkheid toegevoegd aan de RAIDset !
code:
1 2 3 4 olympos Tomba /usr/home/Tomba # graid5 status Name Status Components raid5/OlymposRAID5 DEGRADED HOT ad1 ad6
Nu had ik begrepen dat je mbv 'graid5 insert [raidset] [dev]' de harddisk kon vervangen, echter ik krijg een (voor mij en google althans) erg obscure foutmelding:
code:
1 2 olympos Tomba /usr/home/Tomba # graid5 insert OlymposRAID5 /dev/ad4 graid5: There is no provider '/dev/ad4'.
Zoals je kunt zien bestaat /dev/ad4 namelijk wél !
code:
1 2 3 4 olympos Tomba /usr/home/Tomba # ls /dev/ad* /dev/ad0 /dev/ad0s1b /dev/ad0s1e /dev/ad4 /dev/ad0s1 /dev/ad0s1c /dev/ad0s1f /dev/ad6 /dev/ad0s1a /dev/ad0s1d /dev/ad1
Kan iemand mij misschien uitleggen hoe ik dit werkend krijg ?
Niemand die mij hiermee kan helpen ?
Probeer 't eens met:Tomba schreef op dinsdag 08 april 2008 @ 15:16:
Sorry voor de kick, maar ik kom gewoonweg niet verder. Ook google helpt mij niet....
Niemand die mij hiermee kan helpen ?
1
| graid5 insert OlymposRAID5 ad4 |
[ Voor 8% gewijzigd door Erik Jan op 08-04-2008 16:36 ]
This can no longer be ignored.
Erik Jan, je bent mijn heldErik Jan schreef op dinsdag 08 april 2008 @ 16:34:
[...]
Probeer 't eens met:code:provider names dus altijd zonder /dev/ ervoor
1 graid5 insert OlymposRAID5 ad4Het "graid5 label" commando stript tegen de conventie in automagisch /dev/ eraf. Het is nogal een obscure module als ik de resultaten in Google idd zo zie.
1
2
3
4
5
6
| olympos Tomba /usr/home/Tomba # graid5 insert OlymposRAID5 ad4 olympos Tomba /usr/home/Tomba # graid5 status Name Status Components raid5/OlymposRAID5 REBUILDING CALM ad1 ad6 ad4 (224985088 / 0% (p:1)) |
* Tomba is weer helemaal happy
1
2
3
4
5
| olympos Tomba /usr/home/Tomba # graid5 status Name Status Components raid5/OlymposRAID5 COMPLETE CALM ad1 ad4 ad6 |
Server van m'n ouders aan't upgraden, gelijk geconverteerd van promise raid1+0 naar graid5
Net bij wijze van experiment een van de vier schijven eruit getrokken, aan windows PC gehangen en NTFS geformateerd, daarna terug gehangen.
Rebuild wil echter niet zo lukken, ik krijg een heleboel errors, en blijft op 0% hangen
Iemand een idee?
Setup:
4x Hitachi 250GB schijven, aangesloten via Promise Sata150 raid controller (geen array gedefineerd, schijven direct via /dev/adX gespecificeerd).
FreeBSD 6.3-STABLE
Error screenshot (letterlijk):

Al geprobeerd controller in ander PCI slot te hangen, geen succes.
Eerste bouwen van array gaf geen problemen.
My system is in 64 bits. But superglue keeps it together just fine...
Ik kan het antwoord hierop niet vinden (google, man graid5 etc)...
Enlightenment - je was met een offline capacity expansion script bezig, maar dat werkt(e) nog niet onder FreeBSD7...?
graid5 insert <arrayname> <diskname>
Maar dan wordt ie als spare geplaatst, en neem aan dat je dat niet bedoelt?
My system is in 64 bits. But superglue keeps it together just fine...
kheb me moederbord besteld. GigaByte GA-MA78GM-S2H . alleen zit erg lange levertijd op...
NB780G/SB700
http://short-circuit.com/product/D201GLY2.html

Short circuit is niet persee een geweldige computer shop, maar het boardje is daar nog goedkoper dan hier en nog belangrijker, de voeding (AC-DC + DC-DC) is daar erg goedkoop.
o.a. 1 x IDE socket, 2 x SATA sockets en ook nog een PCI slot
Ampera-e (60kWh) -> (66kWh)
Die gebruik ik dus als FreeBSD NASboxjeGreenSky schreef op woensdag 16 april 2008 @ 16:16:
Ik heb dit topic verder niet gevolgd, maar wat een heel goedkoop en zuinig boardje is, is het volgende Intel 1.2 Ghz Celeron Fanless D201GLY2 board (voor 73$):
http://short-circuit.com/product/D201GLY2.html
[afbeelding]
Short circuit is niet persee een geweldige computer shop, maar het boardje is daar nog goedkoper dan hier en nog belangrijker, de voeding (AC-DC + DC-DC) is daar erg goedkoop.
o.a. 1 x IDE socket, 2 x SATA sockets en ook nog een PCI slot
Zitten wel enkele nadelen aan --> maar 2 SATA poorten (dus ik heb 1 IDE en 2 SATA schijven in RAID5), er zit slechts 100 Mb netwerkkaart op en slechts 1 PCI-slot. Hij is wél heel erg snel en lekker stil. Heb m in een Morex Venus 668 (http://www.morex.com.tw/products/productdetail.php?fd_id=28) zitten.
En welk OS draai je erop? Ik wil er Debian op draaien (het is ook niet echt als NAS bedoelt, meer als server)
Ampera-e (60kWh) -> (66kWh)
Celeron 3Ghz
512MB ram
3 x 750GB Samsung Spinpoint in RAID5 met AES encryptie
Onboard gigabit lan
deze hangt aan m'n WRT54G met kabel en voorlopig "pomp" in over wifi van m'n pc naar m'n nas met WinSCP over SFTP
en nu haal ik dus de geweldige snelheid van 1MB/s

ben reeds 25GB ver
Ampera-e (60kWh) -> (66kWh)
weet niet wat de crash veroorzaakte, ineens was het programma weg
FTP werkt niet als je wifi uitstaat..GreenSky schreef op woensdag 16 april 2008 @ 21:24:... als je wifi veilig is.
My system is in 64 bits. But superglue keeps it together just fine...
Huh? Zijn wifi staat toch aan? Bovendien werkt hier FTP wel als mijn wifi uit staat, gewoon bedraad. Ik snap echt niet wat je met deze post bedoelt.
There is no replacement for displacement!
heb nog eens nagekeken..
SFTP speed is 1MB/s
FTP speed is 2MB/s
Copy/Paste in Windows speed is 2MB/s
CPU Graph in FreeNAS duidt ongeveer 24% aan
Memory usage in FreeNAS duidt ongeveer 25% aan
ik ben nu wel geduldig maar dit is echt traag hoor, zelfs mijn downloads gaan sneller
waarschijnlijk ben ik ergens iets dom vergeten maar zie niet wat
Je snapt toch als je in de US koopt dat je dan erg veel verzendkosten moet betalen, plus nog eens taksen en invoerheffing bij de douane?GreenSky schreef op woensdag 16 april 2008 @ 16:16:
Short circuit is niet persee een geweldige computer shop, maar het boardje is daar nog goedkoper dan hier en nog belangrijker, de voeding (AC-DC + DC-DC) is daar erg goedkoop.
Spijtig dat dat D201GLY2 bordje zo moeilijk verkrijgbaar is.
Tip dus: Hitachi schijven vinden het NIET leuk als je tijdens een schrijfoperatie de sata-kabel eruit trekt!!
My system is in 64 bits. But superglue keeps it together just fine...
Ja dat snap ik. Kosten voor boardje plus juiste voeding (AC-DC en DC-DC) plus nog wat kabeltjes etc, 112 euro incl verzenden (en zakkende, vanwege dollar). Daar moest in totaal nog 29 euro bovenop bij de douane. Dat is nog steeds goedkoper dan binnen de EU dit proberen te krijgen. Ik heb het board wel bij Picco gezien voor iets meer dan 70 euro (ongeveer gelijk als uit USA halen dus) maar dan moet je nog de voeding hebben, dat is echt duur binnen NL (en EU).phobosdeimos schreef op zaterdag 19 april 2008 @ 11:15:
[...]
Je snapt toch als je in de US koopt dat je dan erg veel verzendkosten moet betalen, plus nog eens taksen en invoerheffing bij de douane?
Spijtig dat dat D201GLY2 bordje zo moeilijk verkrijgbaar is.
Ik heb de D201GLY2 trouwens op lagere cpu voltage laten draaien, hierdoor is ie zuiniger en minder warm:
http://www.exoid.com/?page_id=168
(ik ga er namelijk geen fan bij stoppen)
Ampera-e (60kWh) -> (66kWh)
de meeste kant en klare NAS apparaten zullen dit laatste waarschijnlijk niet kunnen, dus zelfbouw of iets meer exotisch opzoeken.
daarnaast moet deze zuinig stil en klein zijn. en een normale disk in passen
ik heb op dit moment een shuttle pc maar die vind ik te groot en niet zuinig.
mensen ervaring met parren/rarren op via epia systemen?
ik zal de bubba (http://www.wifisound.nl/c...result.php?keywords=bubba) maar die lijkt me dit niet goed aan kunnen.
dus eigenlijk op zoek naar hetzelfde kasje (grote HD moet erin) met meer horsepower
[ Voor 5% gewijzigd door Zjemm op 20-04-2008 14:52 ]
Ampera-e (60kWh) -> (66kWh)
zolang het maar zuiniger is dan mn shuttle met p4 2.8
[ Voor 8% gewijzigd door Zjemm op 20-04-2008 16:25 ]
Deze keer met een Intel chipset ipv SiS prul, DDR2 ram, en een 1.87ghz Intel Atom cpu op 45nm.
Totale TDP voor dergelijk plankje: 7.5 Watt
Richtprijs USD 50 $
Later in Q3 2008 komt Intel Little Falls 2, hetzelfde mobo, maar dan met een dualcore versie van de cpu.
Ampera-e (60kWh) -> (66kWh)
link
Hier wordt $60 geroepen en spelers als Asus en MSI als leveranciers.
Heerlijk
Ampera-e (60kWh) -> (66kWh)
Voor een downloadserver maakt het trouwens bitter weinig uit, dan is een 200mhz Pentium 1 ook voldoende.
Ampera-e (60kWh) -> (66kWh)
Het is eigenlijk in alle opzichten beter om een nieuwe zuinige server in elkaar te flansen, zeker wanneer de boardjes deze prijzen hebben.
Ampera-e (60kWh) -> (66kWh)
dat bedoel ik..... zo'n bordje als dat intel gaat uitbrengen moet dat wel kunnen trekken zonder dat de overige functies van het servertje er onder gaan lijden.The Realone schreef op maandag 21 april 2008 @ 12:02:
Totdat je die Pentium 200 DVD-ISO's wilt laten (un)RARren/PARren.
anders kan ik beter gaan voor een itx bordje waar een zuinige core 2 op gaat. bijvoorbeeld die van jetway. maar ach dan wordt het al gauw weer een duurdere hobby
Ampera-e (60kWh) -> (66kWh)
ben benieuwd wanneer ze een beetje beschikbaar zullen zijn
Ze mogen nog zo leuk zijn als ze willen, het is nodig dat ze MAKKELIJK verkrijgbaar zijn.
Want zoals de situatie nu is, zijn ze enkel te krijgen bij een handje vol speciaalzaken, die dan van de situatie misbruik maken door te hoge prijzen aan te rekenen.
Ik wil graag gewoon mijn materiaal bij Zercom of een andere goeie winkel oppikken, geen gedoe, en eerlijke prijzen.
Zit een 250 Watt voedinkje in en had m gewoon via samenkopen.net gekocht samen met het Intel bordje. Draai er FreeBSD 7RC1 op. Debian mag geen probleem zijn lijkt me !GreenSky schreef op woensdag 16 april 2008 @ 16:32:
Zit er bij die Morex een voeding bij in (incl dc-dc boardje, of een normale pc voeding), en waar heb je de spullen vandaan?
En welk OS draai je erop? Ik wil er Debian op draaien (het is ook niet echt als NAS bedoelt, meer als server)
Hey das een top-tip (TM), tx mate !GreenSky schreef op zondag 20 april 2008 @ 12:56:
[...]
Ik heb de D201GLY2 trouwens op lagere cpu voltage laten draaien, hierdoor is ie zuiniger en minder warm:
http://www.exoid.com/?page_id=168
(ik ga er namelijk geen fan bij stoppen)
bijvoorbeeld de jetway j7f5 heeft hdmi, hierop moet je zelf nog een 479 proc op duwen wat het geheel iets kostbaarder maakt, maar volgens mij wel erg krachtig.
je hebt ook nog de J7F5M1G5-VDE van jetway met een via 1,5 CPU waar ook HDMI op zit. maar ik ben verder niet bekend met de kracht van een via CPU.
ik wil namelijk een servertje bouwen waarop linux draait met een media center voor DVD's en HD-films, download bak (usenet), webserver-ftp bak.
ben ik dan met bovenstaande veel te overkill bezig?
[ Voor 55% gewijzigd door Zjemm op 01-05-2008 20:31 ]
ik heb freenas (0.686.3 (revision 3011)) al geruime tijd tevreden draaien op een MSI K9N SLI mobo
die heeft 6x SATA onboard.
de 1e 4 poorten hebben 500GB schijven.
nu heb ik daar 2 schijven bij proberen te stoppen van ook elk 500GB (op de 5e en 6e SATA poort dus) maar wat ik ook doe, FreeNAS herkent ze alleen onder "Disk Management".
In ELK ander menu (vooral "Format" en "Software RAID") kan ik die schijven niet terugvinden.
Ik heb nu 1 schijf volledig geformatteerd onder mijn Hirens CD met FAT32 (duurde 3 uur
maar hoe ik die schijf ook toe voeg onder "Disk Management", ik zie hem nog steeds niet in de andere menu's (FreeNAS herkent dus WEL alle 6 de poorten)
zeer frustrerend, want op deze manier zijn ze gewoon onbruikbaar.
Ook een reboot brengt em niet naar het format en soft raid menu. of de sata kabels onderling verwisselen, het lijkt aan die 2 poorten te liggen
ad12 en ad14 kan ik dus NIET zien onder Geom Raid en dat wil ik wel, want ik wil het onderdeel van een raid5 maken met 6 schijven.
mss handmatig onder de cli doen?
ik weet dat ik iig graid5 moet gebruiken, maar met welke parameters?
[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]
het gaat om een areca 1220 kaartje
[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]
Zoals het er nu naar uit ziet wil ik binnenkort een systeem met 4x tot 6x Samsung F1 750GB. Deze wil ik op een systeem draaien die onder FreeNAS of FreeBSD 7 met geom_raid5.
In een post van Enlightment las ik het volgende:
Is het aan te raden om dan een zware CPU erin te zetten of voldoet een energiezuinige processor in principe ook? Ik wil het systeem puur gebruiken als NAS en verder niets anders.Verwijderd schreef op donderdag 14 februari 2008 @ 06:00:
Dankzij de simpele implementatie met weinig features is het meest CPU-verslindende onderdeel (write-combining) van tafel, en kun je XP RAID5 dus ook op oudere systemen gebruiken. Voor Linux en BSD icm moderne RAID5 geldt dit niet: die kunnen een X2 6000+ systeem tot aan de knieën brengen.
_@/'
[ Voor 18% gewijzigd door Q op 05-05-2008 00:47 ]
FreeNAS "missing" drives in format and RAID..
dus ik zal proberen te downgraden naar een pietsje eerdere versie van freenas. ben er allang achter dat zodra er een geom array is, en je daar een mount regel voor hebt, die automagisch wederom gemount wordt (ook al heb je de schijven nog niet toegevoegd via Disk Management)
[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]
Verwijderd
Nou nou, alles PCI dus voor high-performance NAS niet echt geschikt. PCI-e is intel bang voor dat er grafische kaarten in gebruikt worden en dat wil Intel voorbehouden aan de Core2-platform; mini-itx mag niet de winst van dure processors in gevaar brengen. Een slimme keus, maar voor ons wel erg jammer. Als je SATA + Gigabit beide op dezelfde PCI poort zitten dan werk je alsnog met een oude pc. Ik ben iig niet tevreden over de performance die ik had met een dergelijke setup. Maar voor minder hoge eisen kan het natuurlijk prima voldoen.phobosdeimos schreef op zondag 20 april 2008 @ 16:36:
Trouwens, Q2 van 2008 komt Intel Little Falls uit, die gaat echt zwaar reet schoppen.
Die "SiS prul" is anders wel stukken zuiniger dan wat Intel biedt, en SiS heeft prima chipsets gemaakt; veel minder bugs en issues dan andere chipset-leveranciers. Dat gezegd heeft de northbridge bij Intel processoren nog wel invloed op de performance, aangezien Intel nog een (ouderwetse) FSB gebruikt en de northbridge dus de geheugencontroller bevat. Intel gebruikt(e) voor zijn officiële Intel-moederborden ook regelmatig SiS-chipsets, nadat ze bij ATi vertrokken na de overname door AMD. Generaliserend gezegd: Intel en nVidia chipsets verbruiken meer energie dan AMD en SiS chipsets. Maar of dat voor die i945 ook opgaat: i dunno.Deze keer met een Intel chipset ipv SiS prul
In je artikel staat dat de setup zo'n 40W idle aan het stopcontact verbruikt, dat is nou niet echt een geweldige prestatie te noemen, ik heb ATX systemen met normale <80%eff voeding gebouwd die zo'n 42W idle trokken. Met een mATX 780G bordje en efficiente athlon X2 (45W) zou je lager moeten kunnen halen, maar beschik je wel over supergoeie performance. en de prijs van deze combo is met 100-125 euro prima te doen.
De echte uitdaging is 15-20W idle, maximum verbruik is niet van invloed op je energierekening, aangezien een 24/7 thuis-NAS vrijwel altijd (99%) aan het idlen is. Idle stroomverbruik is dus alles wat telt, voor je energierekening.
Overigens ken ik ITX borden die wél PCI-express hebben, maar ik zie die alleen via OEM-channel (en dus niet Retail wat consumenten kunnen kopen).
Zelfs een Core 2 Duo zou voor mijn (thuis)gebruik niet voldoende zijn, het hangt er dus maar vanaf welke features je wilt gebruiken. Software RAID5, multi-gigabit LAN en AES encryptie vragen veel van je processor. Met name encryptie valt een dualcore of quadcore processor aan te bevelen, en bij voorkeur AMD aangezien deze in dit type workload vele malen sneller is dan Intel CPU's. Waarschijnlijk door de sterke FPU performance van AMD processors.GreenSky schreef op maandag 21 april 2008 @ 12:40:
Een Core 2 voor NAS is onzin. Teminste, voor thuisgebruik.
Wat voor schijven zijn dat, heb je die ooit al eens voor FreeBSD/FreeNAS gebruikt? Zo ja, dan zit de configuratiesector nog op de disk (laatste sector) en een format haalt die niet weg, alleen een full sector zero-write, maar het gaat maar om één sector.zyberteq schreef op vrijdag 02 mei 2008 @ 00:15:
ok, ik heb een raar probleem
(..)
nu heb ik daar 2 schijven bij proberen te stoppen van ook elk 500GB (op de 5e en 6e SATA poort dus) maar wat ik ook doe, FreeNAS herkent ze alleen onder "Disk Management".
Kun je via ssh eens de output geven van:
kldstat
gstripe status
gmirror status
graid5 status
gconcat status
Ik denk dat je schijf nu vrolijk in een (kapotte) array draait namelijk.
Als je geen encryptie gebruikt, maar wel gigabit en geom_raid5, zou een single core cpu voldoende kunnen zijn, ik raad echter de nieuwe AMD Athlon X2 4x50e 45W TDP cpu's aan, de langzaamste will do.Steephh schreef op zondag 04 mei 2008 @ 17:02:
Intressant topic.
Zoals het er nu naar uit ziet wil ik binnenkort een systeem met 4x tot 6x Samsung F1 750GB. Deze wil ik op een systeem draaien die onder FreeNAS of FreeBSD 7 met geom_raid5.
In een post van Enlightment las ik het volgende:
Is het aan te raden om dan een zware CPU erin te zetten of voldoet een energiezuinige processor in principe ook? Ik wil het systeem puur gebruiken als NAS en verder niets anders.
FreeBSD (vooral versie 7+) kan zeer goed met meerdere processors omgaan, wat je vooral merkt bij encryptie aangezien deze lineair schaalt met de rekenkracht van je CPU. Overigens: de WD Caviar GP serie verbruikt de helft van normale 7200rpm schijven zoals de Samsung F1: zo'n 4W. Het zuinigste is GP 1TB schijven gebruiken, maar dan betaal je (nog) wel meer per gigabyte. Maar hoe groter de capaciteit van de disks, des te minder disks je nodig hebt, des te lager het idle verbruik.
Bij het lezen ben ik ook op ZFS gestuit en van de informatie die ik er van kan vinden is dit echt een knap FS waar ik zeker eens mee aan de slag zou willen gaan.
Er is echter iets wat ik niet helemaal begrijp :
ZFS zou volgens de specs bij elke read een hashcompare doen om er zeker van te zijn dat de data consistent is. Dit is allemaal leuk en hoe meer zekerheid hoe beter zou ik zeggen maar is het eigenlijk niet de taak van de harddrive zelf om read errors te detecteren en te signaleren aan het FS/OS om zo datacorruptie te voorkomen? Als ik het goed begrijp werkt een RAID 5 ook op deze manier waarbij de parity niet gebruikt wordt bij gewone reads maar wel als een harddrive errors begint te geven of zelfs helemaal failed om data on the fly terug te reconstrueren en later terug te rebuilden na het toevoegen van een nieuwe harddrive. Is de hele hashcompare bij ZFS dan niet een beetje overkill of zijn er toch gevallen waarbij er datacorruptie kan optreden zonder dat het FS/OS hier weet van heeft?
Verwijderd
Processor
AMD Athlon X2 4050e 45W TDP processor, rond de 50 euro.
Moederbord
ECS/Biostar AMD 740G bordje voor HT 1.0 (K8) met SB700 southbridge (6x SATA)
prijs: rond de 38-50 euro
Biostar/Asus/Supox/Abit/Gigabyte AMD 780G bordje voor HT 3.0 (K10) met SB700 southbridge (6x SATA)
prijs: rond de 45-70 euro
Als je maar SB700 southbridge hebt en geen buggy SB600. SB750 komt later en biedt windows RAID5 driver en Overdrive 3.0 waarmee een paar honderd MHz extra overclock (of juist underclock?) mogelijk mee zou moeten zijn.
Geheugen
Twee reepjes DDR2 1GB - kost toch weinig en zo kun je gebruik maken van Dual Channel. Eén reepje kan ook en zal nog een paar watt kunnen schelen. DDR2 is zuiniger dan DDR1.
Netwerk
Onboard gigabit voldoet meestal, maar kijk of de PHY wordt ondersteund als je FreeBSD/FreeNAS gaat gebruiken. FreeBSD7 ondersteunt vele nieuwe moederborden, alleen sommigen niet. Je kunt natuurlijk altijd een Intel Pro/1000 PT PCI-e x1 kaartje erin gooien voor 25 euro, dat werkt opzeker. Maar doe dat pas als onboard niet werkt, onboard is zeker niet slecht en lekker zuinig. Als de drivers maar goed zijn...
Wil je multi-gigabit (2Gbps of hoger) dan kun je met de "lagg" link aggregatie driver meerdere gigabit kaartjes omtoveren tot één virtuele 2Gbps+ kaart, voor extra snelheid of juist redundantie alhoewel dat laatste voor thuisgebruik niet zo boeiend is.
Opslag
Ik raad aan WD Caviar GP 1TB schijven vanwege het lage verbruik (4W) en de hoge capaciteit per watt (1000GB voor 4W is weinig watt per gigabyte). Denk er ook om dat je spin-down kunt gebruiken om arrays/disks down te spinnen die niet actief zijn, zoals die voor een dagelijkse/wekelijkse backup. Wil je voor de beste prijs per gigabyte kijk dan eens naar de Samsung F1 serie.
RAID & Filesystem
Software RAID volstaat voor Linux en BSD - voor Windows vaak niet aangezien Windows beperkte mogelijkheden heeft op dit gebied. Gebruik je BSD, dan kun je de volgende filesystems gebruiken: UFS2, UFS2 met SoftUpdates, UFS2 met Journaling (geom_journal) en ZFS. Andere filesystems zijn read-only of via fusefs (filesystem in userspace).
Je kunt op één schijf je operating system zetten van een paar GB en de 2e (grote) partitie gebruiken voor je RAID/array of ZFS volume. Allemaal geen probleem.
Wil je encryptie via geom_eli of ZFS's alpha-stage transparante encryptie, dan zal het gebruik van quadcore de performance verdubbelen (lineaire schaling). Of je dat nodig hebt is de vraag, AMD kan met 128-bit AES net de 100MB/s halen in 64-bit amd64-mode. Intel CPUs doen het overigens minder goed op dit gebied, een simpele Athlon 64 X2 kan een Core2Duo met gemak eruit trekken. Ik hoop dat de AMD Phenom X4 9150e (die in het 2e kwartaal van 2008 gereleased zou moeten worden) het beter doet: tot over de 200MB/s voor multigigabit LAN.
Gebruik nooit PCI als storage interface. Daar heb ik mezelf inmiddels van overtuigd na mijn eerste PCI NAS setup, wat gewoon veel latency had - MP3s aanklikken gaf gewoon net teveel latency. Alles PCIe is een goed idee, dus ook de netwerk adapter! De meeste onboard NICs van moderne borden zijn via PCIe x1 link verbonden. Alleen VIA/Atom achtige bordjes vaak alles PCI, wat mij vooralsnog tegenhoudt daarin te investeren.
Stel je slaat een file op op een HD om er vervolgens een jaar niet meer aan te komen, de sectoren worden niet meer gelezen. Wat nu als in dat jaar een bit omvalt ergens in die file? Een HD heeft geen parity om te valideren of wat je leest wel klopt?Bylie schreef op zaterdag 10 mei 2008 @ 19:05:
Er is echter iets wat ik niet helemaal begrijp :
ZFS zou volgens de specs bij elke read een hashcompare doen om er zeker van te zijn dat de data consistent is. Dit is allemaal leuk en hoe meer zekerheid hoe beter zou ik zeggen maar is het eigenlijk niet de taak van de harddrive zelf om read errors te detecteren en te signaleren aan het FS/OS om zo datacorruptie te voorkomen? Als ik het goed begrijp werkt een RAID 5 ook op deze manier waarbij de parity niet gebruikt wordt bij gewone reads maar wel als een harddrive errors begint te geven of zelfs helemaal failed om data on the fly terug te reconstrueren en later terug te rebuilden na het toevoegen van een nieuwe harddrive. Is de hele hashcompare bij ZFS dan niet een beetje overkill of zijn er toch gevallen waarbij er datacorruptie kan optreden zonder dat het FS/OS hier weet van heeft?
Wat nu als je een RAID5 array hebt en 1 drive loopt gedeeltelijk in de soep? Dus niet fysiek stuk, maar hij maakt een fout eens in de miljoen gelezen bits ofzo. Een RAID5 array detecteert dit niet, want de parity wordt niet vergeleken bij leesacties. Je zou flink de boot in kunnen gaan zo.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Deze case lijkt me ook geschikt.
Dit systeem komt ter vervanging van een WD Netcenter (disk is kapot gelopen) er zit nog wel garantie op maar 500gb is te weinig en ik wil meer betrouwbaarheid en snelheid. Het geheel moet gaan draaien met FreeNAS in RAID5.
De NAS wordt vooral gebruikt voor MP3 en Films.
Ik heb nog een paar ideen/vragen:
• FreeNAS op een CF zetten... Goed idee of onnodig?
• ClarkConnect als OS gebruiken. Heb al een CC routertje deze kan dan er tussen uit. Loopt al 2 jaar, nooit gecrashed. Waarschijnlijk iets lastiger met het RAID configureren.
Graag hoor ik al jullie opmerkingen want dit word mijn eerste zelfbouw NAS en ook de eerste keer dat ik iets met RAID doe. (raar dat je zoiets als RAID pas gaat gebruiken als je eerst 300gb aan MP3 bent verloren, en daarmee ook heel veel uren aan oude cd's encoden
Zo ik ga mijn Netcenter uit de vrieskist halen... Misschien spint hij nog eenmaal op.
Ik twijfel meestal nog tussen het gaan of niet gaan voor een low power oplossing (VIA Isaiah of Intel Atom oid) aangezien het enige wat "het beestje" zal moeten doen files aanbieden/opslaan is. Dus qua CPU power zal het meeste naar de software RAID oplossing + samba + Gbit NIC gaan. Aan de andere kant is het natuurlijk nooit niet mis om wat CPU power op overschot te hebben voor net dat geval dat je het nodig hebt zoals bij bv een RAID rebuild, ZFS algemeen (dacht begrepen te hebben dat dit toch wel voor wat overhead zorgt tov andere FS's), moet het totale verbruiksplaatje nog eens goed bekijken om uit te maken of zo'n low power (met z'n eventuele nadelen) echt de moeite is.
Waarom eigenlijk een AMD? Ik heb namelijk over het algemeen betere ervaringen met Intel systemen, niet qua performance oid maar gewoon it "just works", het is wel zo dat al mijn Intel systemen gekoppeld zijn met Intel chipsets terwijl de AMD's bv op NForce moederborden zitten (al een aantal malen datacorruptie mee gehad) wat misschien wel een pak verbeterd is met de overname van ATI door AMD.
Hoe zit het eigenljk met SATA hotplug capabilities op de SB700 icm FreeBSD? (hier moet je wel AHCI mode voor opzetten dacht ik mij te herinneren) Is echt een luxe als je dat gewend bent
En tot slotte
Dus eigenlijk is een RAID 5, 6 helemaal niet meer safe aangezien er ongemerkt bit rot kan optreden? Maar dan is eigenlijk logisch gezien toch geen één RAID 5, 6 meer veilig aangezien 1 "rotte" disk die niet gedetecteerd wordt de hele array de mist in kan doen lopen (of zie ik hier iets over het hoofd)? Zo zou het dus ook kunnen zijn dat wanneer 1 disk van een RAID 5 er uitklapt en je een nieuwe disk toevoegt om te laten rebuilden dat een "rotte" disk de rebuild kan laten failen?P5ycho schreef op zondag 11 mei 2008 @ 12:48:
[...]
Stel je slaat een file op op een HD om er vervolgens een jaar niet meer aan te komen, de sectoren worden niet meer gelezen. Wat nu als in dat jaar een bit omvalt ergens in die file? Een HD heeft geen parity om te valideren of wat je leest wel klopt?
Wat nu als je een RAID5 array hebt en 1 drive loopt gedeeltelijk in de soep? Dus niet fysiek stuk, maar hij maakt een fout eens in de miljoen gelezen bits ofzo. Een RAID5 array detecteert dit niet, want de parity wordt niet vergeleken bij leesacties. Je zou flink de boot in kunnen gaan zo.
Uit veiligheidstandpunt kan ik dus heel goed begrijpen dat er bij ZFS voor gekozen is om mbv hashcomparing de correctheid van de data/blocks te garanderen en om zo ook vroegtijdig disk corruptie op te kunnen sporen. Maar zou het eigenlijk dan niet beter thuishoren op hardwareniveau, dus dat de disk zelf hashing doet van blocks en op een standaard manier aan het FS/OS signaleert wanneer reads "rotte" data begint op te leveren (misschien wel een groter kostenplaatje op die manier)?
Let erop RAID maakt backups niet overbodig! Zelf heb ik voorlopig al mijn belangrijke data op 3 plaatsen staan, 1 waarop ik werk en 2 offline backups op aparte schijven die ik af en toe synchroniseer. Waarom 2 schijven, als je werklocatie beslist ermee op te houden en als je dan alles van backup wil terugzetten en die begint ook errors te geven (heb het meegemaakt!) daar wordt je niet blij vanUTP schreef op zondag 11 mei 2008 @ 13:31:
(raar dat je zoiets als RAID pas gaat gebruiken als je eerst 300gb aan MP3 bent verloren, en daarmee ook heel veel uren aan oude cd's encoden)
Op internet lees ik dat dit aan de hardware waarop je freebsd (of freenas in mijn geval) wil installeren, is er nog een mogelijkheid FreeNAS wel te installeren op deze computer?
specs:
Gigabyte GA 81DX
P4 2ghz (400mhz fsb)
768 Mb ram
60GB IDE schijf.
[ Voor 2% gewijzigd door MuisM4t op 11-05-2008 14:20 . Reden: specs ]
ik bedoel. die waardes zijn als ik het goed begrijp max waardes. en het systeem zal meeste tijd staan te idelen of te downloaden/rarren
Verwijderd
Een HDD kan al niet meer zuiver van zijn medium lezen, een HDD heeft ECC nodig om foutcorrectie toe te passen. Zonder deze correctie komen read-errors veels te vaak voor.P5ycho schreef op zondag 11 mei 2008 @ 12:48:
[...]
Stel je slaat een file op op een HD om er vervolgens een jaar niet meer aan te komen, de sectoren worden niet meer gelezen. Wat nu als in dat jaar een bit omvalt ergens in die file? Een HD heeft geen parity om te valideren of wat je leest wel klopt?
Maar wat als je foute parity leest? Die disks lezen netjes wat er op staat en weten geeneens dat het om parity data gaat. De checksums in ZFS is niet een manier om dataverlies te voorkomen, maar te ontdekken dat er een probleem is. Bij NTFS krijg je gewoon corrupte files, zonder dat je weet wanneer dit gebeurde en hoeveel andere files getroffen zijn. Bij ZFS wel. Mits het probleemloos werkt tenminste; er hebben veel bugs in de checksum handling van ZFS gezeten.
geom_raid5 kun je zo configureren dat hij bij elke leesactie de parity erbij pakt om die te controleren. Safe-op(eration) heet dat. Zelf gebruik ik het niet.Een RAID5 array detecteert dit niet, want de parity wordt niet vergeleken bij leesacties. Je zou flink de boot in kunnen gaan zo.
Verwijderd
Bit rot treedt normaal gezien niet op; een (permanente) read error zal ervoor zorgen dat een disk uit de array getrapt wordt. En nee RAID5 en RAID6 is niet helemaal safe, dat klopt. Sterker nog, geen enkele opslagmethode is helemaal safe. Maar je kunt door het inbouwen van redundantie, backups en de nodige voorzorgsmaatregelen de kans op dataverlies wel minimaliseren. Zeker de mechanische hardeschijven van nu kunnen elk moment falen, en dan ben je blij dat je voor RAID5 hebt gekozen of een andere vorm van redundantie.Bylie schreef op zondag 11 mei 2008 @ 14:00:
Dus eigenlijk is een RAID 5, 6 helemaal niet meer safe aangezien er ongemerkt bit rot kan optreden?
Een disk ziet alleen énen en nullen, die weet niet of bepaalde data 'corrupt' is. Ook al klopt de checksum. Als de disk fysiek in orde is maar de data niet, kan een disk daar niets aan doen. Daarom moet je een dergelijke setup ook in software inbouwen. Het filesystem kan namelijk wel weten welke data er op de disk hoort te staan, dmv checksums.Maar zou het eigenlijk dan niet beter thuishoren op hardwareniveau, dus dat de disk zelf hashing doet van blocks
Dus eigenlijk doet een harddisk wel ECC maar wat gebeurd er dan als er read errors gedecteerd worden? ECC toepassen en zo de data doorgeven en/of remapping naar known good of extra sectors op de disk? In dit geval kan de harddisk het inderdaad zelf oplossen en hoeft het FS/OS er niks van te weten. Erger is, zoals je zegt, dat wanneer de harddisk denkt dat het goede data leest terwijl het eigenlijk corrupt is. Op die manier zie ik de nood aan een extra error detectie op FS inderdaad goed in.Verwijderd schreef op zondag 11 mei 2008 @ 17:09:
[...]
Een HDD kan al niet meer zuiver van zijn medium lezen, een HDD heeft ECC nodig om foutcorrectie toe te passen. Zonder deze correctie komen read-errors veels te vaak voor.
Maar wat als je foute parity leest? Die disks lezen netjes wat er op staat en weten geeneens dat het om parity data gaat. De checksums in ZFS is niet een manier om dataverlies te voorkomen, maar te ontdekken dat er een probleem is. Bij NTFS krijg je gewoon corrupte files, zonder dat je weet wanneer dit gebeurde en hoeveel andere files getroffen zijn. Bij ZFS wel. Mits het probleemloos werkt tenminste; er hebben veel bugs in de checksum handling van ZFS gezeten.
Dus eigenlijk zou een RAID 5 op deze manier ook ongeveer dezelfde soort error detectie kunnen aanbieden als ZFS met waarschijnlijk enkel een performance penalty. Alhoewel ZFS dacht ik nog verder ging en ook meteen de data ging reconstrueren en verplaatsen naar "veilige" locaties.[...]
geom_raid5 kun je zo configureren dat hij bij elke leesactie de parity erbij pakt om die te controleren. Safe-op(eration) heet dat. Zelf gebruik ik het niet.
Verwijderd
Bij iemand waarvan ik datarecovery deed, was de flash versleten na enkele maanden als systeemdisk te hebben gefungeert. Lezen ging prima (hele disk) maar schrijven naar sommige sectoren lukte niet meer; flash versleten dus. Je kunt dit effect uitstellen door soft updates in te schakelen, zodat writes uitgesteld worden. Of je zet je log files op een RAID-array dat kan ook nog.UTP schreef op zondag 11 mei 2008 @ 13:31:
Ik heb nog een paar ideen/vragen:
• FreeNAS op een CF zetten... Goed idee of onnodig?
Maar je kan ook prima je OS op 1e partitie zetten en 2e partitie gebruiken voor opslag of RAID. Let erop dat FreeNAS 0.7 (op FreeBSD 7.0) nog niet is gereleased.
Dat maakt zeker verschil uit. Hoe lager de TDP des te lager het idle verbruik in de praktijk. Maar er is geen regel die dat oplegt ofzo, dus er kunnen uitzonderingen zijn. De Phenom X4 9150e kan ondanks zijn 65W TDP misschien wel zuiniger zijn in idle, omdat hij veel technieken heeft die het stroomverbruik onder deze omstandigheden kan minimaliseren (split power planes, iedere cpu zijn eigen frequency, dynamisch uitschakelen van onderdelen, etc).Zjemm schreef op zondag 11 mei 2008 @ 16:21:
denken jullie dat het kwa power verbruik er veel uit maakt als ik een itx bord neem met een s754 socket + amd 64 3000+ (89watt) of een itx bord met een AM2 processor (45watt)
ITX bordjes hebben vaak alles PCI ipv PCI-express. Ik raad het gebruik van PCI sterk af, tenzij het echt niet anders kan.
Zodra een VIA Isaiah uitkomt met PCI-express ga ik hem zeker kopen, maar zover is het nog niet. Die atom plankjes zijn expres allemaal PCI en dus voor mij niet interessant. Bovendien is een single core atom ook niets meer dan een veredelde low-power celeron.Bylie schreef op zondag 11 mei 2008 @ 13:48:
Ik twijfel meestal nog tussen het gaan of niet gaan voor een low power oplossing (VIA Isaiah of Intel Atom oid) aangezien het enige wat "het beestje" zal moeten doen files aanbieden/opslaan is.
Als AMD cpus niet zouden werken zouden ze niet voor mission-critical servers gebruikt worden. Ook t.net gebruikt ze. Ik had gehoopt dat we dat argument nou wel gehad hadden, de FUD over CPUs is al zo oud.Waarom eigenlijk een AMD? Ik heb namelijk over het algemeen betere ervaringen met Intel systemen, niet qua performance oid maar gewoon it "just works"
Waarom AMD? Nou eigenlijk heel simpel: prijs, prijs/performance en laag energieverbruik tijdens idle. Intel's Core2Duo's en andere 65nm cpu's trekken zo'n 20 tot 25W idle: allemaal voor niks. AMD CPUs gaan vanaf 1W, tot 4 tot 5W voor de 45W TDP cpu's (Athlon BE en Athlon X2 4050e ws.). De hoger geklokte chips en de Phenoms verbruiken wel veel meer; Phenom zeker 20W idle dus hetzelfde als intel. Ik zou zo'n cpu nooit kopen precies om die reden. Maar Phenom X4 9150e zou wel stukken zuiniger moeten zijn.
Daarnaast, AMD is veel sneller in AES encryptie, een simpele X2 trekt een dure Core2Duo er zo uit. Ook haalt AMD meer prestatiewinst uit de AMD64 instructieset, waarbij intel vooral op compatibiliteit mikt. Andersom is intel weer beter in ALU/SSE instructies. Maar hoe wil je opboksen tegen een low-power high-performance dualcore chip van 45 euro? Juist.
Wil je wel intel, kijk dan eens naar de E8400 cpu's, die zijn ook zuinig tijdens idle. Eigenlijk alle 45nm cpu's van intel, aangezien ze high-K gebruiken; iets wat AMD ook gaat doen voor de 45nm propus afaik. Probleem hierbij is dat Intel chipsets veel energie verbruiken, evenals nVidia chips. En ATi is er niet meer voor Intel, alleen nog SiS. In de praktijk wordt voor ITX bordjes daarom een ouderwetse i945 chipset gebruikt met ICH7 southbridge, omdat nieuwe chipsets van Intel stroomvretertjes zijn; jammer!
Check "fulgas" op #freenas op irc.freenas.org. Die is er mee bezig. Dat betekent ook dat het nog niet af is.En tot slotteis het eigenlijk bekend wanneer FreeNAS 0.7 met ZFS support beschikbaar zal worden.
Het ging me niet zozeer om de AMD cpu's, elke CPU heeft namelijk foutjes (ook de intels hebben errata) maar om het gehele platform : CPU + chipset. Zo heb ik in mijn router (pfSense btwVerwijderd schreef op zondag 11 mei 2008 @ 17:54:
Als AMD cpus niet zouden werken zouden ze niet voor mission-critical servers gebruikt worden. Ook t.net gebruikt ze. Ik had gehoopt dat we dat argument nou wel gehad hadden, de FUD over CPUs is al zo oud.
Verwijderd
Maarja als je intel wilt dan kan dat natuurlijk, ben je alleen wel iets duurder uit en iets hoger verbruik door de chipset (tenzij je een oudere neemt). Maar geen AMD kopen omdat de chipset wel eens aan je data zou kunnen knagen vind ik vergezocht, op zijn best. Dan had je er wel meer over gehoord denk ik; de TLB bug is ook uitgebreid uitgemeten in de online media.
Prijs is niet direct maatgevend voor kwaliteit, zeker in de ICT. En zoals altijd: the best things in life are free. Zo ga ik nu even heerlijk genieten van de zon.
raid-z in zfs geldt hetzelfde voor, omdat de file verdeeld wordt over n-1 schijven uit de pool plus 1 parity block is de performance van de gehele raid-z array even snel als de traagste/drukste schijf uit de array.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Was je mijn probleemgeval al weer vergeten van pasVerwijderd schreef op zondag 11 mei 2008 @ 18:18:
SB600 heeft wel ACPI bugs, maar voor zover ik weet geen corruptiebugs.
[ Voor 70% gewijzigd door _eXistenZ_ op 11-05-2008 23:52 ]
There is no replacement for displacement!
Verwijderd
Ik vrees het, wat voor problemen had je?_eXistenZ_ schreef op zondag 11 mei 2008 @ 23:52:
Was je mijn probleemgeval al weer vergeten van pas
Maar ik denk niet dat het een hardware probleem is. Eerder een bugje in de driver ofzo. Anders zou dit zich ook voordoen op windows systemen en dan heb je de poppen snel genoeg aan het dansen. Als een product flawed is wordt dit breed uitgemeten op techsites, zo ook de HyperThreading en Phenom TLB bugs die eigenlijk niet zoveel voorstelden.
Raad je puur deze schijven aan vanwege de spin-down? De Samsung F1 1TB is toch een stuk sneller, dus ik zou die dan liever nemen aangezien deze ook nog eens goedkoper is? Of scheelt het in stroomverbruik met de WD Caviar GP 1TB dan zoveel dat het de moeite waard is iets tragere HD's te nemen tegenover het stroomverbruik?Verwijderd schreef op zondag 11 mei 2008 @ 03:04:
Over de hardware, ik zelf raad aan om zoiets als basis te gebruiken:
Opslag
Ik raad aan WD Caviar GP 1TB schijven vanwege het lage verbruik (4W) en de hoge capaciteit per watt (1000GB voor 4W is weinig watt per gigabyte). Denk er ook om dat je spin-down kunt gebruiken om arrays/disks down te spinnen die niet actief zijn, zoals die voor een dagelijkse/wekelijkse backup. Wil je voor de beste prijs per gigabyte kijk dan eens naar de Samsung F1 serie.
_@/'
Reken 5 HDD's = 20 watt, wat overeenkomt met 20 wattuur * 24 * 365 = 175.2 kWh
Dus dat tikt redelijk aan.
All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.
Ik heb die berekening eens gedaan (WD greenpoint vs Samsung F1) en er kwam toen uit dat ik pas na zes jaar continu gebruik het verschil in aanschafprijs terugverdiend had door het lagere stroomverbruik. (Het aantal disks is overigens niet relevant, want zowel de aanschafprijs als het verbruik schalen daarmee lineair.)Dirk schreef op dinsdag 13 mei 2008 @ 09:16:
Ik heb hier 'ergens' zien stellen dat de WD's 4 watt gebruiken tegen andere GB HDD's 8 watt, wat op jaarbasis een hoop energie scheelt. Als je dus niet voor de maximale snelheid gaat kan het je een hoop besparen.
Reken 5 HDD's = 20 watt, wat overeenkomt met 20 wattuur * 24 * 365 = 175.2 kWh
Dus dat tikt redelijk aan.
Het ligt natuurlijk aan de huidige prijzen van disks en stroom, maar staar je dus niet alleen blind op het stroomverbruik.
C) WD GP 1TB WD10EACS = 141 euro -> 3.95 watt idle, 8.03 watt actief
D) Samsung 1TB HD103UJ = 119 euro -> 6.96 watt idle, 8.67 watt actief
Gesteld: Prijs per watt per jaar: €2,- per watt per jaar | €0.23 per kWh
Ik vind de keuze van enlightenment opvallend, want ze geeft juist aan dat ze aan spindown doet. Dit betekent dat de tijd dat de schijven actief zijn (veel) hoger ligt dan dat je de schijven permanent aanlaat. Dit betekent dat de zuinigste 1TB WD pas na 17.75 jaar goedkoper is dan de Samsung, de goedkopere 1TB is na 17.18 jaar goedkoper. Tweemaal 500GB WD is een verloren keuze.
Het is dus wachten tot de GP's net zo'n duikvlucht nemen als de Samsung en de boel gaat stabiliseren. Voor de mensen die nu al de knoop door moeten hakken:
-doe je aan spindown: Samsung (HD103UJ)
-doe je niet aan spindown: WD GP 1TB (WD10EACS) (terugverdientijd < 3 jaar tov 2x 500GB GP)
(ik zou het mooi vinden als ik een post zou kunnen aanmaken die automatisch de berekening doet welke schijf op dat moment de beste keus is, door de combinatie van aanschafkosten en wattages
[ Voor 33% gewijzigd door Dadona op 13-05-2008 13:47 ]
Dit topic is gesloten.