smeerbartje schreef op maandag 20 december 2010 @ 08:53:
Ik vind het sowieso overbodig.. zoveel power voor een beetje downloaden... waarschijnlijk ga je er nog wel meer mee doen; maar kunnen die dingen echt niet in een tijdelijke VM ware op je eigen pc? M.a.w. moet dat continu aan staan? Indien ja... dan heb je een mooi systeem te pakken... indien nee, dan is het een veels te duur systeem.
Ik wil graag naar een beschikbaarheid van 24/7 voor torrents, ftp en wellicht later webservices (b.v. jukebox-achtige service). Het maken van een thuis
server is juist ingegeven door de wens de energieslurpende hoofdpc niet 24/7 aan te hebben staan. Dat het teveel power is ben ik wel met je eens, maar iets langzamers dan de i3 540 (b.v. een Atom) levert niet een enorm veel goedkopere
server op. Het scheelt misschien 100-200 euro. Dan betaal ik nu liever wat meer zodat ik nog voldoende ruimte heb om het gebruik van de
server uit te breiden.
Interessante insteek. Zo had ik het nog niet bekeken. Dat de
server er gaat komen is vrij zeker, maar het is inderdaad veel geld. Ik kan het ook wel wat minder groot uitpakken. Ik zie de aankoop van de
serverhardware als een eenmalige investering. Een gigabit-router en kast koop je natuurlijk maar 1 keer. In mindere mate geldt dat ook voor moederbord, geheugen en processor. Ik verwacht dat ik in de toekomst hooguit eens af en toe een hdd zal vervangen door een exemplaar met meer ruimte. De onderhoudskosten zijn t.o.v. de eenmalige aanschaf relatief klein. Persoonlijk vind ik het erg fijn om alle vrijheid te hebben op en met zo'n
server. Maar goed, de kosten moet wel opwegen tegen de baten. Dat moet ik in de gaten blijven houden.
theblindman schreef op maandag 20 december 2010 @ 12:11:
Technisch gezien werkt een usenet download zo:
- Artikelen worden gedownload naar (bij sabnzbd) de cache folder (volgens mij bestandjes van 256kb of nog kleiner) In principe is een ramdisk van 384 MB al genoeg, zo groot zullen de bestanden niet worden

- De artikelen worden samengevoegd en gedecodeerd weggeschrijven naar een andere temp map (bij sabnzbd is dat incomplete)
- Dan begint het parfeest: controleren en eventueel repareren. (naar mijn mening kan dat het beste op die WD laptopschijf)
- Uitpakken naar je de complete map (de storagearray in dit geval

)
Als ik iets vergeet, hoor ik het graag. Met het bovenstaande gezegd hebbende lijkt een RAMDisk mij de beste oplossing.
Ik denk idd dat het gebruik van een ramdisk en een energie
zuinige snelle notebook hdd (500GB) de beste oplossing zijn. de grootste bestanden op usenet zijn 500MB, dus een ramdisk van 1GB lijkt me een goed begin. Dan hou ik nog 3GB over voor de
server zelf. Lijkt me ook voldoende. Ik zie vooralsnog niet het nut in van extra ram (8GB ipv 4GB).
Windows Home
Server, maar zodra Vail uit is stap ik daarop over.
vanaalten schreef op maandag 20 december 2010 @ 13:03:
Usenet downloaden:
- Mini-ITX moederbord met een Via C7 processor op 800MHz;
- 1GB geheugen;
- 5400rpm 2.5" harddisk;
Downloaden doet 'ie op 4Mbit (lijnsnelheid), par2-verify van een DVD image in tien minuten of zo. Heb je echt niet zo'n beest van een machine voor nodig.
Ik denk dat het afhangt van wat je download en hoeveel. Ik download zelf veel blurays (gemiddeld 35GB per stuk). Daar haal ik de HD audio uit en die voeg ik toe aan een veel kleinere HD-encodering. Het is dus niet zo dat ik af en toe eens een dvd'tje download en that's it. Het demuxen en remuxen laat ik ook allemaal op de
server plaatsvinden. In die zin is het dus ook een ontlasting van mijn hoofdpc die soms echt tergend traag is door al die processen die tegelijk draaien. Kortom, ik maak wel bovengemiddeld intensief gebruik van de hardware. Dat rechtvaardigt mijns inziens ook de wat hogere investering.
Dadona schreef op maandag 20 december 2010 @ 14:30:
Persoonlijk zou ik gewoon een WD20EARS schijf inzetten als downloadschijf of als schijf waar de uitgepakte bestanden op komen. Wat het handigste is dat hangt van je specifieke case af, maar ik zou niet meteen de bestanden naar de (vermoedelijke) array van zes/zeven schijven sturen. Ga je het bestand afspelen dan blijven er zes/zeven schijven actief. Sowieso moet je, vanuit energieoogpunt, je afvragen of je nog wel grote arrays moet willen als er bestanden op komen die je geregeld wil afspelen. (Meest domme scenario: RAID5 array van zes/zeven schijven met daarop je muziekbestanden.)
Ik heb wel nagedacht over een RAID5-array, maar daar ben ik allang van afgestapt. Ik heb de snelheid niet nodig en richt een aparte backup in.
theblindman schreef op maandag 20 december 2010 @ 17:03:
14MByte/s = 14.336KB/s / 384 = +-38 articles(lees: bestanden) per seconde
4MBit/s = 512 KB/s / 384 = +-1,3 articles per seconde
Een gemiddelde harde schijf kan makkelijk 2 bestandjes per seconden schrijven en ondertussen parren, met 38 bestandjes wordt het echter een heel ander verhaal.
Als je nu zorgt dat er alleen af en toe een bestand van, laten we zeggen, 50MB weggeschreven hoeft te worden, kan het parren gewoon doorgaan, en het downloaden ook want dat gaat eerst naar de razendsnelle ramdiskcache.

Zo zie ik dat ook. Ik merk nu al dat mijn Samsung F1 hdd moeite heeft met parren en downloaden tegelijk. Kortom, ik ben vooralsnog ook voorstander voor het gebruik van een ramdisk.
Dadona schreef op maandag 20 december 2010 @ 17:38:
Maar dat doet SAB toch automatisch? Je kunt aangeven hoeveel geheugen SAB mag inzetten, daar hoef je geen ram disk voor in het leven te roepen. Het voordeel daarvan is dat je niet permanent geheugen pakt, of je moet werkelijk 24/7 downloaden, dan maakt het niet uit.
Ik ben niet bekend met SAB. Momenteel gebruik ik Newsleecher. Die applicatie schrijft elk artikeltje los naar de hdd (temp map) meen ik en daarna pas naar de download map. Is het onhandig Newsleecher ook op de
server te gebruiken? Ik zal me eens verdiepen in alternatieven voor Newsleecher.