Toon posts:

Server bouwen

Pagina: 1
Acties:
  • 145 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Ik wil graag een server bouwen met daarin een harde schijf van 200GB. Bedoeling is dat deze schijf gaat dienen als een "centraal" opslagpunt in ons huis. Als PC1 of PC2 iets te vol staat met data, kan er data worden verplaatst naar de server met 200GB.

Wat is aan te raden om als systeem te nemen? Volstaat een 486 of een Pentium 200? Of kan ik beter sneller nemen? Of zijn er nog andere (goedkope!) alternatieven?

Qua software wou ik graag Windows 2000 gaan draaien. Ik heb gelezen dat ik daar sowieso 64MB voor nodig heb...

  • Marzman
  • Registratie: December 2001
  • Niet online

Marzman

They'll never get caught.

Een 486 met een 200 Gig harde schijf en Windows 2000?

Als je er zo weinig aan uit wilt geven kun je waarschijnlijk beter die harde schijf in pc1 of pc2 erbij hangen.

☻/ Please consider the environment before printing this signature
/▌
/ \ <-- This is bob. copy and paste him and he will soon take over the world.


  • The Bad Seed
  • Registratie: November 2001
  • Laatst online: 08:47

The Bad Seed

Chaotic since 1983

Windows 2000 met 64MB ram en een 200 GB hd op een 486 :?

Een P200 met 64 MB ram en win2k zou wel voldoende moeten zijn voor een simpel fileservertje. Dit op voorwaarde dat de ide controller in die p200 al een 200 GB hd aankan, wat mij zo goed als uitgesloten lijkt, zelfs met een bios update, maar een losse pci-ide controller is nu ook weer niet zo duur.

[ Voor 10% gewijzigd door The Bad Seed op 15-06-2004 00:02 ]

Hail to the guardians of the watchtowers of the north


  • Speedpete
  • Registratie: December 2001
  • Laatst online: 07-01 20:30

Speedpete

was barman

Simpele via-epia? Goedkoop en voldoet qua snelheid, modern en dus garant voor ondersteuning van je schijven.

Als de machine puur als opslag moet dienen met 200gb, kan een mobiele harde schijf ook een alternatief zijn. Pc vol? --> hang disk eraan en copy maar...

Object-oriented programming offers a sustainable way to write spaghetti code | Hoe vleugels wel werken.


  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 28-12-2025
Ik roep dan meteen RAID...
Kan er niks aan doen, maar bij centralisatie van storage bekruipen mij de meest enge ideeën over crashes.
Heb genoeg crashes gezien, en ongeacht je backup beleid, het kost je net altijd dat ene bestandje.
Dus mijns inziens, raid... anders hoef je geen server te bouwen, en kun je net zo goed de schijf bij een andere pc hangen en die het naamkaartje "server" geven....

Just my 2 cts.

  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

RAID is inderdaad ideaal. Zelf heb ik 2x40 GB in een RAID-1 setup lopen met allemaal data die ik *niet* kwijt wil (foto's enzo). (nee die brand ik niet op cd want ik draai een foto-site dus ze moeten beschikbaar blijven) Als dus eentje uitvalt heb ik alle data nog. Daarnaast *jakkert* RAID-1 bij leesbewerkingen, want hij leest dan de helft van de ene schijf en de helft van de andere schijf, tegelijkertijd. Je haalt dus precies de dubbele snelheid. Maarja, het is wel wat duurder dan een RAID-0 setup. (2x40 GB = 40 GB)

Verder draait Win2k natuurlijk voor geen meter op een 486, laat staan met 64 MB. Vlak na de start neemt Win2k hier al een dikke 80 MB. Een 486 met 64 MB kan wel, maar dan moet je je even verdiepen in Linux (console, geen grafische omgeving) en Samba installeren als fileserver. Dan heb je aan die 64 MB wel genoeg.

[ Voor 19% gewijzigd door Bergen op 15-06-2004 01:30 ]


  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 28-12-2025
Bergen schreef op 15 juni 2004 @ 01:29:
RAID is inderdaad ideaal. Zelf heb ik 2x40 GB in een RAID-1 setup lopen met allemaal data die ik *niet* kwijt wil (foto's enzo). (nee die brand ik niet op cd want ik draai een foto-site dus ze moeten beschikbaar blijven) Als dus eentje uitvalt heb ik alle data nog.
Zie je hoe tegenstrijdig het is wat je hier zegt??
Je wilt ze niet kwijt, maar je brand ze niet op cd? :)

Stel je maakt een foutje met (her)configureren van je array. Stel je maakt een andere domme fout.... Je weet het niet.
Je MOET backuppen!!! Ook met RAID! Kan niet vaak genoeg benadrukt worden!

  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

En jij moet even lezen wat ik erachteraan tiep. ;) Maar je hebt wel gelijk hoor. Kijk, alles wat ik niet kwijt wil smijt ik op die RAID-array. Als bijvoorbeeld ik weer eens een serie foto's heb zet ik die daar meteen op en die laat ik ook staan, omdat ze voor de fotosite beschikbaar moeten blijven. Ik ben geen systeembeheerder, ik maak geen dagelijkse backups ofzo. Dat doe ik zo nu en dan eens, elke maand ofzo. Verder heb ik genoeg vertrouwen in de array eigenlijk.

[ Voor 100% gewijzigd door Bergen op 15-06-2004 01:47 ]


  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 28-12-2025
Bergen schreef op 15 juni 2004 @ 01:37:
En jij moet even lezen wat ik erachteraan tiep. ;) Maar je hebt wel gelijk hoor. Kijk, alles wat ik niet kwijt wil smijt ik op die RAID-array. Als bijvoorbeeld ik weer eens een serie foto's heb zet ik die daar meteen op en die laat ik ook staan, omdat ze voor de fotosite beschikbaar moeten blijven. Ik ben geen systeembeheerder, ik maak geen dagelijkse backups ofzo. Dat doe ik zo nu en dan eens, elke maand ofzo. Verder heb ik genoeg vertrouwen in de array eigenlijk.
Ik snap je backup policy, maar ik zou er meer aandacht aan gaan besteden. Ik heb de laatste tijd hier heel veel schijven zien sneuvelen, ook hele jonge schijven.
Wat ik bedoel is het volgende... Hier draait een site waar ik mijn hele nieuwbouw op bij houd. PHP en mysql database er achter, alle scans van correspondentie, bouwtekeningen, you name it, I had it all... Maar vooral superveel foto's. Omdat dit uiteraard retebelangrijke data is, had een super backup policy, iedere nacht om 00.00 uur tar backup over netwerk naar een andere pc, retention period één week, cyclic dus. Na een week wordt de oudste backup weer overschreven.
Daarnaast deed ik bij grote site updates nog eens een handmatige synch naar een andere schijf.
Mijn data stond dus op 3 schijven. Kan niet mis denk je dan. En dan word je slordiger met branden.

Het ging dus mis.. Maar dat had je al aan zien komen.
Ik crash met mijn motorfiets, kom thuis te liggen met poot 8 weken omhoog, speel de hele dag met de linux server, installeer glfptd, en mount de site in /data/glftpd..
En blaas die vol. Niet meer naar gekeken. Twee weken later crashed de hd van de linux server. Geen probleem denk ik.... backup all the way, so no biggie...
Ik richt de server opnieuw in, en toen het tijd was om de tar backups er bij te halen kreeg ik het al meteen warm. _data.tgz was op alle dagen 1.99GB volgens XP. Uhoh! Warme rush komt over me heen. Tar's openen, en ja hoor... corrupt.
Onderzoek leverde op dat kernel 2.4 een flaw had, welke met een smbfs mount een 2GB barriere had!
2x raden waar het foto archief stond... in /data/secure/../../..
KUUUUT! :(
Snel naar de synch op de andere schijf kijken... Was een maand geleden de laatste keer geweest! (Want ja... er loopt toch iedere avond een backup :X) Resultaat van dit alles: 30 foto's pleite. 30 hele belangrijke foto's... Fundering en vloer van de onderste verdieping, incl de bekabeling.
Krijg ik nooit meer terug. Kon wel janken.

Wat ik bedoel te zeggen is, let op... Hoe safe je je ook waant, een menselijke fout is ook snel gemaakt! In mijn geval niet opletten met het opzetten van een server. Ik had meteen daarna mijn backupscript moeten aanpassen, zodat de siteroot excluded zou worden. Niet gedaan dus.. Bummer.
Backup backup backup!! Zeker als het foto's betreft!

  • MissingDog
  • Registratie: Augustus 2002
  • Niet online
UltraSub schreef op 15 juni 2004 @ 07:47:
[...]

Snel naar de synch op de andere schijf kijken... Was een maand geleden de laatste keer geweest! (Want ja... er loopt toch iedere avond een backup :X) Resultaat van dit alles: 30 foto's pleite. 30 hele belangrijke foto's... Fundering en vloer van de onderste verdieping, incl de bekabeling.
Krijg ik nooit meer terug. Kon wel janken.
Als ze zo belangrijk voor je zijn, waarom neem je dan geen datarecovery bedrijf in de arm? die kunnen zelfs nog met een electronenmicroscoop je data terugvissen....tegen een flinke prijskaart natuurlijk.

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 28-12-2025
Ja... een vette prijs ja.. Sorry, maar ik kan/wil geen 1500 euro betalen voor die 30 foto's. Hoe belangrijk ze ook zijn/waren... ;(
Was overigens wel voor het eerst bij een hd crash dat ik hier echt serieus over na heb gedacht...
Op het debian console zag ik toen ik de monitor koppelde allemaal read/write errors (ReiserFS). Bij de eerste reboot, zag het bios de schijf al niet meer.
Iemand die nog een truukje weet? Want bij mijn weten is het voor de normale thuisgebruiker over en sluiten als het bios je schijf niet meer ziet...

Verwijderd

Topicstarter
Een P2-300 met 64 of 128MB geheugen en de schijf van 200GB zou wel leuk zijn, dacht ik zo?

  • Falcon
  • Registratie: Februari 2000
  • Laatst online: 21-11-2025

Falcon

DevOps/Q.A. Engineer

"We never grow up. We just learn how to act in public" - "Dyslexie is a bitch"


  • iets
  • Registratie: Maart 2002
  • Laatst online: 27-01 20:16
Denk er wel aan dat je minimaal zo ongeveer een P2-300/400 nodig hebt wil je 100Mbit halen. Tenzij je met het wat duurdere 3com spul aan de gang gaat.

Een 486 gaat dus in zo'n geval niet echt werken.

Raid is wel leuk enzo als het per sé veilig moet zijn, wel duur. Voor de snelheid hoef je het iig niet te doen. Elke hdd van tegenwoordig haalt makkelijk 100Mbit.

tvw


  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

Kut man... Tja, misschien ligt daar het verschil, die schijven zijn bij elkaar gewoon 1 grote partitie waar ik dus verder niet mee speel. Er komt data op, er gaat data af en that's it. Ik speel nooit met aan andere dingen mounten e.d. Verder is het een ext3-partitie en dat is (afaik) ook net iets betrouwbaarder dan ReiserFS.

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 28-12-2025
iets schreef op 15 juni 2004 @ 23:55:

Raid is wel leuk enzo als het per sé veilig moet zijn, wel duur. Voor de snelheid hoef je het iig niet te doen. Elke hdd van tegenwoordig haalt makkelijk 100Mbit.
* UltraSub fronst...
Met windows? Ik zie toch aardig dikke servers op mijn werk behoorlijk zweten om een 100 mbit sustained vol te proppen. Laat staan fibre channels @1Gb or more.
Tis niet alleen je schijf wat je limiteert. Ook je file system.

  • iets
  • Registratie: Maart 2002
  • Laatst online: 27-01 20:16
Misschien als je een heleboel kleine bestanden over gaat zetten. Maar daar heeft de 'hoofd'-pc net zoveel last van. Dus als je een vette Raid array aanlegt op de server en dat naar een simpel 80GB geval overpompt heeft het nog vrij weinig nut.

Op je werk heb je nog een heleboel verschillende users wat natuurlijk ook een heel seek festijn oplevert.

Net als mijn eigen server, een P2-400 met een 5k4 40GB HD en realtek 100Mbit, die trekt idle 80-90Mbit. Maar als ik eMule aanzet mag ik blij zijn als ik nog 10Mbit haal.

tvw


  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

100 Mbit? Als je een groot bestand inleest ja. Normaal gesproken, als je allemaal kleine losse bestandjes leest, haal je dat bij lange na niet.

Ik heb 't nog eens getest met Bonnie++. Alleen met een 'sequential block input' haal ik een erg hoge snelheid met de RAID1-setup (2 simpele Maxtor 40 GB schijven): 45.857 kB/s. (De hele output staat hier. Commando: bonnie++ -d /raid -s 1024|bon_csv2html > bonnie.htm)

[ Voor 10% gewijzigd door Bergen op 16-06-2004 02:48 ]


  • Raku
  • Registratie: November 2001
  • Laatst online: 23-09-2022

Raku

Mental Aid

UltraSub schreef op 16 juni 2004 @ 00:10:
[...]
* UltraSub fronst...
Met windows? Ik zie toch aardig dikke servers op mijn werk behoorlijk zweten om een 100 mbit sustained vol te proppen. Laat staan fibre channels @1Gb or more.
Tis niet alleen je schijf wat je limiteert. Ook je file system.
Als je tegenwoordig geen 100 Mbit kunt volproppen continu op een dedicated verbinding dan doe je toch echt wat vekeerd hoor. Laatst nog een ftp gezien die @ windows 1 Gbit met gemak doorpompte. Verschillende bestanden tegelijk enzo. Dus niet simpel achterelkaar lezen/schrijven

Raku


  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

Simulated Zero schreef op 16 juni 2004 @ 03:21:
[...]


Als je tegenwoordig geen 100 Mbit kunt volproppen continu op een dedicated verbinding dan doe je toch echt wat vekeerd hoor. Laatst nog een ftp gezien die @ windows 1 Gbit met gemak doorpompte. Verschillende bestanden tegelijk enzo. Dus niet simpel achterelkaar lezen/schrijven
Jah maar dan wordt er toch flink wat gecached hoor, òf er wordt van een boel schijven tegelijk gelezen, want als je eeeeven logisch nadenkt snap je zelf ook wel dat je niet met 1 Gbit (ongeveer 125 MB/s) kunt lezen van een hd.

Verwijderd

Als volgt:

-Neem een Pentium III met min 256 / 512 mb ram.

-Neem 3 schijven 100 GB + 1 "kleine" 20 / 40 GB

-Stel de Windows Cache in op Server Mode

-IDE Controller Promise met Raid 1 en zet vervolgens die 3 schijven van 100 GB in een RAID 1 array

-Richt die Win2k optimaal in zoals het moet worden en blijven, defragmenteer je schijf en maak er een ghost van. ( met win2k SP4 geinstalleerd )

Zo zou ik het althans doen

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 28-12-2025
Simulated Zero schreef op 16 juni 2004 @ 03:21:
[...]
Als je tegenwoordig geen 100 Mbit kunt volproppen continu op een dedicated verbinding dan doe je toch echt wat vekeerd hoor. Laatst nog een ftp gezien die @ windows 1 Gbit met gemak doorpompte. Verschillende bestanden tegelijk enzo. Dus niet simpel achterelkaar lezen/schrijven
Dream on... :O
Tis mijn werk man, ik ben een storage admin bij een groot bedrijf. We werken met SAN en ESS. Dus niet een paar raid arrays bij elkaar geraapt (ja ook, maar ff voor het voobeeld)
Je krijgt een Gbit echt bij lange NIET vol met een windows bak. Zelfs een dikke linux server red dat niet. Ja als je sequentieel gaat lezen of schrijven kun je het misschien redden.
100mb thuis vol blazen? Vergeet het toch. Waarmee?
Wat doe jij waarmee jij thuis je 100 mb vol krijgt? Dat lukt je niet!
edit:
Met test tooltjes ja... maar niet met normaal gebruik.. ;)
Bergen schreef op 16 juni 2004 @ 04:48:
[...]
Jah maar dan wordt er toch flink wat gecached hoor, òf er wordt van een boel schijven tegelijk gelezen, want als je eeeeven logisch nadenkt snap je zelf ook wel dat je niet met 1 Gbit (ongeveer 125 MB/s) kunt lezen van een hd.
Bang on..

[ Voor 20% gewijzigd door UltraSub op 16-06-2004 09:56 ]


  • Jesse
  • Registratie: Februari 2001
  • Laatst online: 26-01 16:25
UltraSub schreef op 16 juni 2004 @ 09:55:
[...]
Je krijgt een Gbit echt bij lange NIET vol met een windows bak. Zelfs een dikke linux server red dat niet.
Volgens mij heeft dat btw niet zoveel met je OS te maken, maar meer met je storage systeem (raid) en met je serveerwijze.

[ Voor 13% gewijzigd door Jesse op 16-06-2004 11:21 ]


  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

Inderdaad... De bandbreedte van modern geheugen kan het met gemak aan, maar ik weet niet of je daar wel zoveel aan hebt op een fileserver.

125 MB/s, dat is een cd met een film inlezen in 5 seconden. Vast wel. B)

  • Raku
  • Registratie: November 2001
  • Laatst online: 23-09-2022

Raku

Mental Aid

UltraSub schreef op 16 juni 2004 @ 09:55:
[...]
Dream on... :O
Tis mijn werk man, ik ben een storage admin bij een groot bedrijf. We werken met SAN en ESS. Dus niet een paar raid arrays bij elkaar geraapt (ja ook, maar ff voor het voobeeld)
Je krijgt een Gbit echt bij lange NIET vol met een windows bak. Zelfs een dikke linux server red dat niet. Ja als je sequentieel gaat lezen of schrijven kun je het misschien redden.
100mb thuis vol blazen? Vergeet het toch. Waarmee?
Wat doe jij waarmee jij thuis je 100 mb vol krijgt? Dat lukt je niet!
edit:
Met test tooltjes ja... maar niet met normaal gebruik.. ;)



[...]

Bang on..
Sigh , ik haal met gemak 100 mbit , dat is echt geen enkel probleem :D gbit word idd wat lastiger , maar is echt niet ondenkbaar. Zeker niet als je met een 12x Sata raid 0 aankomt (zoals die ftp) Daarmee pomp je met gemak gbit vol. Ik haal zelfs hier thuis 10 mb/s continu via een brakke switch. Van 1 40 GB schijf naar 2x Sata raid 0. 100 mbit is echt geen probleem.

Testtootljes? Ik test het inderdaad weleens , maar dan wel in de vorm van alle downloads (20 gb) in 1x van mijn server afhalen. Via ftp is dan handiger dan via windows , aangezien dat nog weer een stukje sneller gaat.

Trouwens , beetje zinloos om te gaan schreeuwen hier dat het je werk is. Dat iets je werk is zegt mij en menig andere tweaker helemaal niets.
Jesse schreef op 16 juni 2004 @ 11:20:
[...]

Volgens mij heeft dat btw niet zoveel met je OS te maken, maar meer met je storage systeem (raid) en met je serveerwijze.
True , true.

[ Voor 24% gewijzigd door Raku op 16-06-2004 18:03 ]

Raku


  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

Juist, als je van een hele batterij schijven tegelijk kunt lezen zou ik me er iets bij kunnen voorstellen. Hier ligt ook een 100 mbit netwerk met een cheap ass Unex switch en daar haal ik rond de 50 mbit op als ik wat grote bestanden van deze pc naar m'n fijlserver overpomp.

  • Raku
  • Registratie: November 2001
  • Laatst online: 23-09-2022

Raku

Mental Aid

Bergen schreef op 16 juni 2004 @ 18:07:
Juist, als je van een hele batterij schijven tegelijk kunt lezen zou ik me er iets bij kunnen voorstellen. Hier ligt ook een 100 mbit netwerk met een cheap ass Unex switch en daar haal ik rond de 50 mbit op als ik wat grote bestanden van deze pc naar m'n fijlserver overpomp.
Ik vind 50 Mbit dan wel tegenvallen hoor. Als je 1 enkele schijf hebt moet hij met gemak 10-12 mb/s kunnen lezen/schrijven. Echt geen enkel probleem.

Raku


  • Bergen
  • Registratie: Maart 2001
  • Laatst online: 27-01 12:55

Bergen

Spellingscontroleur

Simulated Zero schreef op 16 juni 2004 @ 18:10:
[...]


Ik vind 50 Mbit dan wel tegenvallen hoor. Als je 1 enkele schijf hebt moet hij met gemak 10-12 mb/s kunnen lezen/schrijven. Echt geen enkel probleem.
De schijven wel ja, die halen samen sequentieel rond de 60 MB/s volgens hdparm:
hdparm -t /dev/md0

/dev/md0:
 Timing buffered disk reads:  64 MB in  1.11 seconds = 57.66 MB/sec
(2x Maxtor 40 GB IDE-schijven aan een Promise IDE controller, software RAID)
De oorzaak ligt waarschijnlijk in de el-cheapo Realtek kaartjes of in de el-cheapo Unex switch. Maarja, ik stoor me er niet aan. Ik vind 't snel genoeg voor gewoon gebruik. :)

[ Voor 14% gewijzigd door Bergen op 16-06-2004 18:25 ]


  • Expander
  • Registratie: Februari 2001
  • Niet online
Let op, het gaat hier niet alleen over mbits.. Let ook op wat voor harde schijven je BIOS ondersteunt.

Ik wilde pas een 80 GB hdd in mijn Pentium I 200 MHz (Linux server) zetten, ook voor meer centrale opslag, maar dat lukte niet. Pas later bedacht ik dat het BIOS deze hdd helemaal niet aan kon, ook niet met een upgrade.

Expanding the inexpandable


  • Raku
  • Registratie: November 2001
  • Laatst online: 23-09-2022

Raku

Mental Aid

Bergen schreef op 16 juni 2004 @ 18:22:
[...]
De schijven wel ja, die halen samen sequentieel rond de 60 MB/s volgens hdparm:
hdparm -t /dev/md0

/dev/md0:
 Timing buffered disk reads:  64 MB in  1.11 seconds = 57.66 MB/sec
(2x Maxtor 40 GB IDE-schijven aan een Promise IDE controller, software RAID)
De oorzaak ligt waarschijnlijk in de el-cheapo Realtek kaartjes of in de el-cheapo Unex switch. Maarja, ik stoor me er niet aan. Ik vind 't snel genoeg voor gewoon gebruik. :)
Ik zeg ook niet dat het niet snel genoeg is :P Aan 50 mbit zou ik zat hebben.
Expander schreef op 16 juni 2004 @ 18:26:
Let op, het gaat hier niet alleen over mbits.. Let ook op wat voor harde schijven je BIOS ondersteunt.

Ik wilde pas een 80 GB hdd in mijn Pentium I 200 MHz (Linux server) zetten, ook voor meer centrale opslag, maar dat lukte niet. Pas later bedacht ik dat het BIOS deze hdd helemaal niet aan kon, ook niet met een upgrade.
De discussie hierboven ging wat meer in de richting van server gebruik met raid systemen. Dan zit je automatisch wat hoger dan een pentium 200 :)

[ Voor 33% gewijzigd door Raku op 16-06-2004 18:30 ]

Raku

Pagina: 1