[FreeBSD] FreeBSD als fileserver, vragen

Pagina: 1
Acties:

  • Milenco
  • Registratie: April 2000
  • Laatst online: 17:17
Ik heb een paar dagen geleden FreeBSD 5,1 geinstalled op een oude bak van mij. Dit is een Duron 700 Mhz met 1024MB aan geheugen. Dit systeem wil ik gaan inrichten als fileserver. Voordat ik hieraan wil beginnen wil ik eerst wat dingen zeker weten (anders zou al het werk voor niets zijn geweest 8)7).

• Ik wil mijn server inrichten met zo'n 10 120GB HDD"s die ik hier in de tijd heb opgespaard. Deze wil dmv RAID5 (softwarematig in FreeBSD) gaan bundelen tot 1 schijf. Maar gaat dat goed komen met mijn systeem?

• Ik had gelezen dat het FS waar FreeBSD op draaid tot 4Petabyte aankan. Klopt dit? Is het iig genoeg om die 10x120GB aan te kunnen op 1 partitie?

• Voor Linux heb je samba, om bestanden direct te openen vanaf een netwerk (zonder ze eerst compleet te downloaden), werkt dit ook op FreeBSD?

Deze server gaat waarschijnlijk verbonden worden naar het netwerk met een 3com gigabit glas nic.

• Zou ik gigabit snelheden kunnen halen met deze opstelling (met RAID5 erbij)?

Ik heb al wat gesearched op got en google en kwam bij VINUM uit (wat de softwarematige raid aanstuurt), maar hier kon ik niet vinden wat de minimale systeemeisen voor een RAID5 config zijn bij dit aantal HDD's. Aangezien jullie al wat meer ervaring hebben enzo.. (slijm slijm ;))..

Update:

Het gaat om IDE schijven die woden aangestuurt door 2 ATA133 controllers. In het FreeBSD Handbook heb ik zo niets kunnen vinden.

[ Voor 7% gewijzigd door Milenco op 05-08-2003 02:19 ]


Verwijderd

Die 10x 120 GB hdd is dat scsi of ide.

Verwijderd

Over dat met raid 5 weet ik neit zo veel maar ik denk dat dat wel gaat lukken
Je kan die 10x120GB wel op één partitie zetten volgens mij
Samba is ook geschikt voor *BSD en *NIX
Ik denk niet dat je gigabit snelheid haalt, tenzij je een 64bit controller hebt, anders haal je dat nooit met je bussnelheid enzo.

  • Varienaja
  • Registratie: Februari 2001
  • Laatst online: 14-06-2025

Varienaja

Wie dit leest is gek.

Lezen vanaf RAID5 gaat enorm snel.

Je neemt waarschijnlijk geen controller, waarschijnlijk de onboard IDE en 2 losse kaartjes ofzo? Dan moet je bij het schrijven rekening houden met 10 a 20MB/sec gok ik. (Mijn 3ware 7810 doet ongeveer 10MB/sec schrijven, 100MB/sec lezen).

Je moet inderdaad rekening houden met de maximale bandbreedte van de PCI bus. Met 100MB/sec lezen ziet ie al vol, en is er dus niks meer over voor je GBit NIC. Reken op 40MB/sec via GBit ethernet.

De PCI op via moederborden is vaak wat minder snel dan nforce of intel moederborden. Dat scheelt ook vaak nog iets.

Siditamentis astuentis pactum.


  • Emmeau
  • Registratie: Mei 2003
  • Niet online

Emmeau

All your UNIX are belong to us

ik draai hier al 2 jaar netbsd met samba als fileserver (niet op gigabit, maar okay)

- samba werkt op freebsd

waar je wel effe naar moet kijken is je maximum open files. Bij mij stond dat op 384 in de kernel, en dat was wel erg laag.

de parameter is kern.maxfiles

ik heb hem op 10k staan, en geen problemen meer.

If you choose to criticise you choose your enemies


  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 17:00
Milenco schreef op 04 August 2003 @ 21:00:
• Voor Linux heb je samba, om bestanden direct te openen vanaf een netwerk (zonder ze eerst compleet te downloaden), werkt dit ook op FreeBSD?
Er is al antwoord gegeven op deze vraag van je (ja), maar vrijwel alle linux-software draait op FreeBSD, mits je bij de installatie "Linux-compatible modus" hebt ingeschakeld.

  • oVRoM
  • Registratie: Juli 2000
  • Niet online
Milenco schreef op 04 August 2003 @ 21:00:
• Ik wil mijn server inrichten met zo'n 10 120GB HDD"s die ik hier in de tijd heb opgespaard. Deze wil dmv RAID5 (softwarematig in FreeBSD) gaan bundelen tot 1 schijf. Maar gaat dat goed komen met mijn systeem?
Let je hier wel een beetje op? Weet het niet 100% zeker maar volgens mij is het in zo'n opstelling zo dat als één schijf het op geeft dat de kans groot is dat je al je data kwijt bent... Was dit namelijk ook eerst van plan maar heb toch maar besloten elke schijf* z'n eigen partitie te geven.
[sub]* 2 maar, geen 10 [plain]:)[/][/]

  • Varienaja
  • Registratie: Februari 2001
  • Laatst online: 14-06-2025

Varienaja

Wie dit leest is gek.

oVRoM schreef op 04 August 2003 @ 22:00:
Let je hier wel een beetje op? Weet het niet 100% zeker maar volgens mij is het in zo'n opstelling zo dat als één schijf het op geeft dat de kans groot is dat je al je data kwijt bent...
Met raid5 ben je niks kwijt bij uitval van 1 schijf. (Je moet wel vlug een nieuwe schijf kopen ;) )

[ Voor 4% gewijzigd door Varienaja op 04-08-2003 22:07 ]

Siditamentis astuentis pactum.


  • oVRoM
  • Registratie: Juli 2000
  • Niet online
Varienaja schreef op 04 August 2003 @ 22:07:
[...]

Met raid5 ben je niks kwijt bij uitval van 1 schijf. (Je moet wel vlug een nieuwe schijf kopen ;) )
Fsck, tuurlijk, dat was raid 0 waar je dan alles kwijt bent |:(
sorry ;)

  • Bigs
  • Registratie: Mei 2000
  • Niet online
De bandbreedtte van de PCI bus kan wel een flinke bottleneck vormen, maar verder voldoet FreeBSD aan al je eisen (incl. het Samba gebeuren, dat werkt onder FreeBSD ook).
Ik zweer zelf ook bij FreeBSD voor mijn servers, nog nooit problemen mee gehad en altijd uptimes van >100 dagen (alleen rebooten voor kernel security updates enzo).

Verwijderd

Ik zou met tien schijven eigenlijk sowieso wel één schijf in hotspare zetten. Als je dit doet, wordt die schijf automatisch in gebruik genomen mocht er een andere uitvallen. Het array zal automatisch weer gerebuilt worden met die ene schijf.

Verder is het inderdaad allemaal mogelijk, het is alleen even afwachten hoe je PCI-bus dit gaat trekken.

  • Milenco
  • Registratie: April 2000
  • Laatst online: 17:17
Verwijderd schreef op 04 augustus 2003 @ 21:04:
Die 10x 120 GB hdd is dat scsi of ide.
Het gaat om 10 Maxtor 120GB 7200rpm 8MB Cache schijven, IDE dus..
Verwijderd schreef op 04 augustus 2003 @ 21:15:
Over dat met raid 5 weet ik neit zo veel maar ik denk dat dat wel gaat lukken
Je kan die 10x120GB wel op één partitie zetten volgens mij
Samba is ook geschikt voor *BSD en *NIX
Ik denk niet dat je gigabit snelheid haalt, tenzij je een 64bit controller hebt, anders haal je dat nooit met je bussnelheid enzo.
Nou jah, die 32 bit pci sloten kunnen tot 133MB/s samen. Ik neem aan dat het onderling toch niet zo traag is, en alleen maar naar 'buiten de pci sloten'?
Varienaja schreef op 04 augustus 2003 @ 21:22:
Lezen vanaf RAID5 gaat enorm snel.

Je neemt waarschijnlijk geen controller, waarschijnlijk de onboard IDE en 2 losse kaartjes ofzo? Dan moet je bij het schrijven rekening houden met 10 a 20MB/sec gok ik. (Mijn 3ware 7810 doet ongeveer 10MB/sec schrijven, 100MB/sec lezen).

Je moet inderdaad rekening houden met de maximale bandbreedte van de PCI bus. Met 100MB/sec lezen ziet ie al vol, en is er dus niks meer over voor je GBit NIC. Reken op 40MB/sec via GBit ethernet.

De PCI op via moederborden is vaak wat minder snel dan nforce of intel moederborden. Dat scheelt ook vaak nog iets.
Ik ga inderdaad 2 losse controllers erbij kopen. ATA133 controllers voor 4 schijven.
Emmeau schreef op 04 augustus 2003 @ 21:28:
ik draai hier al 2 jaar netbsd met samba als fileserver (niet op gigabit, maar okay)

- samba werkt op freebsd

waar je wel effe naar moet kijken is je maximum open files. Bij mij stond dat op 384 in de kernel, en dat was wel erg laag.

de parameter is kern.maxfiles

ik heb hem op 10k staan, en geen problemen meer.
Bedankt voor de tip!
ddc schreef op 04 augustus 2003 @ 21:56:
[...]

Er is al antwoord gegeven op deze vraag van je (ja), maar vrijwel alle linux-software draait op FreeBSD, mits je bij de installatie "Linux-compatible modus" hebt ingeschakeld.
Deze heb ik idd geinstalled :Y)
oVRoM schreef op 04 augustus 2003 @ 22:00:
[...]

Let je hier wel een beetje op? Weet het niet 100% zeker maar volgens mij is het in zo'n opstelling zo dat als één schijf het op geeft dat de kans groot is dat je al je data kwijt bent... Was dit namelijk ook eerst van plan maar heb toch maar besloten elke schijf* z'n eigen partitie te geven.
[sub]* 2 maar, geen 10 [plain]:)[/][/]
Zie de reactie hieronder :Y) Door de parity check wordt de data die op die ene schijf staat terugberekend, maar dat is nu niet van toepassing B)
Bigs schreef op 04 augustus 2003 @ 22:19:
De bandbreedtte van de PCI bus kan wel een flinke bottleneck vormen, maar verder voldoet FreeBSD aan al je eisen (incl. het Samba gebeuren, dat werkt onder FreeBSD ook).
Ik zweer zelf ook bij FreeBSD voor mijn servers, nog nooit problemen mee gehad en altijd uptimes van >100 dagen (alleen rebooten voor kernel security updates enzo).
Mja voor de uptimes gaat me het niet zozeer. Het gaat mij vooral om de snelheid. Met die 700mhz kan ik in linux/bsd veel meer dan in windows, omdat deze veel meer resources vreet..
Verwijderd schreef op 04 augustus 2003 @ 23:00:
Ik zou met tien schijven eigenlijk sowieso wel één schijf in hotspare zetten. Als je dit doet, wordt die schijf automatisch in gebruik genomen mocht er een andere uitvallen. Het array zal automatisch weer gerebuilt worden met die ene schijf.

Verder is het inderdaad allemaal mogelijk, het is alleen even afwachten hoe je PCI-bus dit gaat trekken.
Dit is idd een goed idee!

Nog een paar vragen mbt RAID

• Trekt die 700mhz het, voor RAID5? Moet ik een grotere proc kopen, of kan het met die 700mhz zat?
• Kan ik mijn systeem later goed uitbreiden? Stel ik koop er over 6 maand weer 4 HDD's bij (bij wijze van spreken, ik koop ze toch steeds per 1/2 B)), kan ik deze er dan bij indoen (als die uitstaat 8)7), zodat de config ze herkend (het liefst automatisch) en deze toevoegd aan de array, zonder dat ik alle data moet backuppen, array opnieuw moet aanmaken en alles er weer opzetten?)
• Bij een herinstall van FreeBSD, kan ik dan mijn data recoveren (die nog in de raid5 array staat)?

Vooral bij vraag 2 liggen nogal wat problemen. Mijn idee is namelijk om eerst de array te starten met 3 schijven, dan zo'n 200GB op de fileserver te zetten (zodat 2 andere schijven leeg zijn), 2 schijven erbij in, weer data erop, etc? zodat ik in principe maar 3 schijven leeg hoef te maken, ipv alles?

  • deadinspace
  • Registratie: Juni 2001
  • Laatst online: 12:05

deadinspace

The what goes where now?

Milenco schreef op 04 augustus 2003 @ 21:00:
Ik had gelezen dat het FS waar FreeBSD op draaid tot 4Petabyte aankan. Klopt dit? Is het iig genoeg om die 10x120GB aan te kunnen op 1 partitie?
Ik weet zo snel niet wat FFS' limit is, maar ik zou me over 1080 GB geen zorgen maken eigenlijk. Als er iets voor problemen gaat zorgen, dan lijkt de FreeBSD block layer mij een waarschijnlijkere kandidaat, en afaik kan die 1080 GB wel aan.
Zou ik gigabit snelheden kunnen halen met deze opstelling (met RAID5 erbij)?
Kort antwoord: nee.

Ik ben medebeheerder van een machine die tot voor kort draaide op een 700 MHz Duron met een VIA chipset en software raid, en die machine haalde ongeveer 30 MB/sec als de wind de goede kant op waaide en de maan vol was.

Nou moet ik daar wel bij zeggen dat we proftpd gebruikten (er zijn snellere FTP servers), en dat alle HD's via de PCI bus gingen, maar toch... Ik verwacht dat je niet op meer dan 40 MB/sec hoeft te rekenen. Als je mazzel hebt.

De bottlenecks hier zijn je PCI bus en je CPU.

Hoezeer je PCI bus een bottleneck is hangt af van het aantal schijven dat via de PCI bus verbonden is... Als je 4 schijven aan de onchip IDE hangt, en 6 aan de PCI bus, dan moet dus 60% van het IDE-verkeer over de PCI bus, en 100% van het netwerkverkeer ook nog eens. Stel dat je 80 MB/sec over je PCI bus haalt, dan is dat 50 MB/sec voor de netwerkkaart, 30 MB/sec voor de PCI-IDE, en 20 MB/sec voor de onchip IDE. Maar dat is zonder de PCI overhead en andere PCI devices mee te rekenen ;)

Daarnaast weet ik niet precies wat software-RAID5 van je CPU vergt, maar een Duron 700 is niet echt een snelheidsmonster als je vele MB/sec wilt.
Milenco schreef op 05 August 2003 @ 00:59:
• Trekt die 700mhz het, voor RAID5? Moet ik een grotere proc kopen, of kan het met die 700mhz zat?
Ja, wat heet "trekken"... Al was het een 486, werken doet het wel (vooropgesteld dat het überhaupt werkt). Ik denk dat je wel baat hebt bij een snellere CPU, maar ik durf zo snel niet te zeggen hoeveel.

Ik zou zeggen: upgrade de CPU voorlopig nog niet, dat kan altijd nog als de resultaten echt tegenvallen.
Kan ik mijn systeem later goed uitbreiden? Stel ik koop er over 6 maand weer 4 HDD's bij (bij wijze van spreken, ik koop ze toch steeds per 1/2 B)), kan ik deze er dan bij indoen (als die uitstaat 8)7), zodat de config ze herkend (het liefst automatisch) en deze toevoegd aan de array, zonder dat ik alle data moet backuppen, array opnieuw moet aanmaken en alles er weer opzetten?)
Niet bij software RAID5 nee. Wel bij volume managing (zoals LVM in GNU/Linux), maar die kennen afaik geen RAID5-achtige redundancy (wel mirroring).

Je zou eventueel nog meerdere RAID5 arrays kunnen maken, en die aan elkaar kunnen volume-managen :)
Bij een herinstall van FreeBSD, kan ik dan mijn data recoveren (die nog in de raid5 array staat)?
Ik heb geen enkele ervaring met FreeBSD software RAID, maar dat lijkt me van wel ja.

  • Milenco
  • Registratie: April 2000
  • Laatst online: 17:17
deadinspace schreef op 05 August 2003 @ 02:22:
[...]

Ik weet zo snel niet wat FFS' limit is, maar ik zou me over 1080 GB geen zorgen maken eigenlijk. Als er iets voor problemen gaat zorgen, dan lijkt de FreeBSD block layer mij een waarschijnlijkere kandidaat, en afaik kan die 1080 GB wel aan.

[...]

Kort antwoord: nee.

Ik ben medebeheerder van een machine die tot voor kort draaide op een 700 MHz Duron met een VIA chipset en software raid, en die machine haalde ongeveer 30 MB/sec als de wind de goede kant op waaide en de maan vol was.

Nou moet ik daar wel bij zeggen dat we proftpd gebruikten (er zijn snellere FTP servers), en dat alle HD's via de PCI bus gingen, maar toch... Ik verwacht dat je niet op meer dan 40 MB/sec hoeft te rekenen. Als je mazzel hebt.

De bottlenecks hier zijn je PCI bus en je CPU.

Hoezeer je PCI bus een bottleneck is hangt af van het aantal schijven dat via de PCI bus verbonden is... Als je 4 schijven aan de onchip IDE hangt, en 6 aan de PCI bus, dan moet dus 60% van het IDE-verkeer over de PCI bus, en 100% van het netwerkverkeer ook nog eens. Stel dat je 80 MB/sec over je PCI bus haalt, dan is dat 50 MB/sec voor de netwerkkaart, 30 MB/sec voor de PCI-IDE, en 20 MB/sec voor de onchip IDE. Maar dat is zonder de PCI overhead en andere PCI devices mee te rekenen ;)

Daarnaast weet ik niet precies wat software-RAID5 van je CPU vergt, maar een Duron 700 is niet echt een snelheidsmonster als je vele MB/sec wilt.

[...]

Ja, wat heet "trekken"... Al was het een 486, werken doet het wel (vooropgesteld dat het überhaupt werkt). Ik denk dat je wel baat hebt bij een snellere CPU, maar ik durf zo snel niet te zeggen hoeveel.

Ik zou zeggen: upgrade de CPU voorlopig nog niet, dat kan altijd nog als de resultaten echt tegenvallen.

[...]

Niet bij software RAID5 nee. Wel bij volume managing (zoals LVM in GNU/Linux), maar die kennen afaik geen RAID5-achtige redundancy (wel mirroring).

Je zou eventueel nog meerdere RAID5 arrays kunnen maken, en die aan elkaar kunnen volume-managen :)


[...]

Ik heb geen enkele ervaring met FreeBSD software RAID, maar dat lijkt me van wel ja.
Hmm, dit ergert mij..
Dat betekend dat ik op het laatst zo'n opstelling heb:

code:
1
2
3
4
5
6
          [hoofdarray]
               |
        ---------------------
        |            |      |
       [ea]         [ea]   [ea]
       | | | |     | | |   | |


*ea = extra array
| = HDD
ipv:

code:
1
2
3
4
            [hoofdarray]
               |
---------------------
| | | | | | | | |  | |


En daar heb ik dus geen zin in... Is er geen andere manier om zoiets op te lossen, softwarematig? Zodat ik het onderste effect krijg?

Hmm die 40 MB/s schiet niet echt op :X. In principe moeten mijn harde schijven samen makkelijk gigabit snelehden aankunnen, per stuk kunnen ze al een 30 MB/s samen, laat staat 10 stuks samen..


Ik zit er trouwens toch aan te denken dan alsnog een oud pc's op de kop te tikken, eentje met 64bit pci sloten. Dit ook om de snelheid van mij gigabit nic te bevorderen..

[ Voor 3% gewijzigd door Milenco op 05-08-2003 02:48 . Reden: zinnen aangevult 8)7 ]


  • Leon
  • Registratie: Maart 2000
  • Laatst online: 11-02 13:45

Leon

Rise Of The Robots

afaik zijn er maar weinig scsi controllers die OCE (online capacity expansion) hebben. Laat staan ide raid. Dus lijkt het me voor software raid al helemaal lastig :)

Als ik jou was zou ik iig voor een hardware raid controller gaan (3ware). Dat is meestal makkelijker te installeren en te beheren en het is OS onafhankelijk (afgezien van het filesystem wat je erop gaat gebruiken).

Als je toch software raid wilt is het misschien handig om Hoofdstuk 13 van Het FreeBSD Handboek te lezen.

Eeuwige n00b


Verwijderd

Een 3ware raid kaart in een 64bit pci slot met een gigabit nic ook in een 64bit pci slot trekt toch wel tussen de 80-100 MB/s. Je huidige setup met 32bit pci en 2 ide controllers zal denk ik idd tussen de 30-40MB/s doen.

  • Infern0
  • Registratie: September 2000
  • Laatst online: 23-01 09:14

Infern0

Hou die ontzettende rust!!

Ik vraag me eigenlijk af waarom je FreeBSD 5.1 geinstelleerd hebt. De 5.X is nog niet stabiel verklaart aan jij gaat hem al draaien in een redelijke exostische omgeving. Dit is natuurlijk goed voor de ontwikkeling van FreeBSD, want in hoe meer verschillende systemen een OS getest wordt, hoe beter het kan worden. Ik hoor nog veel verschillende meningen over 5.1. Bij de een lekker stabiel bij de ander instabiel. Ik denk dat je het een beetje kunt vergelijken met de huidige 2.6 kernel van Linux.

http://www.bsdfreaks.nl Home site: http://rob.lensen.nu /me was RobL


  • Milenco
  • Registratie: April 2000
  • Laatst online: 17:17
rlensen schreef op 05 augustus 2003 @ 13:05:
Ik vraag me eigenlijk af waarom je FreeBSD 5.1 geinstelleerd hebt. De 5.X is nog niet stabiel verklaart aan jij gaat hem al draaien in een redelijke exostische omgeving. Dit is natuurlijk goed voor de ontwikkeling van FreeBSD, want in hoe meer verschillende systemen een OS getest wordt, hoe beter het kan worden. Ik hoor nog veel verschillende meningen over 5.1. Bij de een lekker stabiel bij de ander instabiel. Ik denk dat je het een beetje kunt vergelijken met de huidige 2.6 kernel van Linux.
Ik heb gekozen voor FreeBSD omdat dit mij werd aangeraden door vrienden, mede omdat deze software raid 5 ondersteund. Ik toen gewoon naar de FreeBSD site gegaan en de nieuwste gedownload 8)7
Leon schreef op 05 augustus 2003 @ 03:36:
afaik zijn er maar weinig scsi controllers die OCE (online capacity expansion) hebben. Laat staan ide raid. Dus lijkt het me voor software raid al helemaal lastig :)

Als ik jou was zou ik iig voor een hardware raid controller gaan (3ware). Dat is meestal makkelijker te installeren en te beheren en het is OS onafhankelijk (afgezien van het filesystem wat je erop gaat gebruiken).

Als je toch software raid wilt is het misschien handig om Hoofdstuk 13 van Het FreeBSD Handboek te lezen.
Verwijderd schreef op 05 augustus 2003 @ 12:42:
Een 3ware raid kaart in een 64bit pci slot met een gigabit nic ook in een 64bit pci slot trekt toch wel tussen de 80-100 MB/s. Je huidige setup met 32bit pci en 2 ide controllers zal denk ik idd tussen de 30-40MB/s doen.
Ik zit er zelf nu ook aan te denken om een 3ware kaartje te kopen met bijvehorend 64bit pci mobo..maar dan heeft het hele freebsd principe geen zin meer. Dan zou ik net zo goed die fileserver onder windows kunnen draaien, aangezien software raid5 voor mij de hoofdreden was freebsd te nemen.

Neemt niet weg dat dat een flinke deuk gaat opleveren in mijn portomonnee..

  • Infern0
  • Registratie: September 2000
  • Laatst online: 23-01 09:14

Infern0

Hou die ontzettende rust!!

Milenco schreef op 05 augustus 2003 @ 13:42:
[...]
Ik heb gekozen voor FreeBSD omdat dit mij werd aangeraden door vrienden, mede omdat deze software raid 5 ondersteund. Ik toen gewoon naar de FreeBSD site gegaan en de nieuwste gedownload 8)7
Nieuwste in windows is niet hetzelfde als nieuwste in de *NIX wereld. Er worden versies vroeg uitgegeven zodat er nog bugs verwijderd kunnen worden. De 2.6 is toch ook de nieuwste die ga je toch ook niet draaien.
Ik zit er zelf nu ook aan te denken om een 3ware kaartje te kopen met bijvehorend 64bit pci mobo..maar dan heeft het hele freebsd principe geen zin meer. Dan zou ik net zo goed die fileserver onder windows kunnen draaien, aangezien software raid5 voor mij de hoofdreden was freebsd te nemen.
Als je nog een mooie windows licentie hebt liggen dan is het voor jou misschien wel aan te raden. Als je geen licentie hebt kun misschien je het geld voor die licentie beter in de hardware stoppen.

http://www.bsdfreaks.nl Home site: http://rob.lensen.nu /me was RobL


  • Milenco
  • Registratie: April 2000
  • Laatst online: 17:17
rlensen schreef op 06 August 2003 @ 00:43:
[...]

Nieuwste in windows is niet hetzelfde als nieuwste in de *NIX wereld. Er worden versies vroeg uitgegeven zodat er nog bugs verwijderd kunnen worden. De 2.6 is toch ook de nieuwste die ga je toch ook niet draaien.


[...]

Als je nog een mooie windows licentie hebt liggen dan is het voor jou misschien wel aan te raden. Als je geen licentie hebt kun misschien je het geld voor die licentie beter in de hardware stoppen.
Windows licentie is geen probleem, maar ik moet geld uit geven voor een eventuele raid-controller.

Ik wist trouwens niet dat het BSD ook zo was als bij Linux. Maar bij Linux is de 2.6 kernel een stuk meer 'klikken' om te downloaden dan de 2.4. Bij deze BSD leek het gewoon het meest logisch deze te downloaden.

Ik baal er nog steeds van dat ik mijn raid config niet kan uitbreiden :(. Is hier echt geen manier voor? Hmm misschien moet ik maar eens een topic in een ander fora openen omdat die wel een beetje offtopic gaat :X

  • Tha_Butcha
  • Registratie: November 2000
  • Laatst online: 30-01 13:59
misschien een suggestie om je RAID 5 config niet als 1 partitie gebruiken. Want als je FreeBSD wil updaten, of downgraden (5.1 is nog niet stabiel verklaard voor productie omgevingen), en je gebruikt 1 partitie, lijkt het me een beetje verrot, als je je data op dezelfde partitie hebt staan.

Verder zou ik (als je het budget hebt) een hardware matige controller nemen.

Misschien als je nog ander *nix bakken gebruikt, is NFS een ideetje?

Tot slot nog ff een link naar de RAID FAQ (uit O&I), mocht je nog vragen hebben over RAID 5, ik vond hem iig heel duidelijk.

Compromises are for the weak


  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

I use Debian btw

Ik kan je nu al wel vertellen dat 10 schijven aan 3 verschillende controllers extreem brak gaat draaien, helemaal omdat het 2 IDE kaartjes zijn en nog de chipset van je moederbord, dat gaat echt niet lekker samen werken want ik heb het zelf ook geprobeerd.

Je kan beter een 8 poorts IDE controller kopen en daar de schijven aan hangen desnoods verkoop je die 120GB en koop je er een paar maxtor 250Gb schijven voor terug.
Windows ondersteunt trouwens ook software raid 5 ;)

edit:
pricewatch: 3ware Escalade 7500-8 (8x ATA133, XOR, PCI64/33)
Niet te duur, 8 poorten en hardware raid 5 :9

[ Voor 10% gewijzigd door Bierkameel op 06-08-2003 11:01 ]

Alle proemn in n drek


  • deadinspace
  • Registratie: Juni 2001
  • Laatst online: 12:05

deadinspace

The what goes where now?

Bierkameel schreef op 06 August 2003 @ 10:56:
Ik kan je nu al wel vertellen dat 10 schijven aan 3 verschillende controllers extreem brak gaat draaien, helemaal omdat het 2 IDE kaartjes zijn en nog de chipset van je moederbord, dat gaat echt niet lekker samen werken want ik heb het zelf ook geprobeerd.
Mag ik vragen waarom niet?

Ik zie eigenlijk niet in waarom dat problemen op zou moeten leveren, afgezien van de beperkte bandbreedte van de PCI bus.

  • Milenco
  • Registratie: April 2000
  • Laatst online: 17:17
Tha_Butcha schreef op 06 August 2003 @ 09:41:
misschien een suggestie om je RAID 5 config niet als 1 partitie gebruiken. Want als je FreeBSD wil updaten, of downgraden (5.1 is nog niet stabiel verklaard voor productie omgevingen), en je gebruikt 1 partitie, lijkt het me een beetje verrot, als je je data op dezelfde partitie hebt staan.

Verder zou ik (als je het budget hebt) een hardware matige controller nemen.

Misschien als je nog ander *nix bakken gebruikt, is NFS een ideetje?

Tot slot nog ff een link naar de RAID FAQ (uit O&I), mocht je nog vragen hebben over RAID 5, ik vond hem iig heel duidelijk.
Ik ga het niet op 1 partitie pleuren, maar ik zat te denken aan een stuk of 3. Hoofdpartitie voor BSD, 1ste voor kleine backup met benodigde drivers ed en de laatste voor mijn ftp (die dan ook het grootst wordt).

Er zal maar 1 non-windows-bak zijn, en dat zal de fileserver zelf zijn btw.

Ik zit idd ook al te denken aan een hardwarematige oplossing..
Bierkameel schreef op 06 August 2003 @ 10:56:
Ik kan je nu al wel vertellen dat 10 schijven aan 3 verschillende controllers extreem brak gaat draaien, helemaal omdat het 2 IDE kaartjes zijn en nog de chipset van je moederbord, dat gaat echt niet lekker samen werken want ik heb het zelf ook geprobeerd.

Je kan beter een 8 poorts IDE controller kopen en daar de schijven aan hangen desnoods verkoop je die 120GB en koop je er een paar maxtor 250Gb schijven voor terug.
Windows ondersteunt trouwens ook software raid 5 ;)

edit:
pricewatch: 3ware Escalade 7500-8 (8x ATA133, XOR, PCI64/33)
Niet te duur, 8 poorten en hardware raid 5 :9
Ik weet dat Windows software raid ondersteunt, maar het probleem is, dat ik dan nog een ander moederbord moet nemen omdat ik toch een 64bit pci slot nodig heb voor mijn gigabit NIC.

Dat punt van grotere HDD's en een 8 port raid controller zit ik nu ook te denken idd. Ik moet nog even gaan berekenen hoeveel mij dit kan schelen over het gehele plaatje.
deadin~1 schreef op 06 August 2003 @ 13:23:
[...]

Mag ik vragen waarom niet?

Ik zie eigenlijk niet in waarom dat problemen op zou moeten leveren, afgezien van de beperkte bandbreedte van de PCI bus.
Ik denk juist dat het de beperking is, 2 of 3 controllers samen met maar 100MB/s max :X
Pagina: 1