Toon posts:

Filestorage servers (VM) zonder overbodige vrije ruimte /hom

Pagina: 1
Acties:

Verwijderd

Topicstarter
Voor een test project wil ik een vmware-based omgeving bouwen, ik gebruik hiervoor vsphere 4.0 met enterprise licenties (lic's zijn hier niet het probleem)

De opbouw van het netwerk is als volgt:

Dell R300 met 2x 1TB sata disks raid1,
Dell R300 met 2x 1TB sata disks raid1,
Deze 2 servers draaien ubuntu, met DRDB, Heartbeat en ISCSITarget software, beide eth1 interfaces zitten aan elkaar gekoppeld met een crosscable, en syncroniseren de data van de iscsitarget

Ik heb dus uiteindelijk een storage van iets minder dan 1TB beschikbaar.

Vervolgens heb ik 4 dell R300's met op hun 36gb disks vsphere geinstalleerd, en een dell R200 met daarop windows2003 en vcenter.

Ik wil op deze 4 dell's totaal 10 linux (debian) distibuties draaien.

Alle 10 de servers zijn gelijk, 10gb voor /, en 2gb swap

Ik heb nu zo'n 850GB over.

De home directory's van de 10 servers zullen langzaam gevuld gaan worden met test data, afhankelijk van de server kan dat heel snel groeien, maar ik kan nu nog niet voorspellen wat het snelste zal groeien.

Nu wil ik eigenlijk deze 850gb beschikbaar maken op alle 10 de servers tegelijkertijd, zodat ze kunnen gebruiken wat ze willen, Ik wil dus een netwerk mount maken naar de centrale storage

ik heb dus een directory tree zoiets als:
/mnt/850gb/

en daarin folders:
/mnt/850gb/server1/ (die gemount moet worden op server 1 als: /home)
/mnt/850gb/server2/ (die gemount moet worden op server 2 als: /home)
/mnt/850gb/server3/ (die gemount moet worden op server 3 als: /home)
/mnt/850gb/server4/ (die gemount moet worden op server 4 als: /home)
etc.

Hoe kan ik die folder per server het beste mounten (over het netwerk dus), het hoeft niet secure te zijn, de storage servers bevinden zich op een interne switch, het 'normale' netwerk/internet kan er dus niet zomaar bij.

Ik heb trouwens slechte ervaringen met NFS (clients die zichzelf volledig ophangen)

  • AlterMann
  • Registratie: December 2000
  • Laatst online: 31-01 23:39
Het is dat je geen NFS wil gebruiken, anders zou ik dat aanraden. Hoef je alleen een export van /mnt/850gb te maken, en /home mappen naar de juiste server-map.

  • JMW761
  • Registratie: Oktober 2001
  • Laatst online: 30-01 12:39
Verwijderd schreef op vrijdag 25 september 2009 @ 12:05:
Ik heb trouwens slechte ervaringen met NFS (clients die zichzelf volledig ophangen)
NFS is "the way to go". Kun je ook uitleggen waar het de vorige keer mis ging? Als de nfs-serv(er)(ice) niet beschikbaar is kunnen de clients inderdaad gaan bokken; maar dat heb je toch opgelost door nfs-service redundant uit te voeren? en daarbij, je wil toch ook niet dat nfs-clients kunnen schrijven als de service niet beschikbaar is? dan is die data namelijk verloren. Dat merk ik persoonlijk liefst zo snel mogelijk.

NFS is een "oud" en "betrouwbaar" protocol; ik heb persoonlijk goede ervaringen met NFS.

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 29-01 20:34

Midas.e

Is handig met dinges

Of gebruik maken van open iscsi? daarmee kan je gewoon je iscsi storage doormappen naar de machines. Zie meer http://wiki.debian.org/iSCSI/open-iscsi

Hacktheplanet / PVOutput


  • gekkie
  • Registratie: April 2000
  • Laatst online: 01-02 23:10
Ik zelf gebruik glusterfs (www.glusterfs.com) heeft een redelijk eenvoudige config en is mooi modulair op te bouwen. (echter pas op met "-" in volume names .. kan nog wel eens wat onverwachte problemen geven).

Deze verdeelt mijn fs op een Xen machine aan de guests, met tevens een gesharede fs.
Tevens is het fs in de host nog gewoon als ext3 te benaderen.

Bovendien zou je het iscsi gedeelte ook kunnen vervangen door de modules van glusterfs.

[ Voor 11% gewijzigd door gekkie op 01-10-2009 22:29 ]


Verwijderd

Topicstarter
Het probleem van iscsi is dat je of de hele iscsi-drive deelt met alle servers (dus users van server1 kunnen op de files van server2), of je bent niet flexibel met je data capaciteit.. is dus geen optie.

nfs: ik heb een poging gedaan om nfsv4 te gaan gebruiken, ik kan de share mounten (en hij de client loopt niet vast ;)), maar met nfs kan ik geen gebruik maken van GID's en UID's (of doe ik iets fout?,en kan het wel?)


ik ga morgen eens kijken naar glusterfs, ik ken het nog niet,maar ben wel benieuwd
Pagina: 1