[LINUX] Server clustering..... hebben we er wel wat aan ?

Pagina: 1
Acties:
  • 111 views sinds 30-01-2008
  • Reageer

  • BacardiBreezer
  • Registratie: September 2003
  • Laatst online: 19-06-2005

BacardiBreezer

Breezing Bacardi ?

Topicstarter
De betrouwbaarheid van een server is natuurlijk flink omhoog te schoppen doormiddel van goede hardware, maar alles kan kapot.

Ik was dus bezig om clustering uit te zoeken. clustering is leuk, handig en geweldig als er iets uitvalt dat niet down mag :) Nu is mijn grote vraag alleen.... wat hebben we eraan. Ik praat dan over het feit dat je maar met 1 loadbalancer werkt. Dit lijkt mij niet anders te doen want routen naar 2 systemen die exact hetzelfde doen moet gedaan worden door een systeem dat begrijpt. Als je binnen een DNS 2x een a-record aanzou geven van 2 loadbalancers zou je daar niet mee opschieten lijkt me want dat werk niet.

Tuurlijk breng je de betrouwbaarheid flink omhoog door 2 systemen in een cluster te hangen maar als hier maar 1 loadbalancer voor hangt dan trek je het van de verkregen 99.9% (het was immers maar +/- 50% door 1 systeem) weer naar 75%.

Een ding is zeker..... 100% bestaat gewoonweg niet, maar wat is de oplossing voor de enkele loadbalancer...... 2 loadbalancers ? en hoe moeten we dit gaan zien ? ik heb er nog niets over gevonden maar zoek wel verder :)

Jij bent misschien belangrijk, maar ik ben aardig ;)


Verwijderd

Voor servers kun je redundantie bereiken dmv. clustering (dat hoeft overigens niet het enige argument te zijn voor clustering). Op netwerk-niveau zijn daar weer andere technieken voor (bv. met 2 loadbalancers werken idd).

Voor storingen aan een server, werkt clustering als opvang-mogelijkheid. Voor een defect aan een loadbalancer/router niet, dat lijkt me logisch. Dat wil niet zeggen dat clustering geen nut heeft als je er maar 1 loadbalancer voor hebt staan, immers je hebt wel degelijk iets bereikt: er mag 1 computer kapot gaan, dat kon eerder niet.

Of heeft volgens jou clustering nooit zin, tenzij je speciale voedingskabels naar je huis laat trekken, elk uit een andere energiecentrale? (om maar iets te noemen).

Verwijderd

Ik snap het niet helemaal :p Voor load balancing 2 servers nodig. Op 1 van de servers zet je de load balancer die verkeer door stuurt na de andere server via een tweede DNS.
Voor betrouwbaartheid moet je heartbeat gebruiken en natuurlijk 2 servers.
Om alles samen te gebruiken moet je 1 server met loadbalancing hebben en de andere pc instellen dat als de loadbalancing server kapoet gaat een ipalias activeerd.
Ik hoop dat ik je hiermee een beetje van dienst kon zijn ;)

[edit:]
Verwijderd schreef op 24 mei 2004 @ 22:53:
[...]
Of heeft volgens jou clustering nooit zin, tenzij je speciale voedingskabels naar je huis laat trekken, elk uit een andere energiecentrale? (om maar iets te noemen).
UPS 8)7 Als een energiecentrale uit valt merk je daar totaal nix van aangezien in europa het hele stroomnet is aangesloten op iedere centrale ;)

[ Voor 31% gewijzigd door Verwijderd op 24-05-2004 23:09 ]


  • Coen Rosdorff
  • Registratie: Januari 2000
  • Niet online
Je kan met het linux-virtual-server prima 2 loadbalancers maken. Werkt op basis van het overnemen van het ip-adres:

http://www.linux-vs.org/HighAvailability.html

  • Jelmer
  • Registratie: Maart 2000
  • Laatst online: 07:47
Copy & paste uit mn scriptie:

Dan is er nog een schakel in de ketting die kan breken, namelijk de gateway
zelf. Wanneer deze om welke reden dan ook faalt, zal het aanleggen van de
tweede ADSL verbinding niet helpen. Om dit te ondervangen zijn er vele
protocollen ontwikkeld. De meest gangbare is het Virtual Router Redundancy
Protocol (VRRP). Dit protocol wordt zowel door Linux als vele hardwarematige
routers van bijvoorbeeld Cisco en Juniper ondersteund. Zodra er dan een router
uitvalt, worden automatisch zijn taken overgenomen door een andere router. Het
enige dat niet opgevangen wordt, zijn applicaties die al communiceren met een
server op Internet en deze verbindingen zullen verbroken worden.

Hier hebben de ontwikkelaars van OpenBSD iets op
gevonden. Zij zijn bezig met het ontwikkelen van het Common Address
Redundancy Protocol (CARP) welke hetzelfde doet als VRRP, maar daarnaast ook de
firewall gegevens synchroon houdt. Hierdoor worden bestaande
verbindingen transparant overgezet op een andere router mocht de primaire
uitvallen. Dit geldt echter niet voor applicaties die communiceren met services
die op de gateway zelf worden aangeboden. Denk hierbij bijvoorbeeld aan een
proxyserver.

Verwijderd

Verwijderd schreef op 24 mei 2004 @ 23:04:
UPS 8)7 Als een energiecentrale uit valt merk je daar totaal nix van aangezien in europa het hele stroomnet is aangesloten op iedere centrale ;)
Dat begrijp ik ook wel hoor :)..

Ik probeerde te illustreren dat het ontbreken van redundancy verderop/eerder in de keten geen argument is om op server-vlak geen redundancy te hebben. Hoe meer er redundant is, hoe minder kans op uitval... ALLES redundant kan wel, maar wordt lastig en duur.

  • Abom
  • Registratie: September 2000
  • Laatst online: 20-02 18:06
Network loadbalancing is toch iets anders dan clustering?

Ik heb geen ervaring met het clusteren van Linux, maar bij Windows is het zo dat beide servers toegang moeten hebben tot dezelfde storage (je hebt dus speciale hardware nodig). De cluster software is vervolgens 'eigenaar' van de hostnames en IP adressen voor de virtuele servers (bv. file- en printserver of exchange).

Wanneer een node niet meer beschikbaar is, registreerd Windows de hostname en het IP adres, van de virtuele server die op de gecrashte node actief was, in DNS en verwijst het naar een nieuwe node en start vervolgens de bijbehorende services op de nieuwe node.

[ Voor 5% gewijzigd door Abom op 25-05-2004 09:01 ]


Verwijderd

Verwijderd schreef op 25 mei 2004 @ 03:11:
[...]


Dat begrijp ik ook wel hoor :)..

Ik probeerde te illustreren dat het ontbreken van redundancy verderop/eerder in de keten geen argument is om op server-vlak geen redundancy te hebben. Hoe meer er redundant is, hoe minder kans op uitval... ALLES redundant kan wel, maar wordt lastig en duur.
/me neemt alles terug ;)
Maar zeg dat dan de volgende keer :p
Abom schreef op 25 mei 2004 @ 08:58:
Network loadbalancing is toch iets anders dan clustering?

Ik heb geen ervaring met het clusteren van Linux, maar bij Windows is het zo dat beide servers toegang moeten hebben tot dezelfde storage (je hebt dus speciale hardware nodig). De cluster software is vervolgens 'eigenaar' van de hostnames en IP adressen voor de virtuele servers (bv. file- en printserver of exchange).

Wanneer een node niet meer beschikbaar is, registreerd Windows de hostname en het IP adres, van de virtuele server die op de gecrashte node actief was, in DNS en verwijst het naar een nieuwe node en start vervolgens de bijbehorende services op de nieuwe node.
Ik zie nergens staan dat de TS network loadbalancing wil, maar shared storage is idd handig maar is geen vereiste bij een linux HA-Cluster. Tevens kan je met linux cpu-vermogen clusteren maar dat wil de TS niet volgens mij. Hij wil load balancen tussen 2 servers en een HA-cluster zover ik uit de post opmaak.

@TS:
Of het nut heeft ligt eraan of een bedrijfskritiek proces er van af hang. Als je bedoeling alleen om hardware failure (van servers) gaat, hoef je alleen een HA clustertje op te richten en als je ook nog de load wil balancen een loadbalancers op 1 van de servers installeren. Bij veranderende 'server-inhoud' (bijv. muteren v databases) is een shared storage zeer handig. Wil jeje ook tegen stroomuitval beschermen ff UPSjes aanschaffen :)

[ Voor 4% gewijzigd door Verwijderd op 25-05-2004 21:44 ]


  • ChUcKiE
  • Registratie: September 1999
  • Laatst online: 14:50

ChUcKiE

Dus........

Ik weet niet precies hoe het met Linux werk, maar je zit ook nog met het probleem, dat als er 1 node uitvalt, dat de andere node het niet per direct overneemt. daar gaat wel even een bepaalde tijd overheen.
Jammer ook dat er bij een (ACTIVE-PASSIVE) cluster vaak 1 node de hele tijd uit zijn neus aan het vreten is.
En het klopt wat men zegt, alleen de hardware is leuk, maar de software moet ook meewerken..

http://eu.battle.net/d3/en/profile/ChUcKiE-1330/hero/807720


Verwijderd

Ik heb voor ons bedrijf (we zijn inmiddels overgenomen trouwens) ook ooit een high availability cluster aangeschafd. Eerlijkheidshalve moet ik toegeven dat het nooit echt goed is bevallen, momenteel draait er een tweede server zonder dat er ook maar iets mee gebeurt. Als de boel uitvalt zal ik het met het handje over moeten schakelen... Niet echt de gewenste uitgangssituatie.

Het probleem in onze situatie was dat er weinig budget was, en er dus geen geld was voor een Windows oplossing of een dure Linux oplossing (Steeleye en dergelijke). We hebben dus opensource software uitgeprobeerd om een high availability cluster neer te zetten (email, database en webserver). Eventjes een kleine opsomming met wat ik heb geprobeerd, wellicht dat iemand nog tips/trucs/suggesties heeft.

We begonnen met de red hat cluster oplossing; Advanced Server 2.1. Dit werkte bagger, er werd namelijk niet eens gedetecteerd dat er een node uit was gevallen (stroomstekkers uit de active node getrokken). Dat was dus niet de bedoeling (ben überhaupt niet zo'n redhat fan).

Vervolgens hebben we de kimberlite clustersoftware geprobeerd. Als de software al wilde compileren, crashde de daemons vaak. Geen stabiele oplossing dus en ook deze software is aan de kant geschoven.

De software die het beste werkte was de SGI Failsafe software, maar daar wordt niet aan verder ontwikkeld, ondanks alle bugs die de software nog kent. De SGI Failsafe software gaat uit van een database, die vaakt crashed en corrupt raakt. Dat vindt de clustersoftware op zijn beurt weer niet leuk, en hangt het cluster op. Exit voor SGI Failsafe voor ons.

Linux-HA heeft geen resource group based aanpak (d.w.z., je stopt een aantal resources [partities, programma's] in een groep, valt er een onderdeel uit, dan wordt de groep op de tweede server opgepakt) en heeft veel maatwerk (zelfgeschreven scripts) nodig om te functioneren. Helaas werkte ook deze oplossing niet lekker; trekt de netwerkstekker er maar uit, en de boel loopt niet meer door...

Aangezien we overgenomen zijn en er bij ons moederbedrijf meer euro's beschikbaar zijn, hoop ik dat we over kunnen stappen op de enterprise edition software van microsoft om alsnog een high availability cluster op te kunnen zetten.

Qua hardware maken we gebruik van twee dell poweredge 2650 servers en een shared storage cabinet (dell powervault 220s). Inmiddels draaien de nodes al 209 dagen op de AMSIX, dus het is niet echt meer mogelijk om de zaken nog radicaal om te gooien zonder eventuele downtime.

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 22-02 10:54

Arfman

Drome!

Verwijderd schreef op 27 mei 2004 @ 12:49:Aangezien we overgenomen zijn en er bij ons moederbedrijf meer euro's beschikbaar zijn, hoop ik dat we over kunnen stappen op de enterprise edition software van microsoft om alsnog een high availability cluster op te kunnen zetten.
Waar ik nog even aan toe wil voegen dat de Novell Clustering Services ook goed haar werk doet. Op een NetWare 6 cursus hebben we GroupWise 6.5 geclustered, stekker uit de active node en alles liep gewoon door. Wel 2 of 3 timeouts als je een ping mee liet lopen, maar je moet ook niet vergeten dat we dat op P3 1 GHz IDE machientjes deden met 512 MB RAM, niet echt high-tech dus.

Thuis ben ik met VMWare een NW6 cluster aan het bouwen, dat werkt al een stuk beter en sneller. Er zijn dus wel betrouwbare cluster oplossingen.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Verwijderd

Arfman schreef op 27 mei 2004 @ 15:41:
[...]

Waar ik nog even aan toe wil voegen dat de Novell Clustering Services ook goed haar werk doet. Op een NetWare 6 cursus hebben we GroupWise 6.5 geclustered, stekker uit de active node en alles liep gewoon door. Wel 2 of 3 timeouts als je een ping mee liet lopen, maar je moet ook niet vergeten dat we dat op P3 1 GHz IDE machientjes deden met 512 MB RAM, niet echt high-tech dus.

Thuis ben ik met VMWare een NW6 cluster aan het bouwen, dat werkt al een stuk beter en sneller. Er zijn dus wel betrouwbare cluster oplossingen.
Laten we dan maar hopen dat Novell haar nieuwe strategie daadwerkelijk aanhoud en binnenkort ook de Clustering Services porteert naar linux. Zou wel mooi zijn...

Het punt is echter dat vanuit het beheerperspectief Windows een beter alternatief is aangezien ik nu geen systeembeheerd meer doe en onze systeembeheerder onze, enigzins complexe slackware bakken wellicht wat moeilijker kan beheren... :)

  • it0
  • Registratie: April 2000
  • Laatst online: 27-12-2025

it0

Mijn mening is een feit.

Iedereen heeft hier mooie software cluster oplossingen maar er zijn ook andere mogelijkheden. Cisco heeft weer eens een bedrijf overgenomen en nu maken ze ook Content Server Switches. Als je Cisco gewent bent, dan werkt het erg raar, maar om een failover/load balancing cluster te maken gaat erg makkelijk. Daarnaast kan je er ook makkelijke meerdere servers achter plakken die andere services aanbiedt.

Wat deze 11000 ook kunnen is om te kijken of een bepaalde service werkt. Stel je clustered een aantal webservers dan kunnen deze dozen een url opvragen om te kijken of alles relaxed werkt.

Je hebt minimaal 2 van deze dozen nodig en ze zijn vrij duur, maar onderhoud/opzetten is daarentegen erg makkelijk.

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 22-02 10:54

Arfman

Drome!

Verwijderd schreef op 27 mei 2004 @ 15:48:
[...]

Laten we dan maar hopen dat Novell haar nieuwe strategie daadwerkelijk aanhoud en binnenkort ook de Clustering Services porteert naar linux. Zou wel mooi zijn...
Novell heeft zich als doel gesteld om al haar services binnen 2 jaar op Linux te hebben draaien, en daar hoort ook de Clustering Service bij. Als het eenmaal werkt, is het grandioos. Je moet echter wel weten waar je mee bezig bent, een foutje en je hebt helemaal geen cluster meer en alsnog downtime.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |

Pagina: 1