Ik zal de situatie en wens even in het kort beschrijven.
Binnenkort zal ons serverpark in 2'en gedeeld worden (1 DC en Citrix servers op beide vestigingen).
Nu zou ik graag een SATA-raid based server op de tweede vestiging wil plaatsen. Omdat het hier om een SATA server gaat, wil ik deze alleen in productie nemen wanneer het nodig is. Wat ik wel wil, is dat de server ons uit de brand kan helpen, bij ernstige calamiteiten (dit is ook het idee achter het opsplitsen van het serverpark).
Nu is dus mijn vraag:
Wat is de beste manier van het repliceren van de data van de File & Print server naar de 'calamiteiten server'?
Aantal details:
- Tussen beide vestigingen ligt een 1 gigabit verbinding en dat is meer dan voldoende door het gebruik van thin clients (meeste netwerk belasting vind plaats aan de backend, server <-> server verbindingen dus)
- De FP server is zwaar genoeg voor de gehele omgeving, ik heb geen extra performance nodig van een extra SATA server.
- File server is een cluster met 2 nodes.
---
Mijn idee:
DFS - Gebruik DFS alleen voor het repliceren van de data van de een naar de andere server. Helaas heb ik alleen ervaring met DFS in mijn eigen test omgeving. Is het mogelijk (dmv load evaluators), wel gebruik te maken van DFS verwijzingen, maar voorkomen dat medewerkers actief gaan werken op de 'calamiteiten-server'?
---
Hoe zit het met Robocopy? Is dat een betere optie of kun je dat het beste buiten werktijd schedulen? (Buiten werktijd houd dus in dat je een dag terug moet, dan zou onze backup faciliteit voldoende zekerheid geven).
---
Ik ben al tegen het eerste probleem opgelopen tijdens het opzetten van een test DFS:
Het lijkt erop dat het niet mogelijk is om een 'domain root' aan te maken op een cluster. Het is alleen mogelijk om een 'stand-alone root' aan te maken en deze vervolgens te publiceren in Active Directory.
Stand-alone roots kunnen dus niet gerepliceerd worden.
Eens kijken of het mogelijk is om op beide cluster nodes dezelfde directory als DFS root aan te maken. Wanneer ik het goed begrijp, zorgt DFS er dan voor dat de node die op dat moment die share niet heeft gewoon niet gebruikt wordt.
Binnenkort zal ons serverpark in 2'en gedeeld worden (1 DC en Citrix servers op beide vestigingen).
Nu zou ik graag een SATA-raid based server op de tweede vestiging wil plaatsen. Omdat het hier om een SATA server gaat, wil ik deze alleen in productie nemen wanneer het nodig is. Wat ik wel wil, is dat de server ons uit de brand kan helpen, bij ernstige calamiteiten (dit is ook het idee achter het opsplitsen van het serverpark).
Nu is dus mijn vraag:
Wat is de beste manier van het repliceren van de data van de File & Print server naar de 'calamiteiten server'?
Aantal details:
- Tussen beide vestigingen ligt een 1 gigabit verbinding en dat is meer dan voldoende door het gebruik van thin clients (meeste netwerk belasting vind plaats aan de backend, server <-> server verbindingen dus)
- De FP server is zwaar genoeg voor de gehele omgeving, ik heb geen extra performance nodig van een extra SATA server.
- File server is een cluster met 2 nodes.
---
Mijn idee:
DFS - Gebruik DFS alleen voor het repliceren van de data van de een naar de andere server. Helaas heb ik alleen ervaring met DFS in mijn eigen test omgeving. Is het mogelijk (dmv load evaluators), wel gebruik te maken van DFS verwijzingen, maar voorkomen dat medewerkers actief gaan werken op de 'calamiteiten-server'?
---
Hoe zit het met Robocopy? Is dat een betere optie of kun je dat het beste buiten werktijd schedulen? (Buiten werktijd houd dus in dat je een dag terug moet, dan zou onze backup faciliteit voldoende zekerheid geven).
---
Ik ben al tegen het eerste probleem opgelopen tijdens het opzetten van een test DFS:
Het lijkt erop dat het niet mogelijk is om een 'domain root' aan te maken op een cluster. Het is alleen mogelijk om een 'stand-alone root' aan te maken en deze vervolgens te publiceren in Active Directory.
Stand-alone roots kunnen dus niet gerepliceerd worden.
Eens kijken of het mogelijk is om op beide cluster nodes dezelfde directory als DFS root aan te maken. Wanneer ik het goed begrijp, zorgt DFS er dan voor dat de node die op dat moment die share niet heeft gewoon niet gebruikt wordt.
[ Voor 29% gewijzigd door Abom op 19-04-2004 13:02 ]