DiGuru schreef op 26 April 2003 @ 00:51:
Nogmaals, ik ben er al de hele tijd (lees het maar na) een groot voorstander van om het BEHEER centraal te doen, maar het NETWERK (en niet de individuele apparaten!) zo redundant mogelijk in elkaar te zetten.
Redundant mogelijk, maar tegelijkertijd ook veel consolideren.
Centraal beheer, maar ook zoveel mogelijk vrijheden.
Veel bedrijven zijn er ook al mee opgehouden nog tapes van die NAS server te maken.
Noem er eens 10 ?
Ja, ik loop ook al meer dan 7 jaar tegen netwerkbeheerders te vertellen, dat ze een export van hun data moeten maken en die backuppen, of dat synchroniseren met een andere database. Ze vertellen me allemaal dat dat niet nodig is. Ik denk dat ze dat te ingewikkeld vinden.
Als je gewoon probeert de files van de database te backuppen, mis je alle files die open staan en krijg je hem nooit meer teruggezet.[/quote]
Leuk voor je, maar hiermee geef je nogmaals aan dat je een boekhouder bent die de automatisering erbij doet.
Elke zichzelf respecterende RDMBS, kan een zogenaamde online backup uitvoeren, oftewel de database verzorgt een API of speciale tools, om een volledige backup te nemen van de database, waarin alle transacties opgenomen zijn (mits comitted). In deze backup blijven dingen als indexen e.d. dan ook volledig instant.
Wat jij voorstelt - namelijk een database dump en vervolgens een restore, is compleet onhaalbaar in een serieuze omgeving. Leuk als je een MySQL database hebt, maar dat is het dan ook.
Voorbeeldje. Als ik een Progress RDBMS database van +/- 40 gig ga dumpen naar een textfile, ben ik:
• Meer dan 10 uur kwijt voor het dumpen
• In die tussentijd zijn er allerlei row locks die het systeem onwerkbaar traag maken
• De indexen worden niet gedumped.
• In de tijd van de dump kunnen er geen transacties gecommit worden, waardoor je max. commit size 2gb is (probleem van de db, overigens)
Bij een restore van deze dump file, lopen we tegen het volgende aan:
• Het restoren (pak een dual cpu SUN met 4gb geheugen) en flinke raid set, gaat tegen de 5 dagen duren bij een niet integrity, niet index bouwende load.
• Het index bouwen verzorgt complete table-level locks, en gaat nog tenminste 3 dagen duren op een un-loaded systeem.
Een systeembeheerder heeft me een paar jaar geleden eens laten zien hoe je een Oracle database backupt: dat kan ArcServe gewoon zelf. Je moet natuurlijk wel eerst Oracle uitzetten, want anders gaat het fout. Om hem terug te zetten, installeer je eerst Oracle opnieuw, en dan zet je die files terug. Dan moet je een keer of tien een recovery draaien tot die niet meer crashed, en dan heb je meestal bijna al je data weer terug...
Brr! Maar alle andere netwerkbeheerders waren het er mee eens, dat het zo moet.
Opnieuw geef je hiermee je zeer beperkte ervaring aan.
Waarom zou je die backups nog eens ergens anders gaan opslaan, als ze al in een andere computer in een ander gebouw zijn? En ik had het er over, dat je voor de veiligheid gewoon nog een derde backup kunt maken, naar weer een andere lokatie. Maar, dan kun je natuurlijk niemand anders de schuld geven als het toch fout gaat.
Iemand de schuld geven is niet zo interessant - je moet ervan uit kunnen gaan dat alles er is.
Ik snap overigens niet hoe ik +/- 800 gigabyte of meer, naar een andere lokatie moet krijgen binnen een redelijk backup window. Laten we eventjes gaan rekenen:
Stel je voor ik heb 155mbit/sec liggen naar een andere site, dat is 19MB/sec, ook wel 1GB per minuut. 60GB per uur, dat is 720 gigabyte per 12 uur. Overigens is 155mbit/sec best wel erg duur als ik dit internationaal wil gaan aanleggen

Inderdaad. En dat automatiseer je door ze te repackagen. Kun je meteen alle instellingen goedzetten en kan de gebruiker tijdens de installatie niet op het verkeerde knopje drukken. Dat is het hele idee achter softwaredistributie. Werkt echt heel mooi.
Ah.
Dus even samenvattend, jouw tool:
• Kan drives mappen
• De Tijd syncen
• Printers connecteren
• Programma's starten (die dan packages zijn).
Meer niet, als ik het goed begrepen heb?
Daarna laat je de gebruiker inloggen, en heel de rest wordt gedistribueerd. Dat voorkomt en herstelt meteen ook een heleboel (mogelijke) fouten, iedere keer als de gebruiker inlogt. En slecht functionerende applicaties kan de gebruiker zelf herstellen door ze er nog een keer overheen te installeren.
Ah, een échte systeembeheerder - eentje die het 3xR principe aanhangt.
Ik kreeg (terecht) van de moderators een schop, omdat ik op dit forum geen reklame moet maken voor mijn eigen spullen. Dat doe ik dus ook niet meer.
Omdat je je product aan het verkopen was met dingen als:
Dat werkt minstens net zo goed. Ik vind, dat dat vele malen beter en simpeler werkt, maar ik ben natuurlijk bevooroordeeld.
als je in houdelijk je fantastische oplossingen (...) uitlegt (ipv probeert te verkopen), dan vermoed ik dat als je dit vriendelijk met Koffie/Predator overlegt, vast wel toegestaan wordt