De dagelijkse update van onze database (SQLServer 2000) verliep tot voor kort zonder enig probleem. Het betreft hier een gewone update van 7 tabellen. Dagelijks wordt er hier door een heel team van mensen nieuwe data ingevoerd, deze data wordt dan tijdens het update proces doorgesluisd naar onze Backup- SQLServer, en eens hier alles in orde is, wordt deze data gekopieerd naar onze "Live" SQLServer toegankelijk voor onze klanten.
Dit hele proces duurde oorspronkelijk ongeveer 3 uur.
We gebruikten hiervoor een relatief simpele package in de DTS-manager. Deze stond gepland om 5 uur 's morgens en tegen 8u was alles klaar.
Het probleem is nu dat door een gebrek aan bandbreedte onze "live" SQLServer verhuisd is naar een andere locatie. Hierdoor is de doorvoersnelheid naar die server voor ons natuurlijk verminderd. Resultaat, deze update duurt ineens 14 uur.
Dit is uiteraard onaanvaardbaar.
Ik heb al vanalles opgezocht en hetgeen ik nu geprobeerd heb is om met BCP de data van onze backup server naar een bestand te exporteren, dit bestand te zippen en door te sturen. Op de Live server wordt dit bestand dan automatisch unzipped, de oude tabel wordt leeggemaakt en de nieuwe data wordt geimporteerd.
Dit is inderdaad een heel stuk sneller, maar het probleem is dus dat er een hele tijd helemaal geen data staat in de verschillende tabellen. Dit kan dus ook niet.
Is er iemand die een idee heeft hoe dit dan wel kan?
(Als iemand nog meer info nodig heeft, vraag gerust)
Dit hele proces duurde oorspronkelijk ongeveer 3 uur.
We gebruikten hiervoor een relatief simpele package in de DTS-manager. Deze stond gepland om 5 uur 's morgens en tegen 8u was alles klaar.
Het probleem is nu dat door een gebrek aan bandbreedte onze "live" SQLServer verhuisd is naar een andere locatie. Hierdoor is de doorvoersnelheid naar die server voor ons natuurlijk verminderd. Resultaat, deze update duurt ineens 14 uur.
Dit is uiteraard onaanvaardbaar.
Ik heb al vanalles opgezocht en hetgeen ik nu geprobeerd heb is om met BCP de data van onze backup server naar een bestand te exporteren, dit bestand te zippen en door te sturen. Op de Live server wordt dit bestand dan automatisch unzipped, de oude tabel wordt leeggemaakt en de nieuwe data wordt geimporteerd.
Dit is inderdaad een heel stuk sneller, maar het probleem is dus dat er een hele tijd helemaal geen data staat in de verschillende tabellen. Dit kan dus ook niet.
Is er iemand die een idee heeft hoe dit dan wel kan?
(Als iemand nog meer info nodig heeft, vraag gerust)