Verwijderd schreef op woensdag 06 december 2006 @ 15:51:
De strategie is in mijn ogen niet denderend, maar ik betwijfel of je moet afstappen van jullie systeem omdat mijn plan iets meer manuren kost. Ik heb altijd zoiets gehad dat als iets van je hart gaat je het ook goed moet doen en kwantiteit is van de luien en kwaliteit is van de ijverigen om het zo maar te zeggen. Back-up met vlijt zou mijn Oma geroepen hebben
Advies: Schematisch overzicht van manuren tegen kosten en kwaliteit, generale opmaak matrixen
Euh. Dat was geen schema/strategie, enkel een uitleg van hoeveel data er is. En die data is dus minstens 26GB. Tenzij we heel moeilijk gaan doen met incrementele backups (waar mysql niet zo heel denderende support voor biedt), maar domweg de files die op de disk staan gaan backuppen is naast onhandig ook inefficienter in ruimte.
Slecht medium. Ik wil GoT niet afzeiken, maar een database zonder compressie back-uppen is pas echt wasted space die niet al te goedkoop is. Je doet het op harddisk dus kun je inderdaad 7-zip gaan scripten

Slecht medium? De disks zitten in een
andere server en met > 300GB aan ruimte voor de backups van MySQL alleen lijkt me dat niet zo'n probleem kwa ruimte, bovendien comprimeren we het uiteraard wel, alleen niet met 7-zip. Maar we gaan niet elke dag of week naar de colocatie op en neer reizen om een stel tapes te vervangen en een tapeloader is ook aardig duurder en niet gebruiksvriendelijker dan een stel grotere disks...
Overigens kopieren we de backups van onze backup storage ook nog eens naar een andere locatie eens in de zoveel tijd.
Nou en of! Voor een database zoals deze raad ik aan om PPMd te pakken met een woordenboekgrootte die het werkgeheugen nog net kan behappen en moet jij eens opletten

Ik verwed er 'bijna om' dat ik hem op DVD krijg en in het slechste geval op een DVD-9.
Euh... de gzip-compressed files is al 7GB he? En past dus op een DVD-9... Wil je beweren dat 7-zip die data met een bijna 2x zo grote compressie weg kan schrijven dan gzip?
Hoezo off-topic, mods? Ik probeer jullie met alle liefde te helpen om zo strubbelingen te beperken. Dit is juist een heel zinvol topic!
Dit topic staat in het bug-meldingen forum en ging over het onbruikbaar zijn van het forum elke nacht, niet over of wij wel de beste backupstrategie toepassen

Daarom is een andere manier van back-uppen misschien wel de oplossing van de trubbels.
Het veranderen van een simpele parameter was al de oplossing

Bovendien kom je nauwelijks onder het gebruik van mysqldump uit dus is enkel de manier van opslaan te veranderen, niet de manier van het maken van het opvragen van de data uit de database.
Als jullie systeem moeite heeft om de stream bij te houden gaat dat ten koste van de database.
Hoezo? Dan heeft de database minder werk te verrichten over een langere tijd. Aangezien het om die tijd sowieso rustig is maakt dat weinig uit, niettemin heeft het wel onze voorkeur om er zo snel mogelijk van af te zijn. Vandaar ook dat we nu de compressie van de dumps achteraf ipv on-the-fly doen.
@mod, mag ik je iets vragen: Hoevaak defragmenteren jullie de operationele schijven en met wélk pakket? Hoe staat het met de 'interne' databasefragmentatie?
Defragmenteren? Onder linux? Waarom?

Bovendien betreft het enkel grote files die met vrij forse stappen verlengt worden en zal er dus weinig aan fragmentatie optreden.
Interne databasefragmentatie los je op met 'cluster', maar dat is zo'n ongelofelijke zware en intrusieve oplossing dat we daar niet aan beginnen. Bovendien hebben we vaak genoeg een backup opnieuw ingeladen (bij de vervanging van de servers, afgelopen maand nog) om ze echt gefragmenteerd te laten zijn en standaard doet innodb al zijn best om de data 'op volgorde van de primary key' op te slaan
Overigens wordt meedenken wel gewaardeerd natuurlijk, zelfs als dat niet altijd uit onze reacties blijkt