Het volgende 'probleem' hebben we bij ons op onze afdeling met geeks nog geen oplossing voor gevonden, zonder dat het over ons theoretische budget (250.000) heen zouden gaan.
Uitgangspunten:
Enkele ideeën waar wij aan hebben gedacht maar waar we tegen problemen aanliepen.
IDEE 1: HDD ARRAYS
TLDR; Grote hoeveelheid data moet in korte tijd naar een fysiek andere plek gebracht worden zonder dat de data van locatie 1 weg gaat.
Uitgangspunten:
- Tussen de 500TB en 1PB aan uncompressed data. Dit kan van alles zijn, databases, images, strings etc. etc.
- Data staat in SAN storage en voor de uitgangspunten gaan we er even vanuit dat deze 2 x 10Gbit aansluitingen heeft, maar heeft de mogelijkheid om onbeperkt qua aansluitingen/read snelheid te upgraden.
- We hebben een timeframe van +/- 12 uur waarbij we alle data naar een andere fysieke locatie moeten dupliceren voordat de locatie weer sluit
- We hebben remote 36 uur voorbereidingstijd voorafgaand deze timeframe
- Er is alleen infrastructuur tussen de twee locaties tijdens de 12 uur timewindow mogelijk
- Na de twaalf uur sluit de locatie en kunnen we er niet meer bij (en eventuele hardware die we hebben meegenomen kunnen we niet retourneren voor de volgende keer)
- De data is kritisch, een enkel corrupt of missend bestand zou maanden aan werk teniet doen
Enkele ideeën waar wij aan hebben gedacht maar waar we tegen problemen aanliepen.
IDEE 1: HDD ARRAYS
- In dit geval kunnen we gebruik maken van de 12 uur plus de 36 uur voorbereidingstijd om alle data over te zetten op een tweede storage.
- Deze storage zouden we dan fysiek verplaatsen naar de tweede locatie waar ze kunnen beginnen met het dupliceren van de data op de storage
- Nadeel: Dupliceren van deze data zou langer duren dan de 12 uur timeframe die we hebben en we zouden de HDD arrays niet kunnen retourneren naar locatie 1. We zouden dan ook twee van dit systemen moeten hebben, waarbij er altijd 1 op locatie 1 is, omdat we anders de volgende keer nooit alle data op de HDD arrays kunnen krijgen.
- Nadeel: Twee systemen kost veel geld
- In dit geval maken we verbinding tussen locatie 1 en locatie 2, dit kan alleen tijdens de 12 uur timeframe, buiten dit timeframe kan er geen verbinding worden gemaakt.
- Lage kosten, geen extra hardware nodig voor opslag
- Nadeel: Met (lagen we zeggen 750TB aan data) zou alles in 12 uur overgezet moeten worden. Dan moeten we een theoretisch optimale snelheid halen tussen de locaties van zo'n 150Gbit/s om alles te dupliceren in 12 uur, dit loopt op tot 200Gbit/s in geval van 1PB aan data
- Bestaan dit soort systemen überhaupt die 150Gbit/s kunnen webschrijven?
- Nadeel: Een 200Gbit/s verbinding opbouwen is ook niet zomaar gedaan, ook hoge kosten
TLDR; Grote hoeveelheid data moet in korte tijd naar een fysiek andere plek gebracht worden zonder dat de data van locatie 1 weg gaat.