Toon posts:

Schijf belasting

Pagina: 1
Acties:

Verwijderd

Topicstarter
Gegroet,

bij ons op het werk hebben we momenteel een discussie betreffend ehet gebruik van harde schijven in onze hardware platformen.

Om een kleine achtergrond te schetsen, we bouwen een hardware platform (een computer dus) met een standaard 80GB harde schijf voor windows en onze software, en daarna enkele schijven die als grote opslag dienen.
Oorspronkelijk zaten we met een RAID0 opstelling die tot maximaal 2TB ging (NTFS beperkingen) en dit werkte voor ons wel, ondanks af en toe een raid storing/failure.
Nu is er besloten om de RAID0 eruit te halen en bijvoorbeeld 3 schijven van 2TB er los in te steken.

De discussie momenteel gaat niet over de performantie die we opgeven door van RAID0 af te springen, maar over de belastingen op de hardeschijven.

De shijven zijn ingedeeld in 64kb sectoren. En we gebruiken 2 opstellingen:

Opstelling 1 begint data op schijf 1 te schrijven tot ie vol is, en springt daarna naar schijf 2 tot ie vol etc etc
Opstelling 2 simuleert het RAID0 gedrag en springt bij elke schrijfbewerking naar de volgende schijf.

De vraag nu uiteindelijk is, welke opstelling is het minst belastend voor de harde schijven? Ik heb geprobeerd om informatie te vinden over dit onderwerp, maar ik kom meestal uit op RAID0 advertenties en software emulaties, maar geen concrete test gegevens over schijfbelasting en deze opstellingen.

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

2TB is geen NTFS beperking, die volumes kunnen veel groter (16EB is mogelijk). Je kunt het ding dan alleen niet als MBR formatteren maar dat moet als GPT.

Wat betreft de belasting maakt het vrij weinig uit. Of schijven nu tegelijkertijd draaien of 1 voor 1, de uiteindelijke hoeveelheid data die je er naar toe schrijft blijft hetzelfde lijkt me.

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 23:11

SinergyX

____(>^^(>0o)>____

Wat doe je later nog met die data? Puur opslag en klaar, of moet het ook regelmatig worden teruggelezen? Opstelling 1 zal natuurlijk schijf 1 al het werk moeten doen tot de schijf vol is, en zelfs daarna dus nog bergen leesacties krijgen voor de data die op schijf 1 staat.

Als lezen/schrijven gelijktijdig gebeuren is natuurlijk opstelling 2 sneller en minder belastend..

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


Verwijderd

Topicstarter
gebeurt willekeurig eigenlijk het lezen en schrijven.

Ivm met die grootte van de schijf, toevallig een linkje naar een resource waar ik dit kan nalezen?

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Wikipedia: NTFS
Overigens is 16EB de max filesize, niet de volumesize. Maar groter dan 2TB kan prima. Ik heb zelf een 7TB array als NTFS geformatteerd (8x 1TB in RAID 5). als 1 partitie.

  • Cergorach
  • Registratie: Mei 2000
  • Laatst online: 13:17
Als jullie RAID0 gebruikten dan kan de data die jullie naar deze schijven nooit belangrijk zijn (of jullie zijn wel heel fout bezig). Je kan nooit aan de hand van de technische specs van de schijf bepalen of deze wel/niet kapot gaat, wellicht dat je er een gemiddelde leeftijd uit kunt halen, maar dat helpt geen hout voor de HDs die er na een dag/week/maand uit knallen, dat is absoluut niet vreemd. Net zoals er jonge gezonde gasten van 21 jaar dood neervallen van een hartaanval.

Meestal werd het bij HDs gemeten aan de hand van MTBF:
Wikipedia: Mean time between failures

Mijn WD2002FYPS heeft een MTBF van 1.200.000 uur (137 jaar), maar dat betekent natuurlijk niet dat deze pas stuk gaat na die 1,2 miljoen uur, dat geld alleen gemiddeld (zie hier boven). Aangezien ik het heel zootje in RAID5 of RAID6 heb draaien, heb ik pas data verlies als er twee of drie schijven het begeven in een hele korte periode.

Nu ben ik wel heel benieuwd wat voor data er wordt geschreven naar meerdere 2TB schijven.

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 13-02 20:30
Ik kan me voorstellen dat je bij RAID0 (en de juiste stripe size t.o.v. je data) een gelijkmatigere belasting krijgt over al je disks dan ze 1 voor 1 te laten vollopen. Immers, elke lees en schrijf actie zal (vrijwel?) altijd alle disk aanspreken bij RAID0.

Verwijderd

Topicstarter
Wel,

we hebben een stresstest geschreven die op de schijf met GPT indeling continue bestanden wegschrijft en daarna overschrijft. We hebben dit getest met de volgende opstelling:

2 x 750GB WD HDD in RAID-0 opstelling
Intel ICH8R raid controller
grootte test bestand : 32kb
Stripe Size : 16kb
cluster grootte bij format : 64kb

Resultaat:

de applicatie kon maximaal 77 miljoen keer het bestand naar de harde schijf wegschrijven. Dan zou de harde schijf vol zijn en begon het overschrijven.
De raid controller besloot echter na 7 miljoen operaties de geest te geven.

Blijkbaar moeten we een robuustere controller zoeken.
Pagina: 1