Toon posts:

IBM hd's zijn toch wel brak (SCSI)

Pagina: 1
Acties:

Verwijderd

Topicstarter
Het Genesis cluster op shell heeft een uitval van 6 tot 8 hd's per dag.
IBM kan beter stoppen met de hd productie denk ik

  • Kirpeknots
  • Registratie: Mei 2001
  • Laatst online: 21-04 15:00

Kirpeknots

Wazzup!

We hebben er hier goede ervaringen mee.

Misschien brakke koeling of brakke controllers.

Verwijderd

Topicstarter
Op maandag 30 juli 2001 14:45 schreef Kirpeknots het volgende:
We hebben er hier goede ervaringen mee.

Misschien brakke koeling of brakke controllers.
Vreemd dan dat de Seagates (dooie ibm's worden vervangen door seagates) het wel goed doen.
Het zijn trouwens 10.000rpm schijven/scsi

Verwijderd

Klopt wel, Ibm scsi zijn wel brak te noemen ja...

Verwijderd

Topicstarter
en het leuke is dat er in dat cluster 2048 van die krengen zitten.....

Verwijderd

Waarop failen ze???

  • Torrac
  • Registratie: Juli 2001
  • Laatst online: 28-08-2025

Torrac

The Barbarian Wolverine

De ibm ide schijven zijn ook niet alles hoor

I believe what I want to Believe


Verwijderd

Topicstarter
Op maandag 30 juli 2001 15:19 schreef Dirk_Hendrik het volgende:
Waarop failen ze???
Volgens mij crashen ze gewoon keihard

Verwijderd

Pfft,

Je hebt dingen als media fouten, command timeouts, SCSI controller timeouts, No spinups etc. etc.
Is, op het moment dat je een drive uit de config zou halen en deze los (low level) zou testen de schijf in staat weer klaar te komen of blijft hij defect?

  • Kirpeknots
  • Registratie: Mei 2001
  • Laatst online: 21-04 15:00

Kirpeknots

Wazzup!

Mijn raid controllor heeft wel eens een schijf afgekeurd en vervolgens een andere uit de sparopool gebruikt. Als ik deze schijf dan leegmaak en opnieuw gebruik doet hij het gewoon weer goed.

(Seagate cheetah 10K was dat)

Verwijderd

Topicstarter
weet ik niet maar volgens die afdeling zijn ze gewoon dood voor altijd

  • Kirpeknots
  • Registratie: Mei 2001
  • Laatst online: 21-04 15:00

Kirpeknots

Wazzup!

offtopic:
Overigens zijn afgekeurde serverschijven vaak LVT.

Legen, hergebruiken, lachen!!

Verwijderd

olvt noem ik dat!
ook lvt

Verwijderd

Op maandag 30 juli 2001 15:06 schreef richardc het volgende:
Klopt wel, Ibm scsi zijn wel brak te noemen ja...
Ik heb een IBM U2W-SCSI 10K en die draait perfect.

Verwijderd

tis niet zo raar hoor ,

zeg mtbf van die disken is 150.000 h

dan is de mtbf van je omgeving [ cluster ]

mtbf:#units = 150.000 : 2048 = 73.5 uur = 3 dagen

je kunt dus verwachten , dat iedere 3 dagen een disk kapot gaat. nou heb jij het over grotere aantallen, maar dat licht dus aan de duty cycle , meestal 20% - 25% . dus een mtbf van 150.000 h en dan 25% daarvan [ duty cycle is het percentage actual useage van de disk binnen 24h ] = 37500h , dan de formule mtbf:#units = 37500:2048 = 18.3 uur

komt al in de buurt . ..

Verwijderd

hey SCSI freak,

even off topic,

op vakantie geweest?

  • 4POX
  • Registratie: Maart 2000
  • Laatst online: 05:14

4POX

Everybody is wired

Op maandag 30 juli 2001 18:29 schreef scsi-freak het volgende:
tis niet zo raar hoor ,

zeg mtbf van die disken is 150.000 h

dan is de mtbf van je omgeving [ cluster ]

mtbf:#units = 150.000 : 2048 = 73.5 uur = 3 dagen

je kunt dus verwachten , dat iedere 3 dagen een disk kapot gaat. nou heb jij het over grotere aantallen, maar dat licht dus aan de duty cycle , meestal 20% - 25% . dus een mtbf van 150.000 h en dan 25% daarvan [ duty cycle is het percentage actual useage van de disk binnen 24h ] = 37500h , dan de formule mtbf:#units = 37500:2048 = 18.3 uur

komt al in de buurt . ..
0,49407114624505928853754940711462 % uitval.... Hmmzzz, Beetje hoog

AKA Rinkel weblog


  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 30-04 14:55

afterburn

No more...

Op maandag 30 juli 2001 18:29 schreef scsi-freak het volgende:
tis niet zo raar hoor ,

zeg mtbf van die disken is 150.000 h

dan is de mtbf van je omgeving [ cluster ]

mtbf:#units = 150.000 : 2048 = 73.5 uur = 3 dagen

je kunt dus verwachten , dat iedere 3 dagen een disk kapot gaat. nou heb jij het over grotere aantallen, maar dat licht dus aan de duty cycle , meestal 20% - 25% . dus een mtbf van 150.000 h en dan 25% daarvan [ duty cycle is het percentage actual useage van de disk binnen 24h ] = 37500h , dan de formule mtbf:#units = 37500:2048 = 18.3 uur

komt al in de buurt . ..
Idd, je moet zaken wel in perspectief blijven zien. En dat de Seagate's niet uitvallen is op dezelfde manier statistisch volkomen normaal. De kans dat op 2048 schijven een net vervangen Seagate kapot gaat ipv een van IBM's is klein.

Als nu alle schijven tegelijkertijd vervangen zouden worden door Seagate zou je waarschijnlijk een vergelijkbaar resultaat krijgen als je nu met IBM hebt. Zijn Seagate schijven dan ook ineens slecht?

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 30-04 14:55

afterburn

No more...

Op dinsdag 31 juli 2001 09:14 schreef 4POX het volgende:

[..]

0,49407114624505928853754940711462 % uitval.... Hmmzzz, Beetje hoog
8/2048*100%=0.39%

Als je dan ziet dan een bedrijf als Compaq met zowel z'n Deskpro prof. desktops als z'n Proliant server line met gemak 10% DOA haalt... ;)

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


  • Kirpeknots
  • Registratie: Mei 2001
  • Laatst online: 21-04 15:00

Kirpeknots

Wazzup!

Ik denk dat Compaq dat minimaal garandeerd.

Dat Compq 10% DOA zou halen is complete bull.

Ik in '99 600 compaq werkstations en 23 servers deployed en no way dat 10% defect was. 2 PC die een diskcrash kregen na een aantal maanden. En een aantal malen gedonder met die Matrox G200's gehad in die niet lekker meer wilden. (keer of 5). (Te verhelpen door een biosflash van Matrox)

  • LiquidSmoke
  • Registratie: Maart 2001
  • Laatst online: 01-05 16:52
heb barracuda van seagate, niet kapot te krijgen

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 30-04 14:55

afterburn

No more...

Op dinsdag 31 juli 2001 09:37 schreef Kirpeknots het volgende:
Ik denk dat Compaq dat minimaal garandeerd.

Dat Compq 10% DOA zou halen is complete bull.
Bij 2 verschillende opdrachten (ik zit in de detachering):
Opdracht 1: 110 Deskpro's besteld, resultaat 10 DOA.
Opdracht 2: 13 Proliant servers besteld, resultaat 1 DOA.

Ze doen wel niet moeilijk met vervanging, maar denk wel dat je begrijpt dat mijn vertrouwen in Compaq tot 0 gedaalt is...

Mens mag toch wel verwachten dat ze het spul testen voor ze het afsturen.

EDIT: bij die Deskpro's waren er nog meer niet goed (stuk of 5), maar dat hebben we zelf verholpen. Varieerde van VGA kaarten die los onder in de kast lagen (niet vast geschroeft en los gekomen tijdens transport) tot het ontbreken van IDE kabels naar de harddisks (!).

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


  • mr_a
  • Registratie: November 2000
  • Laatst online: 23-05-2023
Op maandag 30 juli 2001 14:39 schreef rob van den broek het volgende:
Het Genesis cluster op shell heeft een uitval van 6 tot 8 hd's per dag.
IBM kan beter stoppen met de hd productie denk ik
IBM 10k schijfjes zijn snel, goedkoop, maar wel gevoelig. Dit soort getallen zijn IMO niet om van te schrikken.

"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs


Verwijderd

Topicstarter
het zijn dus 1024 units met 2 schijven per unit. 6 tot 8 schijven per dag is wel hoog hoor.

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 02:55
Ik gebruik al jaren Seagates en er is nix mee aan de hand. Een vriend van mij gebruikt al 3 jaar 2 IBMS (IBM DJNA371350 en DJNA351520), ook helemaal tevreden. Misschien per ongeluk een rotte serie ofzow, net zoals de Deskstar 75GXP.

  • jhead22
  • Registratie: November 1999
  • Niet online
Als ik dit zo lees dat vind ik hardisk opeens totaal niet betrouwbaar meer... Waarom maken ze die dingen niet wat beter zodat ze niet meer zo gevoelig zijn ? Dit kost aardig wat man uren en mannetjes in deze server wereld zijn duur :(

  • jhead22
  • Registratie: November 1999
  • Niet online
Op dinsdag 31 juli 2001 09:40 schreef LiquidSmoke het volgende:
heb barracuda van seagate, niet kapot te krijgen
Kom maar hier met je schijfie... Ik krijg m zo kapoere >:)

Verwijderd

Op dinsdag 31 juli 2001 12:57 schreef mr_a het volgende:

[..]

IBM 10k schijfjes zijn snel, goedkoop, maar wel gevoelig. Dit soort getallen zijn IMO niet om van te schrikken.
IBM 10K SCSI-HD's zijn helemaal niet goedkoop, wel snel!!
Kijk eens in prijslijsten, ze zijn altijd veel duurder dan een ander merk.
En wat gevoeligheid (betrouwbaarheid) ik heb daar nog geen problemen mee gehad.
Als er iets kapot gaat met een HD, dan is dat gewoon pech hebben, dat kan met elk merk HD gebeuren.
En dat gezeur over IBM, Seagate, Maxtor etc., dat is net zoals dat gemekker over Plextor, Lite-on, Sony etc.: zinloos gezeik.

Verwijderd

Op dinsdag 31 juli 2001 21:52 schreef jhead22 het volgende:
Als ik dit zo lees dat vind ik hardisk opeens totaal niet betrouwbaar meer... Waarom maken ze die dingen niet wat beter zodat ze niet meer zo gevoelig zijn ? Dit kost aardig wat man uren en mannetjes in deze server wereld zijn duur :(
"Ze" maken die dingen zo ongevoelig als het maar kan. Jammergenoeg gebeurt er nogal wat gooi en smijtwerk met Harddisks. Ik praat dan niet over de eindgebruikers maar voornamelijk over de transporteurs, distributeurs en de "computerwinkel" zombies. Voor een harde schijf geld heel eenvoudig; wees ESD safe en behandel het ding zoals je met een doos eieren omgaat.
"Ze" zouden ze wel ongevoeliger willen maken maar zitten nog steeds met het probleem ban een mechanisch (schokgevoelig) systeem. Ongevoeliger is het gat in de markt.

Gaat het dan nog mis, dan ligt het echt aan de schijf zelf. Als je dit platform een beetje volgt betreffende "rotte" schijven zul je ook nog zien dat ALLE fabrikanten zo ongeveer eenzelfde uitval hebben. Een bepaalde fabrikant afdoen als klote gebaseert op dat ene defecte schijfje is slecht onderbouwd.

Verwijderd

Warmte is een groot probleem in die kasten bij de Shell, de staan daar 42 servers in een kast die bijna permanent full load draaien. Ik een test omgeving op me werk werd de bovenste server daarbij in sommige gevallen tussen de 60 en 70 graden, met het gevolg dat er wel eens wat stuk ging.
Pagina: 1