RAID0 disc preventief vervangen

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • -ErikE-
  • Registratie: September 2004
  • Laatst online: 12:45
Het volgende doet zich voor: ik gebruik twee 2TB WDEARS schijven in een RAID0 opstelling. Dit alles draait ZFS op Freenas. Nu begint een van deze schijven foute sectors te geven. Nu zijn het er 6 'unreadable' en 1 'uncorrectable'. Per maand komen er twee 'unreadable' bij. Dit is natuurlijk niet heel schokkend, maar geeft wel aan dat de schijf aan het overlijden is.

Nu heb ik nog garantie op deze schijf en wil `m dan ook graag door WD laten vervangen. Echter omdat het RAID0 is (stom, ik weet het) ben ik dan al m`n data kwijt. Omdat het maar ~900MB is, is 1 2TB schijf meer dan genoeg. Wat ik dus wil is graag alle data van de stripe op 1 disc samenvoegen. Dit schijnt nogal een lastige klus te zijn, want via google kom ik er niet uit.

Ik zie drie mogelijkheden:
1. de 450GB van de defecte disc samenvoegen met de 450GB van de gezonde en zo 1 schijf overhouden met 900GB data. De defecte disc kan nu opgestuurd voor RMA worden.

2. Ik voeg een schijf van 640GB (die ik nog heb liggen) toe, kopieer hier de 450GB van de defecte schijf op en behoud zo de RAID0. Als ik m`n defecte schijf van RMA terug krijg, kopieer ik hier weer de 900GB op en maak vervolgens een RAID1 (wil dit gezeur niet meer).

3. Ik koop een derde 2TB schijf, kopieer hier alle data op, RMA de defecte schijf en als ik deze terug krijg maak ik een RAID10 opstelling (duur!).

Het liefst wil ik (nog) niet 3 discs aanschaffen. 2x 2TB in mirror is nu nog genoeg (heb maar 900GB data). Mijn vraag dus: hoe werkt optie 1 of 2???

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Gebruik je nu ZFS met striping, of hardware-RAID0 met ZFS als filesystem?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • -ErikE-
  • Registratie: September 2004
  • Laatst online: 12:45
ZFS met striping

Afbeeldingslocatie: http://s9.postimage.org/daeq1imrj/discs.jpg

[ Voor 67% gewijzigd door -ErikE- op 10-02-2013 16:48 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Geen idee of het in ZFS met striping ook kan, maar onder RAID-Z1 kan ik een schijf online replacen.

Dan prik ik er dus een nieuwe schijf bij, doe ik een "zpool replace" en dan vervangt hij de oude schijf door de nieuwe.

Of je clonet de defecte schijf gewoon bit-wise naar een nieuwe met dd.

[ Voor 14% gewijzigd door Compizfox op 10-02-2013 16:50 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • -ErikE-
  • Registratie: September 2004
  • Laatst online: 12:45
Ik zie inderdaad de optie om de disc te 'online' te replacen. Er staat slechts 450GB op de disc. Is deze dan te vervangen voor een 640GB disc? Dat de totale pool dan maar 1280GB wordt, vind ik geen probleem!

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Ik weet het niet zeker (ik heb totaal geen ervaring met ZFS strinping of hardware/software RAID0), maar theoretisch zou dat moeten kunnen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 14-07 15:56

Ultraman

Moderator Harde Waren

Boefje

Je zou een nieuwe schijf als mirror kunnen koppelen aan de disk die slecht aan het worden is.
Zodra de disken dan sync zijn doe je nogmaals een scrub.
Daarna geef je ZFS de opdracht de slechte disk uit de mirror te halen en ben je klaar.
Dan val je terug op een stripe zoals je nu ook hebt en je kunt de sleche disk daadwerkelijk uit de machine halen.

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

Anoniem: 15758

-ErikE- schreef op zondag 10 februari 2013 @ 16:25:
Het volgende doet zich voor: ik gebruik twee 2TB WDEARS schijven in een RAID0 opstelling. Dit alles draait ZFS op Freenas. Nu begint een van deze schijven foute sectors te geven. Nu zijn het er 6 'unreadable' en 1 'uncorrectable'. Per maand komen er twee 'unreadable' bij. Dit is natuurlijk niet heel schokkend, maar geeft wel aan dat de schijf aan het overlijden is.
Dat laatste is dus niet zo. Althans, ik zie niet wat bad sectors te maken heeft met het mechanische aspect zoals de koppen en de actuator en de motor. Een schijf die spontaan overlijdt, heeft vaak hier een probleem mee. Bad sectors kunnen wel degelijk lastig en vervelend zijn - bij hardware/onboard RAID kan deze zelfs al je data onklaar maken - echter voor ZFS geldt dat al veel minder.

Ik heb geen enkele aanleiding om te denken dat je met een handvol bad sectors meer risico loopt op het overlijden van de schijf. Daarnaast wil ik ook opmerken dat heel veel 2TB+ schijven bad sectors ontwikkelen. De schijven zijn immers zo ontworpen om bad sectors te maken. Laat me dit uitleggen.

Je hebt twee soorten bad sectors: die door fysieke schade (echt een rotte sector) die nooit meer gebruikt zou moeten worden, maar hedendaags is die eigenlijk erg zeldzaam. Tegenwoordig zien we veel meer 'bad' sectors die simpelweg onleesbaar zijn omdat er te weinig bitcorrectie (ECC) beschikbaar is om alle bitfouten te corrigeren. Met andere woorden, door de beperkte ruimte voor ECC kiezen de hardeschijffabrikanten ervoor om dergelijke schijven regelmatig bad sectors te laten ontwikkelen. De schijven dus dus min of meer ontworpen om bad sectors te genereren. In veel situaties zie ik dat vrijwel alle schijven wel bad sectors ontwikkelen. In veel gevallen merk je dit niet omdat de sectoren ook worden overschreven en daardoor nooit aan het licht komt dat deze onleesbaar waren.
Nu heb ik nog garantie op deze schijf en wil `m dan ook graag door WD laten vervangen.
Dat is dus iets wat je je moet afvragen. Je hebt één cruciaal detail namelijk nog niet verteld: bevinden de bad sectors zich in actieve data, of is het zo dat enkel ongebruikte sectoren onleesbaar worden? Post anders de details zoals zpool status output.

Als je na een ZFS scrub geen problemen met ZFS hebt maar je schijven nog steeds Current Pending Sector aangeven in de SMART-output, dan is er waarschijnlijk niets aan de hand. De bad sectors bevinden zich dan op plekken die ZFS nog niet in gebruik heeft genomen, en daardoor zijn deze al lange tijd niet herschreven of zelfs nog nooit. Die sectoren hebben een grotere kans om onleesbaar te worden.

Bedenk dat als je je mooie nieuwe schijf opstuurt je een 2e hands retour kunt krijgen. Daarom adviseer ik terughoudendheid in het retourneren van schijven die alleen een paar bad sectors hebben, dat is eigenlijk gewoon normaal. Sterker nog, de schijf die je terug krijgt heeft dat waarschijnlijk al gehad maar de fabrikant doet een zero-write en reset de SMART info en zo'n schijf krijg je dan weer retour. In dat geval moet je je afvragen of retourneren wel zinnig is.
Compizfox schreef op zondag 10 februari 2013 @ 16:49:
Geen idee of het in ZFS met striping ook kan, maar onder RAID-Z1 kan ik een schijf online replacen.
Dat kan uiteraard ook in RAID0/striping, mits de originele schijven wel beschikbaar zijn.
-ErikE- schreef op zondag 10 februari 2013 @ 17:00:
Ik zie inderdaad de optie om de disc te 'online' te replacen. Er staat slechts 450GB op de disc. Is deze dan te vervangen voor een 640GB disc? Dat de totale pool dan maar 1280GB wordt, vind ik geen probleem!
Nee, je kunt alleen een schijf vervangen als de 'nieuwe' schijf minimaal even groot is als de oude. Wel is het zo dat het rebuilden sneller gaat omdat hij niet domweg alle sectoren langsgaat maar enkel waar je data hebt opgeslagen.
Ultraman schreef op zondag 10 februari 2013 @ 18:19:
Je zou een nieuwe schijf als mirror kunnen koppelen aan de disk die slecht aan het worden is.
Dit is een heel goede tip. Je kunt in elk geval tijdelijk één disk omtoveren tot mirror, door er een disk aan toe te voegen (zpool attach; niet zpool add).

Dit helpt echter alleen voor nieuwe bad sectors, want je zult toch moeten rebuilden. Je kunt later altijd de mirror weer naar een enkele disk/stripe maken.

Bedenk dat ZFS in RAID0 je nog steeds gedeeltelijk redundancy hebt. Je metadata gebruikt namelijk ditto copies dus bad sectors kunnen ZFS zelf eigenlijk nooit stukmaken op een RAID0 of enkele disk. Alleen je bestanden kunnen ontoegankelijk worden, en je ziet precies welke bestanden in de zpool status -v output. Wil je bestanden extra bescherming geven, dan kun je copies=2 (ditto blocks) instellen zodat een bepaald filesystem zelfs op RAID0 vrijwel immuun zal zijn voor bad sectors.

[ Voor 5% gewijzigd door Anoniem: 15758 op 10-02-2013 20:30 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Wat voor bad sectors zijn het eigenlijk? Zogenaamde "pending" sectors of "reallocated" sectors?

In het eerste geval betekent het puur dat je HDD een bitje op die sector niet meer kon teruglezen. Zoals CiPHER al terecht opmerkt is dat met grote schijven heel normaal.
Als er fysiek niets aan de hand is met de sector, zullen ze verdwijnen als ze overschreven worden. (de "current pending bad sectors" wordt lager)

Is er fysiek wél iets mis met de sector, dan zullen ze inactief worden gemaakt, en wordt ipv de defecte sector een spare sector gebruikt. De sector is nou "reallocated" zoals dat heet.

Als je binnen een korte tijd erg veel bad, reallocated sectors erbij krijgt, kun je ervan uitgaan dat je schijf aan het overlijden is.

Ik had bijvoorbeeld laatst een schijf die binnen een week 2000 bad sectors ontwikkelde. (In die schijf bleek later een deuk te zitten)

[ Voor 3% gewijzigd door Compizfox op 10-02-2013 20:35 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Helemaal goed. En zoals je zegt, in korte tijd enorm veel bad sectors of continu nieuwe is inderdaad een teken dat de schijf onbruikbaar is geworden. Het kan zijn dat hij mechanisch qua leeskop/actuator/motor nog vele jaren mee kan, maar toch is hij nutteloos geworden omdat een hardeschijf met amnesia over het algemeen niet zo heel nuttig is. ;)

Wat ik ook hoor is dat wanneer er stofdeeltjes loskomen in de luchtarme en stofdichte ruimte, deze flink veel schade kunnen aanrichten en continu nieuwe bad sectors kunnen ontwikkelen.

Maar in heel veel gevallen gaat het gewoon om een paar Current Pending Sectors die - zoals Compizfox zegt - verdwijnen zodra ze overschreven worden. Deze sectoren zijn fysiek prima in orde, maar hadden meer errorcorrectie nodig om foutloos uitgelezen te worden. Bij het opnieuw schrijven wordt deze vervolgens weer gelezen door de hardeschijf. Als de tijd dat dit duurt niet afwijkt van wat normaal wordt gevonden, dan blijft die sector gewoon in gebruik en verdwijnt Current Pending Sector (minus 1) en blijft Reallocated Sector Count hetzelfde. Alleen fysiek beschadigde sectoren worden omgewisseld voor reservesectoren.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Anoniem: 15758 schreef op zondag 10 februari 2013 @ 20:56:
Wat ik ook hoor is dat wanneer er stofdeeltjes loskomen in de luchtarme en stofdichte ruimte, deze flink veel schade kunnen aanrichten en continu nieuwe bad sectors kunnen ontwikkelen.
Stofdeeltjes die er niet horen te zitten? :P

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Hmhm, maar zoiets kan loskomen door allerlei redenen. De fabrikanten zeggen dat stofdeeltjes weinig kans hebben omdat de ruimte tussen leeskop en oppervlakte veel kleiner is dan de meeste stofdeeltjes. Maar met meer dan 5000rpm kan zo'n deeltje of een heleboel van die deeltjes wellicht alsnog flink wat schade aanrichten en daarmee de schijf ten gronde richten. Ik denk daarbij aan temperatuurvariaties die op den duur wrijving en vervorming binnen het metaal teweegbrengen. Omdat de mechanische componenten eigenlijk heel gevoelig zijn, kan ik me voorstellen dat dit een redelijk deel van de gefaalde hardeschijf inneemt.

Afbeeldingslocatie: http://www.tekbasics.com/dirtysecrets_files/hard-drive-head-gap2.jpg

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Dat is wel een indrukwekkend plaatje :)

Maar waar ik eigenlijk op doelde, is dat een HDD in een cleanroom geassembleerd is, en luchtdicht is. Er zouden eigenlijk geen stofdeeltjes in moeten zitten, en zodra je een HDD dan losschroeft, ga je hem ook gegarandeerd niet meer kunnen gebruiken.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Maar mijn punt is dat een hardeschijf waar geen stofdeeltjes in zitten, deze door de loop der tijd wel kunnen ontwikkelen. En dat is dan de échte aanleiding voor het falen van je hardeschijf. Vrijwel altijd weet je niet de exacte oorzaak of aanleiding voor mechanisch falen. Tenzij je dat zoals in Air Crash Investigation onderzoekt. :+

En hardeschijf openen is inderdaad funest vanwege stof. Maar in de badkamer met stoom die stof wegduwt kan nog wel eens een geschikte amateur (alles of niets) reparatie zijn, als je sowieso niet het geld er voor over hebt om echte recovery uit te voeren. Verder zijn hardeschijven niet luchtdicht maar stofdicht. Bij Hitachi en sommige andere merken zit er zelfs een soort drukventiel in die overdruk moet voorkomen (do not cover this hole, staat erbij).

[ Voor 3% gewijzigd door Anoniem: 15758 op 10-02-2013 22:33 ]


Acties:
  • 0 Henk 'm!

  • -ErikE-
  • Registratie: September 2004
  • Laatst online: 12:45
CiPHER en Compizfox, bedankt voor de geruststellende woorden.

Het zijn inderdaad (pending) sectors. Ik realiseer me ook dat 7 er niet heel veel zijn, maar het zijn er toch meer dan 3 maanden geleden. Deze schijven draaien allebei al ruim 2 jaar rond (redelijk 24/7) en eentje vertoont pas 3 maanden deze unreadable sectors.
Ultraman schreef op zondag 10 februari 2013 @ 18:19:
Je zou een nieuwe schijf als mirror kunnen koppelen aan de disk die slecht aan het worden is.
Dit is een goeie, echter moet ik dan weer wel een nieuwe 2TB schijf erbij halen. Ach, een goeie reden om gelijk maar naar RAID-Z1 over te stappen :)

[ Voor 33% gewijzigd door -ErikE- op 10-02-2013 23:02 ]


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Erike, heb je al eens een scrub gedaan? Zo ja, heeft ZFS corruptie gevonden? Dit kun je in de 'zpool status' output zien. Je ziet dan getallen die niet 0 zijn maar bijvoorbeeld 14. En de status van de pool zegt ook iets over corruptie die hersteld is. Ofwel dat bestanden zijn beschadigd.

Als na een scrub je nog steeds pending sectors hebt, is dat juist goed nieuws. Dit betreffen dan enkel sectoren die lange tijd niet zijn aangeraakt of wellicht nog nooit zelfs. Als je dit wilt testen moet je een keer de schijf helemaal volschrijven met nullen en dan de Current Pending Sector in de gaten houden. Als deze dan gewoon 0 blijft, zie ik weinig reden om die schijf retour te sturen.

Als je nu een extra schijf neemt, kun je daar tijdelijk een pool op maken en al je gegevens op zetten (dat moet wel passen dan op één disk). Vervolgens vernietig je de stripe pool op de 2 schijven die je nu hebt en maak je met die 2 schijven een nieuwe 3 disk RAID-Z pool aan, met dus één nepdisk in de vorm van een 2TB memory disk. Dat kan gewoon, omdat we die memory disk niet gaan volschrijven en alleen wat beschreven wordt neemt RAM in beslag. Ofwel, na het aanmaken van de degraded pool ga je rebooten en is de memory disk weg. Vervolgens heb je dus een degraded maar werkende 3-disk RAID-Z. Daar kun je nu je gegevens naartoe kopiëren en vervolgens de nieuwe 3e schijf toevoegen aan de RAID-Z en deze compleet laten maken.

Het is maar een idee. :)

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Anoniem: 15758 schreef op zondag 10 februari 2013 @ 22:32:
Maar mijn punt is dat een hardeschijf waar geen stofdeeltjes in zitten, deze door de loop der tijd wel kunnen ontwikkelen. En dat is dan de échte aanleiding voor het falen van je hardeschijf. Vrijwel altijd weet je niet de exacte oorzaak of aanleiding voor mechanisch falen. Tenzij je dat zoals in Air Crash Investigation onderzoekt. :+

En hardeschijf openen is inderdaad funest vanwege stof. Maar in de badkamer met stoom die stof wegduwt kan nog wel eens een geschikte amateur (alles of niets) reparatie zijn, als je sowieso niet het geld er voor over hebt om echte recovery uit te voeren.
Ha, dat valt nog tegen :P

Ik heb eens het matglas in mijn DSLR vervangen in de badkamer (nadat ik heet gedouched had). Dat ding ga je er zonder cleanroom gewoon niet stofvrij in krijgen :P
Een matglas is wel uitermate irritant omdat die op microscopisch niveau erg 'ruw' is. Er blijft dus veel stof aan hangen. Om die reden is het dus heel erg veel lastiger dat stofvrij te houden dan bijvoorbeeld een sensor van een DSLR.
Anoniem: 15758 schreef op zondag 10 februari 2013 @ 22:32:
Verder zijn hardeschijven niet luchtdicht maar stofdicht. Bij Hitachi en sommige andere merken zit er zelfs een soort drukventiel in die overdruk moet voorkomen (do not cover this hole, staat erbij).
Dat weet ik, er zit een soort membraan in wat drukverschillen opvangt. Maar dat betekent toch dat hij luchtdicht is? (er kan geen lucht uitgewisseld worden door het membraan)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Als dat zo is, heb ik het verkeerd begrepen. Ik dacht namelijk dat er wel lucht uitgewisseld wordt boven een bepaalde druk, zodat hij intern dus niet boven een grens komt. Maar geen idee waar ik dat heb gehoord. Dit is wat ik nu lees na een beetje Googlen:
Hard disk drives are not airtight. They have a permeable filter (a breather filter) between the top cover and inside of the drive, to allow the pressure inside and outside the drive to equalize while keeping out dust and dirt. The filter also allows moisture in the air to enter the drive. Very high humidity year-round will cause accelerated wear of the drive's heads (by increasing stiction, or the tendency for the heads to stick to the disk surface, which causes physical damage to the disk and spindle motor). You can see these breather holes on all drives -- they usually have a warning sticker next to them, informing the user not to cover the holes. The air inside the operating drive is constantly moving too, being swept in motion by friction with the spinning disk platters. This air passes through an internal filter to remove any leftover contaminants from manufacture, any particles that may have somehow entered the drive, and any particles generated by head crash.

Due to the extremely close spacing of the heads and disk surface, any contamination of the read-write heads or disk platters can lead to a head crash
Het kan prima zijn dat beide waar is en hardeschijven in het verleden of juist het heden hiervan afwijken.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 10:39

Compizfox

Bait for wenchmarks

Hmm, zou kunnen. Ze zijn iig niet vacuüm (ja, dat heb ik wel eens iemand horen beweren)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Eagle Creek
  • Registratie: Oktober 2002
  • Laatst online: 11:27

Eagle Creek

Breathing security

Misschien een nitwit van de zijkant, maar zou draaien in een vacuüm ook geen hogere snelheden kunnen opleveren?

~ Information security professional & enthousiast ~ EC Twitter ~


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Minder luchtweerstand in elk geval, dus lagere power consumption omdat de motor minder vaak hoeft 'bij te tanken' als het ware. Maar ik kan me voorstellen dat het moeilijker is de rpm constant te houden en je kalibratieproblemen krijgt bij heel hoge rpm. Die hardeschijven werken al aardig op het toppunt van mechanische techniek van deze schaal.

Dus 'nog sneller' is net zoiets zeggen als dat een giraffe een nóg langere nek moet hebben zodat hij nog hoger hangend voedsel kan eten. Het houdt een keer op natuurlijk... :+

Acties:
  • 0 Henk 'm!

  • Malantur
  • Registratie: Juni 2007
  • Laatst online: 13:01
Misschien wel door de mindere wrijving, maar uiteindelijk maken ze ook 15k rpm schijven dus ik denk niet dat de technologie gelimiteerd is door de luchtweerstand. Waarschijnlijk blijven ze eerder bij 7,2k rpm voor de geluidsproductie en het verbruik.
Bovendien zoals de afbeelding hierboven al aangeeft: er zit een luchtkussen van 3nm dik tussen je platter en je leeskop. Zonder dit luchtkussen zal de kans veel groter zijn dat je leeskop zich een keertje in de platter begraaft, wat je data niet echt leuk vind.

'Let's eat Grandma!' or, 'Let's eat, Grandma!'. Punctuation saves lives.


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Die 15k rpm schijven verbruiken ook behoorlijk meer idle, dus dat komt toch wel door de toegenomen luchtweerstand die de platters afremmen. En de motor is toch vooral waar die idle power naartoe gaat. De electronica zit vaak rond de 0,5 watt idle (bijvoorbeeld in spindown mode).

Bovendien zie je (vrijwel) geen hoge datadichtheid bij heel hoge rpm. Bij 600G houden de 15k's er zo'n beetje mee op. Zulke schijven zijn heel anders gebouwd en dat moet waarschijnlijk ook wel. Als je simpele consumentenschijfjes op die snelheid wilt draaien zul je denk ik hoge uitval krijgen.

Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 13-07 08:51
om de wrijving te verminderen waren oa hitachi toch bezig met helium vulling van de schijven?
Dat las ik ergens geloof ik (een tijdje terug)

edit:
ja kijk maar:
nieuws: Hitachi kondigt met helium gevulde hdd's aan

[ Voor 38% gewijzigd door timberleek op 11-02-2013 10:34 ]


Acties:
  • 0 Henk 'm!

  • Eagle Creek
  • Registratie: Oktober 2002
  • Laatst online: 11:27

Eagle Creek

Breathing security

nieuws: Seagate plant nieuwe hardeschijftechniek in 2014
Dat bedrijf wil schijven met helium vullen en zo ruimte maken om meer platters in te bouwen.
Western Digital is preparing to launch a line of hard drives filled with helium gas that is said to drastically reduce internal friction and thus lower power consumption by 23% while increasing capacity by 40%.
http://www.pcworld.com/ar...ge_boost_in_capacity.html

Moet dan toch luchtdicht zijn :).

~ Information security professional & enthousiast ~ EC Twitter ~


Acties:
  • 0 Henk 'm!

  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Rare vraag, maar waarom shrink je je pool niet naar 1 TB toe en maak je een tweede pool aan op je goede disk. Data kopieeren naar die nieuwe pool + volume, oude pool en volume weggooien, disk er uit, nieuwe disk er in en dan alles weer opbouwen?

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.

Pagina: 1