NTFS Cluster Size veranderen op GPT Dynamic Volume, hoe?

Pagina: 1
Acties:

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 16-02 06:51
Heren en Dames van Tweakers,

ik zit met het volgende probleem.
ik ben ooit begonnen met mijn thuis servertje, met d ewetenschap dat ik deze nog eens ging uitbreiden. ondertussen is de server volgebouwd, maar heb een cruciale fout gemaakt. ik heb de NTFS partitie zonder na te denken geformatteerd naar NTFS met een 4K cluster size. de limitatie hiervan is 16 TB per partitie... verder heb ik er vooral grote bestanden op staan, dus een grotere cluster size zou ook performance wise beter zijn geweest.

mijn concrete probleem, hoe verander ik dit?

relevante deel van mijn setup:

Supermicro kast met 24 hot swap bays
24 maal Western Digital WD1000FYS 1tb
Areca 1280ML met 2gb en battery backup
schijven draaien in RAID 6.

na de laatste expand heb ik mijn volume geextend naar 18 tb. dit ging zonder fouten, echter mijn volume werd niet groter dan 16tb. toen kwam ik dus achter mijn fout..

het volume is een simple volume op een dynamic disk, in GPT formaat. NTFS 4kb cluster size geformatteerd. meerdere malen ge-extend.

einddoel:
1 volume van 22tb. Discussie over maak liever losse volume's e.d. geloof ik wel, ik ben al jaren bezig met storage arrays, ken de voor en nadelen van losse volumes, ik had dit probleem met veel losse volumes inderdaad niet gehad. voor mijn doel is dit het makkelijkste werken.

mijn idee ter oplossing:
volume shrinken voor zover mogelijk. nieuw volume maken. data overkopieeren naar nieuw volume. defragmenteren. oude volume shinken, nieuwe volume expanden. data kopieren, defragmenteren etc. etc.
net zolang tot alle data overgezet is naar het nieuwe, correct geformatteerde volume.

issue: ik kan niet shrinken. er zijn 0 bytes beschikbaar voor shrinken volgens windows.

wat heb ik geprobeerd?
met meerdere defrag programma's (o&o defrag , ultimate defrag, jkdefrag, sysinternals defrag) defragmenteren in de hoop dat het eem non-movable bestand was dat het shrinken tegenhield)
hielp niets. 0&0 laat de laatste clusters als free space zien.
diskeeper, aragorn partition manager, norton partition magic, meerdere partition managers geprobeerd het volume te verkleinen. probleem : het is een dynamisch volume, met gpt. geen enkele partition manager kan daarmee overweg.
linux bootcd geprobeerd, gparted. probleem : kan niet met dynamische disks overweg.

alternatief zou zijn alle data backuppen, herformatteren, data terugzetten. probleem : er staat momenteel 15 tb aan data op. backuppen zou een 3000 dvds kosten. even bij de buurman 15 tb lenen is ook geen optie.

ik zit simpelweg vast.

heeft een van jullie een briljant idee?

60 TB can not be enough


  • Fauna
  • Registratie: December 2000
  • Laatst online: 17:12
Ik denk dat je voorlopig achter het net vist. Zoals je zelf al gemerkt hebt is je combinatie van GPT en dynamische disks een lastige voor partitioneringsprogramma's. Sterker nog, de enige die daar tot nu toe goed mee overweg kan is de disk manager van Windows zelf.

Het enige dat ik kan bedenken is dat er wellicht een los conversieprogramma is dat je clustersize kan vergroten.

offtopic:
Gave setup, kom ik aan met 2 volumes van 6TB :P

[ Voor 7% gewijzigd door Fauna op 26-01-2009 10:43 ]


  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 16-02 06:51
Fauna schreef op maandag 26 januari 2009 @ 10:40:
Ik denk dat je voorlopig achter het net vist. Zoals je zelf al gemerkt hebt is je combinatie van GPT en dynamische disks een lastige voor partitioneringsprogramma's. Sterker nog, de enige die daar tot nu toe goed mee overweg kan is de disk manager van Windows zelf.

Het enige dat ik kan bedenken is dat er wellicht een los conversieprogramma is dat je clustersize kan vergroten.

offtopic:
Gave setup, kom ik aan met 2 volumes van 6TB :P
Bedankt voor je reply,

ik ben me inderdaad ook gek aan het zoeken naar conversie programma's maar geen succes tot nu toe.

wat ik kan vinden is met een hex editor je MFT editten, en vervolgens dynamic weer basic maken, maar dat kan alleen mits je geen geavanceerde dynamische functies hebt gebruikt. dat heb ik dus wel met mijn volume extenden..

misschien nog iemand anders met een briljante suggestie? :)

60 TB can not be enough


Verwijderd

16 tb aan schijven kopen, data even overzetten, en dan weer met een klein verlies verkopen? Of gewoon toevoegen aan je array ;)