Hyper-V dynamic vhdd is de maximale grootte zonder reden

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • TheBrones
  • Registratie: November 2013
  • Laatst online: 14:31
Ik heb op mijn Windows Server 2012 r2 Hyper-V staan om virtual machines te draaien.

Ik heb een virtuele machine draaien met Ubuntu Server 16 waarop Owncloud staat.
Deze machine heeft twee dynamic virtuele hdd's, eentje waar het systeem op staat(40gb) en een vhdd van 100gb voor de data van owncloud.

Ik heb de opslag hdd als ext3 geformatteerd via deze handleiding: https://help.ubuntu.com/community/InstallingANewHardDrive
(ik had zelf nog nooit twee harde schijven met ubuntu gebruikt)

Alleen de data vhdd is dynamic maar deze neemt wel gewoon 100gb in als ik in windows explorer kijk.
Dit zou niet de bedoeling moeten zijn omdat het een dynamic vhdd is (de 40 gb vhdd is ook niet 40 gb in windows).
Op de opslag hdd staat nu 20gb aan data (gecontroleerd met de tool ncdu).

Wat ik al gevonden of geprobeerd heb:
- ik heb via de vm instellingen de opslag vhdd een compact gegeven maar dit had totaal geen effect en het duurde nog geen seconde voordat die klaar was.
- Ik heb geprobeerd om er op internet iets over te vinden maar ik krijg niks gevonden.

Ik ben niet de grootste linux/ubuntu expert maar ik weet wel wat dingen er van, daarom gebruik heb ik ook een Windows Server. Helaas wil owncloud niet meer goed draaien op een windows installatie.

Ik hoop dat iemand weet of dit normaal is of dat ik zelf iets fout doe.

Hoi

Beste antwoord (via TheBrones op 09-08-2016 16:48)


  • Hero of Time
  • Registratie: Oktober 2004
  • Nu online

Hero of Time

Moderator LNX

There is only one Legend

Dat werd aangeraden, heb je wel onderaan gezien wanneer dit artikel laatst was bijgewerkt? "InstallingANewHardDrive (last edited 2013-12-14 00:23:35 by knome)", dat is bijna 3 jaar geleden. Het artikel zelf is waarschijnlijk nog veel ouder en zou mij niet verbazen als dat voor ext4 was en nooit is aangepast. Sommige distro's gebruiken zelfs xfs als default en anderen pakken het nog extremer aan door btrfs te gebruiken.

Heb je overigens ook gezocht wat er nodig is om de compact optie te kunnen gebruiken? Heb je bijvoorbeeld een bepaald file system intern nodig, of de VM tools?

Commandline FTW | Tweakt met mate

Alle reacties


Acties:
  • 0 Henk 'm!

  • Hero of Time
  • Registratie: Oktober 2004
  • Nu online

Hero of Time

Moderator LNX

There is only one Legend

Waarom heb je specifiek voor ext3 gekozen, ipv ext4? Er is geen reden om ext3 te gebruiken ipv ext4.

Dan de reden waarom je vhdd zo groot is geworden. Heb je veel data veranderingen gehad in je Owncloud data? Dat je 20 GB in gebruik hebt betekend nog niet dat je geen 80 GB of meer hebt geschreven.
Wat je nog zou kunnen proberen is een zero-fill van je vhdd. Dit houdt in dat je alle vrije ruimte in de VM beschrijft met null data. Dat kan je doen via het dd commando:
dd if=/dev/zero of=/pad/naar/data/schijf/zerofill.dat

Zorg er voor dat alle daemons die gebruik maken van die schijf niet draaien. Als de schijf vol is, krijg je vanzelf een error van het dd commando over disk full oid en stopt automatisch. Je kan daarna het bestand weer verwijderen. Herstart je VM voor de zekerheid en probeer de vhdd nog eens te compacten in Hyper-V.

Commandline FTW | Tweakt met mate


Acties:
  • 0 Henk 'm!

  • TheBrones
  • Registratie: November 2013
  • Laatst online: 14:31
Bedankt voor de reactie,

Ik heb gekozen voor ext3 omdat dit meer of min werd aangeraden in het artikel.
Helaas heeft de zero-fill niet geholpen en ik zit er aan te denken om een nieuwe vhdd te maken en die te formatteren als ext4, waarna ik alle data overzet naar deze.

Ik kan op internet niks gevonden krijgen of het misschien aan ext3 licht.

Hoi


Acties:
  • Beste antwoord
  • +1 Henk 'm!

  • Hero of Time
  • Registratie: Oktober 2004
  • Nu online

Hero of Time

Moderator LNX

There is only one Legend

Dat werd aangeraden, heb je wel onderaan gezien wanneer dit artikel laatst was bijgewerkt? "InstallingANewHardDrive (last edited 2013-12-14 00:23:35 by knome)", dat is bijna 3 jaar geleden. Het artikel zelf is waarschijnlijk nog veel ouder en zou mij niet verbazen als dat voor ext4 was en nooit is aangepast. Sommige distro's gebruiken zelfs xfs als default en anderen pakken het nog extremer aan door btrfs te gebruiken.

Heb je overigens ook gezocht wat er nodig is om de compact optie te kunnen gebruiken? Heb je bijvoorbeeld een bepaald file system intern nodig, of de VM tools?

Commandline FTW | Tweakt met mate


Acties:
  • 0 Henk 'm!

  • TheBrones
  • Registratie: November 2013
  • Laatst online: 14:31
Ik krijg op internet niks gevonden over requirements of wat dan ook, ik heb een andere vm (windows vm) ook een compact gegeven. Bij die vm doet compact ook daadwerkelijk iets en hier duurt het ook eventjes voordat die klaar is.

Ik ben de data aan het overzetten naar een nieuwe vhdd die ext4 is, ik laat weten of het heeft gewerkt.

Hoi


Acties:
  • +1 Henk 'm!

  • Hero of Time
  • Registratie: Oktober 2004
  • Nu online

Hero of Time

Moderator LNX

There is only one Legend

Hmm, even gezocht voor je, maar had je dit al gevonden?

Commandline FTW | Tweakt met mate


Acties:
  • 0 Henk 'm!

  • TheBrones
  • Registratie: November 2013
  • Laatst online: 14:31
Dat artikel had ik niet gevonden, maar mijn vhdd was meteen al 100GB.
Ik heb nu een nieuwe vhdd gemaakt en die als ext4 geformatteerd en gemount, hier staat nu alle data op en nu is die maar 20GB. Het lijkt er dus op dan pas vanaf ext4 een dynamische schijf nut heeft.

Het artikel klopt wel, als ik nu een aantal bestanden weg haal dan vhdd even groot, als ik dan die command doe en weer comapct is de ruimte weer beschikbaar.

Bedankt voor de hulp!

Hoi

Pagina: 1