Vraag


Acties:
  • 0 Henk 'm!

  • Mr-Robot
  • Registratie: Juni 2015
  • Laatst online: 15:15
Mijn vraag:
Beste mede Tweakers,

Voor mijn Thuis NAS heb ik een HP Microserver GEN 8 staan met 1 SSD (esxi host) en net 2 nieuwe Seagate IronWolf 4TB HDD's.
Als virtualisatie software heb ik ESXI (6.5) draaien met een stuk of 6 VM's, allemaal linux.
Via de ingebouwde RAID controller in de microserver heb ik een RAID 1 Array ingesteld.
Sinds dat ik de IronWolf HDD's erin heb krijgen eigenlijk al mijn VM's vaak vastlopers met als foutmeldingen allemaal read write error. Mijn conclusie hierin is dat 1 van de HDD's al zo goed als defect was bij levering.
Deze wil ik dan ook graag opsturen een een nieuwe ontvangen. Aangezien ik een RAID 1 array heb was ik ervan overtuigd dat ik 1 schijf er uit kon halen en mijn systeem gewoon door zou draaien.
Ik heb mijn ESXI host afgesloten en de defecte schijf eruit gehaald en daarna het systeem opnieuw opgestart.

Al mijn VM's staan wel gewoon op de datastore van de backup schijf. na het opnieuw mounten van de datastore krijg ik bij het opstarten van elke VM de melding; Operation system not found.

Relevante software en hardware die ik gebruik
ESXI 6.5
HP Microserver GEN 8 met standaard ingebouwde raid controller
Samsung SSD ESXi host
2x Seagate 4 TB HDD
Linux VM's

Wat ik al gevonden of geprobeerd heb
Na het opnieuw mounten van de datastore heb ik eerst gekozen voor het behouden van de bestaande signature.
Daarna opniew de HDD gemount met nieuwe signatures. jammer genoeg nog steeds hetzelfde probleem.
Verder in de Bios instellingen en in de SCSI instellingen van de VM's lopen grutten maar dit mocht ook niet baten.
Ik heb uiteindelijk de oude (defecte) schijf weer teruggeplaatst in de hoop dat hier alle VM's nog wel goed zouden booten maar ook hier dezelfde melding...
Ik heb een vermoeden dat het mogelijk mis gaat met de unique UUID van de HDD's maar dit weet ik niet zeker.

ik nog nog niet zo thuis in virtualisatie en vooral niet in RAID dus bij deze vraag ik om hulp.
Weet iemand zo hier een oplossing voor of waar het mis is gegaan?

Alvast bedankt!

Alle reacties


Acties:
  • 0 Henk 'm!

  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Weet je zeker dat het een RAID 1 was? In de raid setup zal je moeten zien dat er schijf mist.

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


Acties:
  • 0 Henk 'm!

  • Mr-Robot
  • Registratie: Juni 2015
  • Laatst online: 15:15
Yes, Zeker weten. mede ook omdat de 2de HDD dezelfde VM's en data bevat als de 1ste HDD

Acties:
  • 0 Henk 'm!

  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Wat ik dus niet snap is dat je de datastore opnieuw moest mounten. Want wanneer je ESX boot en er mist een disk in Raid 1 dan wordt datastore gewoon gemount.

Het probleem kan echter zijn dat je datastore onder esx dus een ander pad heeft gekregen waardoor hij de juiste virtuele disks niet meer kan vinden.

Wat je zou kunnen proberen de VM's uit de inventory te gooien. Daarna op de datastore browsen en dan weer toevoegen.

Het enige wat fout kan gaan is wanneer je de drives bijvoorbeeld in andere folders had. Bijvoorbeeld je had de OS en boot op een SSD datastore waar ook je VM files staan en de overige disks staan op je raid datastore. Doordat je je datastore opnieuw gemount hebt, kan het zijn dat binnen de VM je andere verwijzingen hebt. En ik heb zelf gemerkt wanneer je bij opnieuw registreren dan kiest voor "copied" in plaats van "moved" je soms binnen je VM de disks ook andere id's krijgen met alle gevolgen van dien.

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


Acties:
  • 0 Henk 'm!

  • Mr-Robot
  • Registratie: Juni 2015
  • Laatst online: 15:15
Dankje voor je reactie.

Ik was zelf ook in de veronderstelling dat ik na het verwijderen van de schijf ik gewoon verder kon met de 2de schijf.

Ik had inderdaad al geprobeerd om een VM te unregisteren en daarna opnieuw toevoegen. jammer genoeg zelfde fout. Ook heb ik al geprobeerd om een VM te exporteren naar een OVF Template en daarna opnieuw importeren maar ook dit heeft niks geholpen.

Het leek mij in eerste instantie ook fout te gaan in het pad wat wijst naar het vmdk bestand maar dit staat gewoon goed. Ik heb zelf al geprobeerd de virtuele HDD te verwijderen en daarna opnieuw toevoegen in de settings van een virtuele machine.

Kan het zijn dat ergens in een config bestand er toch nog een pad verwijst naar de UUID van de oude HDD waardoor de VM de bestaande datastore niet kan lezen?

Acties:
  • 0 Henk 'm!

  • TommyboyNL
  • Registratie: Januari 2006
  • Niet online
Als je HDs écht in RAID1 stonden, is er geen UUID van een oude of een nieuwe schijf, op beide staat exact dezelfde data en dus dezelfde UUID.
Wat zei de logging van je RAID controller? Hoe wist je welke schijf defect was? Wat zei de RAID controller over de fysieke media? Wat zei smartctl over de individuele disks? Was wellicht 1 van de disks al veel langer geleden uit de array getrapt, en heb je de enige nog wel werkende disk verwijderd?
Pagina: 1