Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
frv schreef op dinsdag 9 februari 2021 @ 00:27:
Al jaren een tevreden freenas klant maar de single point of failure zit me dwars. NAS mobo stuk = alles down die er aan hangt.

Zat te denken aan proxmox cluster (via zuinige server topic kan je een node draaien aan 5 a 8 watt per node) met eventueel glusterfs/ceph. Heb al 1 proxmox bak en plan een 2de. Een 3de is er dan al snel bij he :-)

Ceph en erasure coding lijkt me gecompliceerd. Met glusterfs is dat precies eenvoudiger dus neig naar gluster.

Samba met ctdb of windows fileserver in cluster erop en meteen een HA cluster.

Toevallig mensen die dit draaien hebben ? Zfs met freenas is natuurlijk rock solid maar blijft al je eieren in 1 mand leggen en moeilijk up te graden (telkens 6 disks erbij (raidz2 6 disk vdevs)).
Ik heb bij mijn werkgever een 3node cluster draaien incl. CEPH dat draait op basis van EPYC (Rome), SSD's, een sloot aan geheugen en 10Gbit ethernet. Dat draait prima echter verlies je 1/3 van je storage. 3node is echt absoluut het minimum en ik denk dat het beter tot zijn recht komt met min. 5 nodes.

Zelf heb ik een 2node cluster incl, een truenasje er tussen en zo gaan we ook onze failover cluster opbouwen. Voordeel is dat je met een truenas periodiek snapshots kan maken en die weer kan repliceren naar een 2e truenas. Mocht je HA willen met freenas/truenas dan kun je daar een licentie voornemen.

Gluster is door een kameraad van mij afgeraden op basis van zijn ervaring met gratis storing (ik kan weleens navraag voor je doen waarom).

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
unezra schreef op dinsdag 9 februari 2021 @ 07:28:
[...]

Die sync ik met Sanoid: https://github.com/jimsalterjrs/sanoid

Op die manier loop ik nooit meer dan 6 uur achter (afhankelijk van de dataset) én ben ik ook beschermd tegen fysieke calamiteiten als diefstal en brand thuis.
Maak je gebruik van Truenas? en zo ja wat is het voordeel van Sanoid t.o.v. Truenas incl. snapshot replicatie ? :)

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

powerboat schreef op dinsdag 9 februari 2021 @ 07:36:
[...]
Maak je gebruik van Truenas? en zo ja wat is het voordeel van Sanoid t.o.v. Truenas incl. snapshot replicatie ? :)
Maakte. Ik heb jaar of 2 geleden mijn TrueNAS server (toen nog FreeNAS) met 2 losse PVE hypervisors opgedoekt en vervangen door een enkele PVE machine. Later is daar een colo bij gekomen met PVE.

Dat laatste eigenlijk als logisch gevolg van een zoektocht naar een backup oplossing. Na alle opties overwogen te hebben. Harde eis voor mij was daar wel, dat het offsite was. Leuk als je een 2e machine hebt, maar fikt je huis af, ben je alsnog alles kwijt. (Al heb ik nog wel overwogen en overweg ik nog steeds, de backup machine ooit naar de schuur te verplaatsen. De kans dat huis én schuur affikken, met 15 meter tuin er tussen, lijkt me dusdanig minimaal dat ik dat mogelijk nog wel verantwoord vind.)

Maar goed, ik vind Sanoid/Syncoid 2 voordelen hebben:
- Snapshots
- Replicatie

Waarbij die laatste offsite kan, het maakt gewoon gebruik van ssh.

Er is nog een interessante optie die me te binnen schiet (maar toen nog niet bestond): Proxmox Backup Server: https://www.proxmox.com/en/proxmox-backup-server

Dat eist wel een losse machine (dus geen HA, het is een pure backup node), maar ze bouwen dit steeds verder uit en zowel je PVE host als vm's zijn te backuppen. (Er word hard aan ontwikkeld, er zijn al agents voor een aantal Linux smaken en in dit tempo, is het pakket binnen een jaar volledig volwassen. Proxmox Server Solutions GmbH is een behoorlijk ambitieus bedrijf dat al jaren heel veel tijd stopt in ontwikkeling van hun eigen pakket.)

Oh, ongerelateerd aan PVE: Proxmox Mail Gateway
Een meer dan uitstekend spamfilter. Ook gratis te gebruiken. (Het is officieel zelfs hun 1 product, PVE kwam later.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
unezra schreef op dinsdag 9 februari 2021 @ 07:47:
[...]


Maakte. Ik heb jaar of 2 geleden mijn TrueNAS server (toen nog FreeNAS) met 2 losse PVE hypervisors opgedoekt en vervangen door een enkele PVE machine. Later is daar een colo bij gekomen met PVE.

Dat laatste eigenlijk als logisch gevolg van een zoektocht naar een backup oplossing. Na alle opties overwogen te hebben. Harde eis voor mij was daar wel, dat het offsite was. Leuk als je een 2e machine hebt, maar fikt je huis af, ben je alsnog alles kwijt. (Al heb ik nog wel overwogen en overweg ik nog steeds, de backup machine ooit naar de schuur te verplaatsen. De kans dat huis én schuur affikken, met 15 meter tuin er tussen, lijkt me dusdanig minimaal dat ik dat mogelijk nog wel verantwoord vind.)

Maar goed, ik vind Sanoid/Syncoid 2 voordelen hebben:
- Snapshots
- Replicatie

Waarbij die laatste offsite kan, het maakt gewoon gebruik van ssh.

Er is nog een interessante optie die me te binnen schiet (maar toen nog niet bestond): Proxmox Backup Server: https://www.proxmox.com/en/proxmox-backup-server

Dat eist wel een losse machine (dus geen HA, het is een pure backup node), maar ze bouwen dit steeds verder uit en zowel je PVE host als vm's zijn te backuppen. (Er word hard aan ontwikkeld, er zijn al agents voor een aantal Linux smaken en in dit tempo, is het pakket binnen een jaar volledig volwassen. Proxmox Server Solutions GmbH is een behoorlijk ambitieus bedrijf dat al jaren heel veel tijd stopt in ontwikkeling van hun eigen pakket.)

Oh, ongerelateerd aan PVE: Proxmox Mail Gateway
Een meer dan uitstekend spamfilter. Ook gratis te gebruiken. (Het is officieel zelfs hun 1 product, PVE kwam later.)
Hahaha volgens mij ben je ook een van de eerst uur gebruikers 8), ik ben ooit eens met Proxmox VE 1.5 begonnen was toen nog niet echt zaligmakend (snapte er gewoon geen reet van :+).

Bij mijn werkgeven zou ik het denk ik ook wel redden met een node maar om HA te bieden op locatie leek een cluster ons wel mooi. Maar het is wat je zegt als de toko af fikt heb je niks. Vandaar dat we replicatie doen naar een offsite 2e cluster.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

powerboat schreef op dinsdag 9 februari 2021 @ 07:54:
[...]
Hahaha volgens mij ben je ook een van de eerst uur gebruikers 8), ik ben ooit eens met Proxmox VE 1.5 begonnen was toen nog niet echt zaligmakend (snapte er gewoon geen reet van :+).
Eerste uur niet, maar begin 2016 richtte ik een stichting op die als onderliggende hypervisor PVE gebruikte. Ik denk dat ik het toen al een jaar of 4, 5 thuis gebruikte, als het niet langer is.

Al met al moet ik PVE nu een jaar of 10 gebruiken denk ik, daarvoor gebruikte ik Xen.

Ik heb ooit voor PVE gekozen vanwege de GUI. Xen had in die tijd geen fatsoenlijke beheer-GUI, PVE wel. Hoewel ik misschien ooit thuis de boel af breekt en terug ga naar een zuivere NAS, is de GUI én het feit dat PVE (en PMG) me nog nooit écht teleur hebben gesteld, de reden dat ik het nog steeds gebruik en voorlopig ook wel blijf gebruiken.

Wel puur hobbymatig, hoewel het in een bedrijsomgeving prima werkt en ze ook zat grotere setups hebben, weet ik niet of ik het daar snel in zal zetten.
Bij mijn werkgeven zou ik het denk ik ook wel redden met een node maar om HA te bieden op locatie leek een cluster ons wel mooi. Maar het is wat je zegt als de toko af fikt heb je niks. Vandaar dat we replicatie doen naar een offsite 2e cluster.
Bedrijfmatig is dat een must idd. Voorlaatste werkgever hadden we een vergelijkbare setup als ik nu thuis heb (kruislingse replicatie, mijn colo PVE is ook meteen een actieve node), aangevuld met tape backup. Zelfs als was de hele zooi op 2 locaties afgefikt, waren we niet meer dan maximaal een week of 2 data kwijt geweest. Dat is het verschil tussen je failissement kunnen aanvragen en met de schrik (en minimaal enkele tienduizenden € directe en indirecte schade) vrijkomen.

EDIT: Die setup op kantoor was overigens op basis van VMWare als hypervisor en NetApp als storagelaag. Geen PVE en TrueNAS.

[ Voor 3% gewijzigd door unezra op 09-02-2021 08:05 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 17:51

_Eend_

🌻🇺🇦

RobertMe schreef op zaterdag 23 januari 2021 @ 22:09:
@sven123ab heb je toevallig een Kingston A2000? Ik had daar namelijk issues mee, waardoor ogenschijnlijk/achteraf op basis van anderen de SSD in een (deep) sleep stand gaat waar die niet meer uit komt.
Zie hier het topic over mijn issue: Proxmox lockups door NVME drive? en mijn review waar een ogenschijnlijke fix in de comments staat: productreview: Kingston A2000 500GB review door RobertMe (ogenschijnlijke fix omdat ik de SSD intussen dus niet meer gebruik en dus niet kan verifiëren).
Thnx! Ik had dit probleem ook, vooral als de schijf erg druk was, kijken of dit helpt :)

Acties:
  • 0 Henk 'm!

  • frv
  • Registratie: November 2002
  • Laatst online: 22-07-2024

frv

powerboat schreef op dinsdag 9 februari 2021 @ 07:32:
[...]
Ik heb bij mijn werkgever een 3node cluster draaien incl. CEPH dat draait op basis van EPYC (Rome), SSD's, een sloot aan geheugen en 10Gbit ethernet. Dat draait prima echter verlies je 1/3 van je storage. 3node is echt absoluut het minimum en ik denk dat het beter tot zijn recht komt met min. 5 nodes.
Kan starten met 3 nodes en op termijn uitbreiden naar 5. Als ik ceph goed begrijp kan je dan telkens uitbreiden (5 disks , 1 in elke node + nieuw volume). Was sowieso van plan mijn proxmox bak om te vormen tot een cluster.
powerboat schreef op dinsdag 9 februari 2021 @ 07:32:
Zelf heb ik een 2node cluster incl, een truenasje er tussen en zo gaan we ook onze failover cluster opbouwen. Voordeel is dat je met een truenas periodiek snapshots kan maken en die weer kan repliceren naar een 2e truenas. Mocht je HA willen met freenas/truenas dan kun je daar een licentie voornemen.
Momenteel ook een freenas/truenas. Al meer dan 10 jaar ... Super stabiel. Echt heel tevreden van. 1ste set samsung disken van 500Gb heb ik nog liggen (die dingen werken zelfs nog perfect maar zijn gewoon te klein. Als je alles 24/7 aan laat liggen zonder spindown etc gaat hardware echt wel lang mee. Zit nu aan men 2de mobo voor de nas en nog steeds dezelfde case).

Echter kleven er aan Freenas toch wat nadelen :

Moeilijk uitbreidbaar (in mijn geval per set van 6 disks gezien raidz2 6 disk vdev)
Single node. Als mijn truenas eruitklapt is alles wat er achter hangt meteen ook down. En om nu van alle hardware een "reserve set" op de plank liggen hebben is gewoon gek.

Als ik de HA in Truenas goed begrijp is het op basis van active/passive (dus steeds 1 NAS die de main is met replicatie er tussen en failover. Verlies je nog steeds 50M van je storage ... Storage mag dan goedkoop zijn ... Zo goedkoop is het nu ook weer niet.
powerboat schreef op dinsdag 9 februari 2021 @ 07:32:
Gluster is door een kameraad van mij afgeraden op basis van zijn ervaring met gratis storing (ik kan weleens navraag voor je doen waarom).
Ben ik wel benieuwd naar.

Acties:
  • 0 Henk 'm!

  • frv
  • Registratie: November 2002
  • Laatst online: 22-07-2024

frv

unezra schreef op dinsdag 9 februari 2021 @ 07:28:
[...]


Het lijkt er op of TrueNAS zelf ook HA mogelijkheden heeft:
https://www.truenas.com/d...vanced/high-availability/

Persoonlijk zou ik me afvragen hoe belangrijk échte HA is. Zelf vond ik pure HA minder belangrijk dan backups, dus ben ik uiteindelijk voor 2 Pve machines gegaan waarvan 1 offsite staat.

Die sync ik met Sanoid: https://github.com/jimsalterjrs/sanoid

Op die manier loop ik nooit meer dan 6 uur achter (afhankelijk van de dataset) én ben ik ook beschermd tegen fysieke calamiteiten als diefstal en brand thuis.
Ik verkijk me niet zozeer op die HA hoor. Bakcups zijn goed opgelost (oude tape drive van het werk)

Alleen met dat ik toch al een kleine proxmox cluster draaien heb dacht ik effe te kijken wat de opties zijn om ook de NAS daarin te integreren. Truenas HA mogelijkheden is dacht ik replicatie (dus 50% verlies )

Tenslotte is dat weer een bak minder die 24/7 draait ...

Acties:
  • 0 Henk 'm!

  • frv
  • Registratie: November 2002
  • Laatst online: 22-07-2024

frv

unezra schreef op dinsdag 9 februari 2021 @ 07:47:
[...]

De kans dat huis én schuur affikken, met 15 meter tuin er tussen, lijkt me dusdanig minimaal dat ik dat mogelijk nog wel verantwoord vind.)
Lijkt me idd veilig genoeg. Mocht ik doorzetten met de proxmox cluster oplossing ging de oude "freenas" bak ook de schuur in... (wake on lan -> synchroniseren -> shutdown). Nu gebruik ik tapes maar drives zijn niet makkelijk te vinden en duurt eeuwen in vgl met backup terugzetten van spinning disks over lan. Gebruik ik het tape systeem enkel nog voor looooooooooong term storage van kritieke data zoals foto's.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:57
unezra schreef op dinsdag 9 februari 2021 @ 07:47:
Harde eis voor mij was daar wel, dat het offsite was. Leuk als je een 2e machine hebt, maar fikt je huis af, ben je alsnog alles kwijt. (Al heb ik nog wel overwogen en overweg ik nog steeds, de backup machine ooit naar de schuur te verplaatsen. De kans dat huis én schuur affikken, met 15 meter tuin er tussen, lijkt me dusdanig minimaal dat ik dat mogelijk nog wel verantwoord vind.)
Brand is natuurlijk maar één ding. Wat bv in het geval van blikseminslag? Of andere gekke dingen op het stroomnet. Uiteraard voor 99,9% op te vangen met bv een UPS (blikseminslag al met beveiliging daarvoor). Maar bliksem kan ook via ethernet bij je server komen (zo is bij mij ooit de router overleden op een aantal poorten na blikseminslag twee huizen verder, maar voor de rest was niks kapot gegaan). Er zijn natuurlijk wel meer dingen om op te letten / rekening mee te houden als ze "dicht bij elkaar" staan. Elk is dan wel weer een oplossing voor te verzinnen, maar echt offsite is dan beter. Wellicht dat je de server dus ook gewoon bij familie/vrienden kunt plaatsen?

Acties:
  • 0 Henk 'm!

  • Hmmbob
  • Registratie: September 2001
  • Laatst online: 08:00
RobertMe schreef op dinsdag 9 februari 2021 @ 10:06:
Wellicht dat je de server dus ook gewoon bij familie/vrienden kunt plaatsen?
Dit heb ik, 1 NAS bij mezelf en 1 bij mijn schoonouders, die iedere nacht naar elkaar backuppen. VPN-tunnel ertussen en gaan...

Zij lokaal backups mbt Synology Cloudsync, wij idem, en dan snachts repliceren. Works like a charm!

Sometimes you need to plan for coincidence


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

RobertMe schreef op dinsdag 9 februari 2021 @ 10:06:
[...]
Brand is natuurlijk maar één ding. Wat bv in het geval van blikseminslag? Of andere gekke dingen op het stroomnet. Uiteraard voor 99,9% op te vangen met bv een UPS (blikseminslag al met beveiliging daarvoor). Maar bliksem kan ook via ethernet bij je server komen (zo is bij mij ooit de router overleden op een aantal poorten na blikseminslag twee huizen verder, maar voor de rest was niks kapot gegaan). Er zijn natuurlijk wel meer dingen om op te letten / rekening mee te houden als ze "dicht bij elkaar" staan. Elk is dan wel weer een oplossing voor te verzinnen, maar echt offsite is dan beter. Wellicht dat je de server dus ook gewoon bij familie/vrienden kunt plaatsen?
Eens. Nja, daarom staat mijn server dus in het datacenter. :)
Kost me €35,- per maand inclusief stroom (relatief zuinige server) en zorgt er voor dat het écht offsite is.

Enige nadeel is dat ik er niet werkelijk 24/7 bij kan, maar voor een server die primair bedoeld is voor backups, vind ik dat minder relevant. (Wel zit 'ie sinds kort, samen met mijn hele huisinfra, in de monitoring.)

Fin, dat is dan weer minder on-topic voor hier.

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

afterburn schreef op zondag 7 februari 2021 @ 19:27:
Ik heb toch Proxmox op mijn Mac Mini Server gezet, en ik moet zeggen ik ben aardig onder de indruk. Performance is ronduit goed te noemen, ondanks de momenteel nog slechts 6GB geheugen. Heb de meeste applicaties inmiddels in een container draaien en dat helpt natuurlijk ook. Echter nog steeds geen RHEL in een container en dat is mijn preferente distro ivm bepaalde tools.

Ik kan in een standaard linix met lxc/lxd geinstalleerd een RHEL container die ik zelf gemaakt heb importeren, maar hoe doe ik dat in Proxmox op de CLI? Proxmox heeft geen lxc executable die je normaal gebruikt en zelfs als die er was, betwijfel ik eerlijk gezegd of de import dan binnen de Proxmox GUI zichtbaar zou zijn.

Weet iemand hoe je dit op de CLI doet voor Proxmox? Ik heb een tar.gz met rootfs en een metafile.tar.gz. Voor LXC/LXD is dit genoeg voor een import.
Voor degenen die een vergelijkbare vraag hebben in de toekomst: ik kwam deze pagina tegen bij RH waarin uitgelegt wordt hoe je met een tooltje van RedHat een CentOS of Oracle Linux installatie kunt converteren naar een RHEL installatie. De conversie wordt gedaan met behoud van versie, dus CentOS 7 -> RHEL 7 en CentOS 8 naar RHEL 8. Dit werkt ook voor LXC templates, dus vandaag een CnetOS 8 container aangemaakt en gelijk geconverteerd naar RHEL8, backup gemaakt en gekopieerd naar de container template directory en gaan.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


  • Koepert
  • Registratie: Augustus 2013
  • Nu online
Uit nieuwsgierigheid, wat zijn de voorwaarden waar een proxmox CT (of VM) aan moet voldoen? Kun je zelf van elk os een ct of vm maken? ISO om een VM te installeren snap ik, maar bijvoorbeeld volgende casus:

Ik zou een Raspbian willen optuigen. Dat kan middels een ISO en daar een VM van maken. Maar zou het ook kunnen met een CT? Wat zijn de voorwaarden waaraan de tar moet voldoen?

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:57
Koepert schreef op donderdag 11 februari 2021 @ 21:12:
Uit nieuwsgierigheid, wat zijn de voorwaarden waar een proxmox CT (of VM) aan moet voldoen? Kun je zelf van elk os een ct of vm maken? ISO om een VM te installeren snap ik, maar bijvoorbeeld volgende casus:

Ik zou een Raspbian willen optuigen. Dat kan middels een ISO en daar een VM van maken. Maar zou het ook kunnen met een CT? Wat zijn de voorwaarden waaraan de tar moet voldoen?
Je vraag an zich kan ik niet beantwoorden. Maar waarom zou je Raspbian willen draaien? Bij mijn weten is dat niet meer of minder dan een voor de Raspberry Pi geoptimaliseerde versie van Debian. Dus als je Raspbian wilt gebruiken kun je voor mijn gevoel net zo goed gewoon Debian pakken. En daarvoor bestaan uiteraard kant en klare templates / images / ... En daarnaast uiteraard de vraag: is Raspbian er uberhaupt in een x86-64 variant?

  • Koepert
  • Registratie: Augustus 2013
  • Nu online
RobertMe schreef op donderdag 11 februari 2021 @ 21:27:
[...]

Je vraag an zich kan ik niet beantwoorden. Maar waarom zou je Raspbian willen draaien? Bij mijn weten is dat niet meer of minder dan een voor de Raspberry Pi geoptimaliseerde versie van Debian. Dus als je Raspbian wilt gebruiken kun je voor mijn gevoel net zo goed gewoon Debian pakken. En daarvoor bestaan uiteraard kant en klare templates / images / ... En daarnaast uiteraard de vraag: is Raspbian er uberhaupt in een x86-64 variant?
Fair point. In dit geval gaat het om een " VM" die Ubuntu/Debian moet draaien en zo lightweight mogelijk moet zijn. Simpelweg wil ik deCONZ (Zigbee stick software) op een dedicated VM installeren. Die software ondersteund native installatie op Ubuntu/Debian/Raspbian. Dan zou een " VM" (of Container dus) met Raspbian de minste extra bagage meebrengen. Nu gaat het hier om concrete een voorbeeldcasus, ik was n.a.v. deze casus benieuwd naar de (on)mogelijkheden.

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:57
Koepert schreef op donderdag 11 februari 2021 @ 21:53:
[...]


Fair point. In dit geval gaat het om een " VM" die Ubuntu/Debian moet draaien en zo lightweight mogelijk moet zijn. Simpelweg wil ik deCONZ (Zigbee stick software) op een dedicated VM installeren. Die software ondersteund native installatie op Ubuntu/Debian/Raspbian. Dan zou een " VM" (of Container dus) met Raspbian de minste extra bagage meebrengen. Nu gaat het hier om concrete een voorbeeldcasus, ik was n.a.v. deze casus benieuwd naar de (on)mogelijkheden.
Ik ben niet bekend met de verschillen tussen Debian en Raspbian, maar het lijkt mij sterk dat Raspbian lichter is dan hrt default Debian template. Die laatste zit namelijk niet eens sudo in uit mijn hoofd.

Acties:
  • +1 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

@Koepert Er zijn Docker images voor deCONZ dus dat betekent in principe dat je een export kan maken van zo'n image en deze samen met een metafile.tar.gz kan importeren in LXC/LXD. Die metadata file is heel simpel zelf te maken.

Dit betekent ook dat je deCONZ in WSL kunt opzetten en werkend maken, om vervolgens als het zo ver is een export te maken en deze samen met een metafile.tar.gz te importeren in LXC/LXD.

Er is alleen 1 probleem: Proxmox heeft geen volledige install van LXC/LXD en je kunt dus niet zomaar zo een export importeren als container. Ik heb nog te weinig ervaring met Proxmox om te kunnen zeggen of je de rest van de LXC/LXD toolset handmatig kan installeren en of het dan werkt, maar ik betwijfel dat aangezien Proxmox zijn eigen CLI tools heeft.

Gevolg is dan dus dat je binnen Proxmox min of meer gedwongen wordt om een VM te maken ipv gebruik te maken van de lichtere systeem containers. Ik zou zeggen, begin met een netinstall image van Debian. Dan begin je al heel lichtgewicht.

[ Voor 4% gewijzigd door afterburn op 12-02-2021 13:47 ]

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ik zal het dan wel te eenvoudig aanvliegen gezien de complexe oplossingen hierboven, maar ik zie dat er gewoon een .deb package wordt aangeboden voor Debian of Ubuntu. Dus een Debian- of Ubuntu-container aanmaken en de package daarin installeren lijkt mij voldoende?

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

dcm360 schreef op vrijdag 12 februari 2021 @ 15:09:
Ik zal het dan wel te eenvoudig aanvliegen gezien de complexe oplossingen hierboven, maar ik zie dat er gewoon een .deb package wordt aangeboden voor Debian of Ubuntu. Dus een Debian- of Ubuntu-container aanmaken en de package daarin installeren lijkt mij voldoende?
Mij ook. :)

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Nu online
dcm360 schreef op vrijdag 12 februari 2021 @ 15:09:
Ik zal het dan wel te eenvoudig aanvliegen gezien de complexe oplossingen hierboven, maar ik zie dat er gewoon een .deb package wordt aangeboden voor Debian of Ubuntu. Dus een Debian- of Ubuntu-container aanmaken en de package daarin installeren lijkt mij voldoende?
Ik heb het inmiddels ook al draaien hoor :) (Idd gewoon een Debian template gepakt) Maar t ging mij vooral om de volgende vraag:

Zijn er voorwaarden waar een .tar aan moet voldoen om er een container van te kunnen maken ?

Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Er moet pak m beet een geheel root filesystem in exclusief /boot, als ik een beetje kijk wat er in mijn eigen templates zit. Aangezien ik niet helemaal tevreden was met de aangeboden templates heb ik in het verleden een beetje uitgezocht of ik zelf templates kon maken, en daar heb ik jaren terug eens een script voor gevonden waarmee het me lukte om zelf templates op basis van OpenSuse te maken. Dat script is echter niet geheel correct, op dit moment moet ik er weer wat aan repareren.

Acties:
  • +1 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Koepert schreef op vrijdag 12 februari 2021 @ 17:26:
[...]


Ik heb het inmiddels ook al draaien hoor :) (Idd gewoon een Debian template gepakt) Maar t ging mij vooral om de volgende vraag:

Zijn er voorwaarden waar een .tar aan moet voldoen om er een container van te kunnen maken ?
Het is gewoon een tar van het filesysteem, minus de device directories zoals /dev, /proc etc. Geen boot files, geen kernel, geen file system, niks spannend. Zelfde als bij wsl.

[ Voor 3% gewijzigd door afterburn op 12-02-2021 18:01 ]

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • peligro2k
  • Registratie: December 2001
  • Laatst online: 18:45
Draait iemand toevallig Proxmox op een Asus PN50? Ik ben op zoek naar een energiezuinige Ryzen setup om een paar VM's in te draaien.

Acties:
  • +1 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

@peligro2k Niet specifiek een PN50, maar ik heb 2 Zen+ bakken die verder prima draaien.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


  • fuzzyduck
  • Registratie: Juni 2005
  • Laatst online: 14:43
Ingelezen halfbakken noob hier.

Ik ben aan het overwegen om mn Esxi server om te gooien naar proxmox. In deze nieuwe setup wil ik ook nieuwe disks. Nu heb ik namelijk de WD red(die met SMR) en zie dat de latency van de raid5 soms om te huilen is. Op deze raid5 staat een Nextcloud VM en een OpenMediaVault VM voor file tank. Ook de TVserver dumpt er zn recordings. Al met al relatief traag.
De 4 nieuwe pro/enterprise disks wil ik of in zfs raidz1 of zfs raid10 gaan draaien zodat de raidcontroller gewipt kan worden.

ESXI Huidig:
- 1x consumer SSD voor esxi install en wat kleine VM's.
- 1x 3disk hardware Raid5 op adaptec controller
- 1x single backup disk voor de VM's en iso repository
- Een offsite backup bij een vriend. dmv rsync vanuit VM's

Proxmox gewenst:
- 2x SSD in raid1
- 1x 4disk ZFS raidz1 of zfs raid10 (ntb)
- solo backupdisk komt te vervallen ivm raidkeuze en offsite backup

Concrete vragen om makkelijk te beantwoorden:

Vraag1: Kan ik de 2xSSD raid1 ZFS instellen voorafgaand aan de proxmox installatie of kan ik die dan weer beter instellen met de Intel Rapid Storage op het servermobo?

Vraag2: Ik heb begrepen dat ZFS het lekkerste werkt met zowel een logging en een cache partitie. Die wil ik ook op de mirrored SSD's. is dat slim/dom? Ik heb namelijk 6 Sata poorten op het mobo en wil de controller weg hebben. Eventueel een extra SSD pci-e disk voor de log/cache?

Vraag3: Hoe zit het met TRIM van ssd's op ZFS? Kan het? nodig?

Vraag4: Kan ik in ZFS een hele grote partitie aanmaken op nieuwe ZFS raidz1/Raid10 en die gewoon sharen op het netwerk? Dat scheelt de OpenMediaVault VM(ik gebruik hem alleen maar als tank eigenlijk)

Vraag5: nu wil ik OOK NOG de basis van alle 'grote' VM's(oa nextcloud) op de SSD's zetten en de raid gebruiken als mounted datadisk. Dus proxmox/cache/logging/VM's op de mirror. Hoe arbeidsintensief (IOPS) is logging/caching?


Al met al best een spannende operatie aangezien ik een soort van gevorderde amateur ben. Alvast bedankt voor reageren.

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ik pluk er even wat dingen tussenuit waar ik snel een antwoord op heb.

Antwoord1: Instellen tijdens de installatie van Proxmox (de juiste term in ZFS is mirror). Gebruik van hardware (of Intel chipset is misschien half-hardware?) raid ondermijnt de controle die ZFS heeft over de storage-laag.

Antwoord3: Het kan, en het is een aanrader, en ik zou het op consumenten-ssd's bijna verplicht willen noemen :P Zover ik weet gebeurt het nog niet automatisch, dus ik heb zelf in cron ingesteld dat er wekelijks een 'zpool trim rpool' uitgevoerd wordt.

Antwoord4: Persoonlijk zou ik gaan voor een container met daarin software om fileshares te beheren, en daarvoor een zvol of mountpoint te koppelen op de harddisks. De Turnkey-fileserver vind ik niet per se heel gebruiksvriendelijk maar werkt wel oké-ish (en gewoon prima als het instellen gelukt is). Ik verwacht dat er wel betere pakketten voor zijn.

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Als ik een note probeer toe te voegen aan een backup krijg ik deze melding:

"volume notes are not supported for PVE::Storage::CIFSPlugin at /usr/share/perl5/PVE/Storage/Plugin.pm line 838. (500)"

Is hier omheen te komen?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


  • fuzzyduck
  • Registratie: Juni 2005
  • Laatst online: 14:43
Ik ben nu deze info aan het doornemen. Hier wordt e.e.a duidelijker:

https://www.ixsystems.com/blog/zfs-zil-and-slog-demystified/

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
Je kan bij ZFS beter RAM bij prikken omdat als je al SSD's gebruikt je caching al sneller moet zijn. Anders kan dit nl. Vetragend werken.

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:57
fuzzyduck schreef op donderdag 25 februari 2021 @ 10:57:
In deze nieuwe setup wil ik ook nieuwe disks. Nu heb ik namelijk de WD red(die met SMR)
Weet je dat zeker? Want volgens mij hebben ze niet heel lang SMR gebruikt voordat het grote publiek er achter kwam en ze zijn overgestapt op WD Red Plus. Volgens mij zijn WD Reds van bv 1,5 of 2 jaar terug gewoon CMR. En hebben ze SMR pas ergens begin 2020 of zo geïnteresseerd (en dan pas weer half, driekwart jaar later bekend geworden en Red Plus begonnen).

  • fuzzyduck
  • Registratie: Juni 2005
  • Laatst online: 14:43
Je brengt me nu aan het twijfelen. Maar ze zijn nu live en in een rack, dus kan de serienummers niet bekijken.

De mobo heeft nu 32gb ram waarvan iets van de helft in gebruik is. Ik begrijp dat zowel ZIL als ARC optioneel is. Maar als je ZIL kiest, dan op een dedicated flash disk/module.

Ik ben als de dood dat ik straks iets doms doe waardoor ik verlang naar mn huidige ye'old esxi opstelling ;)

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
fuzzyduck schreef op donderdag 25 februari 2021 @ 13:53:
Je brengt me nu aan het twijfelen. Maar ze zijn nu live en in een rack, dus kan de serienummers niet bekijken.

De mobo heeft nu 32gb ram waarvan iets van de helft in gebruik is. Ik begrijp dat zowel ZIL als ARC optioneel is. Maar als je ZIL kiest, dan op een dedicated flash disk/module.

Ik ben als de dood dat ik straks iets doms doe waardoor ik verlang naar mn huidige ye'old esxi opstelling ;)
Serienummers kun je checken als je op je proxmox node klikt en dan disk of storage ;)

  • fuzzyduck
  • Registratie: Juni 2005
  • Laatst online: 14:43
powerboat schreef op donderdag 25 februari 2021 @ 19:01:
[...]

Serienummers kun je checken als je op je proxmox node klikt en dan disk of storage ;)
Maar ik zit nog op esxi en die schijven staan achter een Adaptec raid kaartje. Dus pindakaas!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
fuzzyduck schreef op donderdag 25 februari 2021 @ 19:03:
[...]


Maar ik zit nog op esxi en die schijven staan achter een Adaptec raid kaartje. Dus pindakaas!
Ook niet in vcenter/vsphere client ? Volgens mij moet je dat daar ook gewoon kunnen uitlezen bij storage. :/

  • fuzzyduck
  • Registratie: Juni 2005
  • Laatst online: 14:43
powerboat schreef op donderdag 25 februari 2021 @ 19:21:
[...]


Ook niet in vcenter/vsphere client ? Volgens mij moet je dat daar ook gewoon kunnen uitlezen bij storage. :/
Misschien maar die logge cm heb ik weggegooid. Alleen de esxi host geeft me genoeg mogelijkheden. Ik weet niet of de default adaptec driver deze info doorgeeft trouwens. Anyway we dwalen af. Ik wil een high iops build met 7200rpm disks.

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
fuzzyduck schreef op donderdag 25 februari 2021 @ 19:34:
[...]


Misschien maar die logge cm heb ik weggegooid. Alleen de esxi host geeft me genoeg mogelijkheden. Ik weet niet of de default adaptec driver deze info doorgeeft trouwens. Anyway we dwalen af. Ik wil een high iops build met 7200rpm disks.
Truenas i.c.m. sloot geheugen :z

Acties:
  • 0 Henk 'm!

  • roeleboel
  • Registratie: Maart 2006
  • Niet online

roeleboel

en zijn beestenboel

De afgelopen 2 uren is mijn proxmox-nuc 3x totaal onbereikbaar geworden: reageerde niet meer op ping.
Harde reset van de nuc was de enige optie.

Iemand suggesties hoe/waar ik kan zien wat er evt misliep? (en vooral: hoe ik kan uitvinden of het een software of hardware probleem is)

Acties:
  • 0 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 13-09 18:54
@roeleboel al in de logbestanden gekeken? via ssh inloggen en dan eens uitgebreid in /var/log/ snuffelen?

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
roeleboel schreef op vrijdag 26 februari 2021 @ 15:27:
De afgelopen 2 uren is mijn proxmox-nuc 3x totaal onbereikbaar geworden: reageerde niet meer op ping.
Harde reset van de nuc was de enige optie.

Iemand suggesties hoe/waar ik kan zien wat er evt misliep? (en vooral: hoe ik kan uitvinden of het een software of hardware probleem is)
- journalctl
- dmesg

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:57
roeleboel schreef op vrijdag 26 februari 2021 @ 15:27:
De afgelopen 2 uren is mijn proxmox-nuc 3x totaal onbereikbaar geworden: reageerde niet meer op ping.
Harde reset van de nuc was de enige optie.

Iemand suggesties hoe/waar ik kan zien wat er evt misliep? (en vooral: hoe ik kan uitvinden of het een software of hardware probleem is)
Mij glazen bol geeft aan dat je een Kingston A2000 hebt :+

Proxmox lockups door NVME drive?
babananana in "Het grote Proxmox VE topic"

Acties:
  • 0 Henk 'm!

  • roeleboel
  • Registratie: Maart 2006
  • Niet online

roeleboel

en zijn beestenboel

@Freeaqingme alles wat ik vind in de logbestanden die vandaag nog gewijzigd zijn is een abrupte stop van logging, waarna de volgende regel verder gaat met de normale logging na een nieuwe boot alsof er niks aan de hand is..

@A1AD jouralctl geeft enkel data sinds de laatste reboot, dus daar heb ik helaas niet aan. dmesg geeft hetzelfde als de rest van de logs: ineens stopt ie zonder enige foutmelding, volgende timestamp is van na de reboot

@RobertMe Helaas, uw glazen bol zit er naast :) storage is een crucial mx500 (sata 2.5") en een crucial mx300 (sata met m2 formfactor) (zeker de mx500 heeft haar eigen problemen, maar dan genre 100 smart-meldingen per uur die overbodig zijn) - maar ge hebt een punt, volgende keer zal ik ineens de hardware-specs er bij zetten

Ondertussen draait ie na talloze crashes al terug +-55 minuten, dat is al het langste sinds de crashes deze vroege namiddag begonnen.

Wat is er veranderd: ik heb in mijn kelder mijn 10" rack waar de nuc los in staat geherorganiseerd (zodat debuggen in de toekomst makkelijker wordt wegens vlotter overal aan kunnen).

Of dat nu effectief geholpen heeft weet ik niet en betwijfel ik, maar daarvoor kon ik een max uptime van 15 minuten halen... nuc meerdere malen van de stroom gehaald, stof uit de ventllatoren geblazen etc, deed allemaal niets: binnen de 15 minuten ging ie plat. Nu staat de nuc niet meer direct boven op een poe-switch, maar daar zaten uiteraard wel de standaard meegeleverde rubberen voetjes tussen.

Ik ga het verder in de gaten houden, maar allemaal al bedankt voor er tijd in te steken!

Acties:
  • 0 Henk 'm!

  • Edd
  • Registratie: Januari 2001
  • Laatst online: 16:37

Edd

@roeleboel Welke type nuc heb je?

Ik heb laatste een 2e nuc aan mijn Proxmox cluster toegevoegd. Nadat het eerst zonder problemen draaide, liep ik wel tegen een probleem aan dat een van de nuc's niet meer bereikbaar was.
De enige aanleiding die ik had was de netwerkkaart die in de logging continu zijn verbinding leek te verliezen en opnieuw op te pakken.

Om het kort te houden, zat dit probleem in de driver voor de netwerkkaart (e1000e).
Zie je hiervan veel meldingen in /var/log/syslog? Je kunt gewoon filteren op e1000e, dan zou je iets moeten kunnen terugvinden als dit hetzelfde probleem is.

De oplossing voor mij was om ethtool te installeren en de volgende regel op te nemen in interafaces (bij eno1)
code:
1
post-up ethtool -K $IFACE gso off gro off tso off tx off rx off


Dit naar aanleiding van:
https://forum.proxmox.com/threads/e1000-driver-hang.58284/

Geen idee natuurlijk of jij daadwerkelijk hetzelfde probleem hebt. Ik liep er alleen tegenaan, omdat mijn 2e nu op een gegeven moment niet meer bereikbaar was. Mijn 1e nuc had ook het probleem, maar was altijd bereikbaar.

Heb je anders de mogelijkheid om tijdelijk een monitor aan te sluiten?

-


Acties:
  • 0 Henk 'm!

  • roeleboel
  • Registratie: Maart 2006
  • Niet online

roeleboel

en zijn beestenboel

Edd schreef op vrijdag 26 februari 2021 @ 19:07:
@roeleboel Welke type nuc heb je?
<sni>
Geen idee natuurlijk of jij daadwerkelijk hetzelfde probleem hebt. Ik liep er alleen tegenaan, omdat mijn 2e nu op een gegeven moment niet meer bereikbaar was. Mijn 1e nuc had ook het probleem, maar was altijd bereikbaar.

Heb je anders de mogelijkheid om tijdelijk een monitor aan te sluiten?
Ik heb een nuc7i5bnh, en uiteraard, nog geen 5 minuten na mijn vorige post was het weer prijs: crashes tot en met...
De e1000e geeft niks speciaals in syslog. (wel om de pakweg 10 minuten een melding 'Interrupt Trottling Rate (ints/sec) set to dynamic conservative mode')

Er is nu ook een monitor aangesloten, en bij een crash verdwijnt het beeld ook ('no input' op beeldscherm) terwijl hij anders mooi de console laat zien.
Het blauwe powerledje blijft wel aan en de ventilator blijft ook draaien na een crash.

Ik ga nu eens proberen de ssd's te 'transplanteren' naar mijn andere (iets nieuwere) nuc, en dan eens kijken of het crashen blijft. Zo ja dan lijkt het me alvast niet direct aan de fysieke hardware zelf gerelateerd, maar zou ik eerder gokken op een software-fout - waarbij ik drivers onder software tel.

random ideetje: zou zoiets veroorzaakt kunnen worden door een probleem met ram?

Edit: en na de hardware te wisselen (alles behalve ssds - andere nuc dus) blijft alles perfect draaien...

[ Voor 6% gewijzigd door roeleboel op 04-03-2021 15:41 ]


Acties:
  • 0 Henk 'm!

  • jongerenchaos
  • Registratie: Januari 2005
  • Laatst online: 13-09 08:38
Ik heb een proxmox cluster van 3 nodes. Deze nodes hebben allemaal een SSD voor de bootimage (128gb/ZFS filestystem) en 480gb (XFS) SSD beschikbaar via een CEPH filesysteem.

Ik merk dat de levensduur van de SSD's (consumenten SSD) snel achteruit gaat en sommige al versleten zijn. Ik wil dus de SSD's gaan vervangen voor betere SSD's.

Waar moet ik op letten bij de aanschaf van een nieuwe SSD? Is het voldoende om te letten op een hoge DWPD en TBW of moet ik op meer zaken letten bij aanschaf?

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
jongerenchaos schreef op vrijdag 26 februari 2021 @ 22:09:
Ik heb een proxmox cluster van 3 nodes. Deze nodes hebben allemaal een SSD voor de bootimage (128gb/ZFS filestystem) en 480gb (XFS) SSD beschikbaar via een CEPH filesysteem.

Ik merk dat de levensduur van de SSD's (consumenten SSD) snel achteruit gaat en sommige al versleten zijn. Ik wil dus de SSD's gaan vervangen voor betere SSD's.

Waar moet ik op letten bij de aanschaf van een nieuwe SSD? Is het voldoende om te letten op een hoge DWPD en TBW of moet ik op meer zaken letten bij aanschaf?
Ik heb onlangs de Datacenter SSD's van Kingston gekocht voor Proxmox via (deze https://discountoffice.nl/p/1920g-ssdnow-dc500m-2-5in-ssd/ ).

Moet zeggen dat ik er uitermate te vreden mee ben.Voor de verschillen tussen de DC versies zie onderstaande linkje.
https://www.kingston.com/...-center-solid-state-drive

Moet zeggen dat de WD blue die ik heb ook erg snel achteruit gaat.

Acties:
  • +1 Henk 'm!

  • jongerenchaos
  • Registratie: Januari 2005
  • Laatst online: 13-09 08:38
powerboat schreef op vrijdag 26 februari 2021 @ 22:39:
[...]


Ik heb onlangs de Datacenter SSD's van Kingston gekocht voor Proxmox via (deze https://discountoffice.nl/p/1920g-ssdnow-dc500m-2-5in-ssd/ ).

Moet zeggen dat ik er uitermate te vreden mee ben.Voor de verschillen tussen de DC versies zie onderstaande linkje.
https://www.kingston.com/...-center-solid-state-drive

Moet zeggen dat de WD blue die ik heb ook erg snel achteruit gaat.
Als ik kijk naar deze schijven voor een schijf van 480gb (DC kingston serie) zit deze op de volgende specs:
Total Bytes Written (TBW) 438TB
Drive writes per day (DWPD) 0,50

Als ik kijk naar bijv de transcend 220s serie (512gb) lijkt deze nog een langere levensduur (dubbele) te hebben (als mijn interpretatie correct is)
Total Bytes Written (TBW) 1,1PB
Drive writes per day (DWPD) 1,18

Acties:
  • 0 Henk 'm!

  • MrUnknown1898
  • Registratie: Mei 2010
  • Laatst online: 23-07 15:38
Ik vroeg me af of iemand mij kan helpen met het volgende:
Ik heb een HP DL380p Gen8 server en deze kan enkel booten vanaf USB stick en niet vanaf een externe harde schijf. Nu wil ik proxmox op een externe harde schijf zetten, en de bootloader op een usb stick.

Kan iemand mij stap voor stap vertellen (of mij helpen met schermdelen) hoe ik dit voor elkaar krijg. Ik heb ongeveer 10 tutorials gevolgd maar ik kom er niet uit. Ik begrijp dat ik de grub install moet doen op de USB stick maar het lukt me niet.

Mocht iemand kennis hebben en mij willen helpen, zou ik je zeer dankbaar zijn.

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
jongerenchaos schreef op zaterdag 27 februari 2021 @ 10:36:
[...]


Als ik kijk naar deze schijven voor een schijf van 480gb (DC kingston serie) zit deze op de volgende specs:
Total Bytes Written (TBW) 438TB
Drive writes per day (DWPD) 0,50

Als ik kijk naar bijv de transcend 220s serie (512gb) lijkt deze nog een langere levensduur (dubbele) te hebben (als mijn interpretatie correct is)
Total Bytes Written (TBW) 1,1PB
Drive writes per day (DWPD) 1,18
Dat kan zeer goed, ik heb enkel gekeken naar zakelijke (betaalbare) ssd's. Kan geen consumenten ssd's bij een klant in de server stoppen. ;)

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 13:29

Kek

3flix

MrUnknown1898 schreef op zaterdag 27 februari 2021 @ 11:47:
Ik vroeg me af of iemand mij kan helpen met het volgende:
Ik heb een HP DL380p Gen8 server en deze kan enkel booten vanaf USB stick en niet vanaf een externe harde schijf. Nu wil ik proxmox op een externe harde schijf zetten, en de bootloader op een usb stick.

Kan iemand mij stap voor stap vertellen (of mij helpen met schermdelen) hoe ik dit voor elkaar krijg. Ik heb ongeveer 10 tutorials gevolgd maar ik kom er niet uit. Ik begrijp dat ik de grub install moet doen op de USB stick maar het lukt me niet.

Mocht iemand kennis hebben en mij willen helpen, zou ik je zeer dankbaar zijn.
ik zou beginnen met kijken waarom het ding niet vanaf een HD boot, want ofwel dat is een instellingen die aangepast kan worden of er is iets aan de hand waardoor meer dingen niet werken en er dus eigelijk iets kapot is...

Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 18:58
powerboat schreef op zaterdag 27 februari 2021 @ 20:31:
[...]


Dat kan zeer goed, ik heb enkel gekeken naar zakelijke (betaalbare) ssd's. Kan geen consumenten ssd's bij een klant in de server stoppen. ;)
Dan vraag ik me toch af waarom je voor Kingston gaat ipv Intel. De DC S4510 is goedkoper en heeft langere levensduur.
Persoonlijk ben ik niet zo dol op Kingston SSDs, maar dat is op basis van hun consumenten series die niet heel denderend zijn.

Acties:
  • 0 Henk 'm!

  • MrUnknown1898
  • Registratie: Mei 2010
  • Laatst online: 23-07 15:38
Kek schreef op zaterdag 27 februari 2021 @ 22:39:
[...]


ik zou beginnen met kijken waarom het ding niet vanaf een HD boot, want ofwel dat is een instellingen die aangepast kan worden of er is iets aan de hand waardoor meer dingen niet werken en er dus eigelijk iets kapot is...
Daar ben ik begonnen, maar dat kan technisch niet met deze server.
Quote onderaan onderstaande website: "Booting into a External USB hard drive may not be supported."
https://support.hpe.com/h...5443en_us&docLocale=en_US

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 13:29

Kek

3flix

MrUnknown1898 schreef op zondag 28 februari 2021 @ 07:26:
[...]


Daar ben ik begonnen, maar dat kan technisch niet met deze server.
Quote onderaan onderstaande website: "Booting into a External USB hard drive may not be supported."
https://support.hpe.com/h...5443en_us&docLocale=en_US
Ok, ik snap dan nog steeds niet waarom je vanaf een externe HDD wilt booten, vanaf een USB stick is prima om een systeem op de interne disks te installeren.. vanaf daar kan je dan gewoon vanaf de interne disks booten.. Ik heb dit overigens zelf ook gedaan op precies die gen8 met proxmox, draait prima..

mss heb je hier nog iets aan als tip.

[ Voor 8% gewijzigd door Kek op 28-02-2021 12:14 ]


Acties:
  • 0 Henk 'm!

  • UTMachine
  • Registratie: Juli 2000
  • Laatst online: 15:36
Kek schreef op zondag 28 februari 2021 @ 12:07:
[...]


Ok, ik snap dan nog steeds niet waarom je vanaf een externe HDD wilt booten, vanaf een USB stick is prima om een systeem op de interne disks te installeren.. vanaf daar kan je dan gewoon vanaf de interne disks booten.. Ik heb dit overigens zelf ook gedaan op precies die gen8 met proxmox, draait prima..

mss heb je hier nog iets aan als tip.
Volledig mee eens, een HPE DL380 is bedoeld voor zakelijk gebruik en booten van externe (USB) disk is niet een use-case :+

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

powerboat schreef op zaterdag 27 februari 2021 @ 20:31:
Dat kan zeer goed, ik heb enkel gekeken naar zakelijke (betaalbare) ssd's.
De enige Kingston SSD die ik in een server zou proppen is deze : https://tweakers.net/soli...1000_p604155/vergelijken/

Voor de rest vertrouw ik eigenlijk alleen Intel DC modellen daarvoor! :)
Kan geen consumenten ssd's bij een klant in de server stoppen. ;)
Ik ken bedrijven die daar anders over denken/dachten dus je zou niet de eerste zijn geweest als je het toch had gedaan :+
MrUnknown1898 schreef op zaterdag 27 februari 2021 @ 11:47:
Ik vroeg me af of iemand mij kan helpen met het volgende:
Ik heb een HP DL380p Gen8 server en deze kan enkel booten vanaf USB stick en niet vanaf een externe harde schijf. Nu wil ik proxmox op een externe harde schijf zetten, en de bootloader op een usb stick.

Kan iemand mij stap voor stap vertellen (of mij helpen met schermdelen) hoe ik dit voor elkaar krijg. Ik heb ongeveer 10 tutorials gevolgd maar ik kom er niet uit. Ik begrijp dat ik de grub install moet doen op de USB stick maar het lukt me niet.

Mocht iemand kennis hebben en mij willen helpen, zou ik je zeer dankbaar zijn.
HP is heel erg puntje precies over wat nou een USB Stick is en wat nou een USB HDD is dus ik vind het helemaal niet raar dat het niet werkt! ;)

- Hun USB Stick Tool om Service Pack ISO's mee weg te schrijven ondersteunt alleen USB Sticks t/m 32 GB en alles wat groter is wordt als een USB HDD gezien :F
- Ik heb zowel G8 als G9 modellen van de DL380 prima VMWare/Proxmox/ZFS NAS achtige meuk zien draaien vanaf een USB Stick als OS Disk en alle HDD's bays volgepropt met Storage :)

Kortom : Misschien moet je dat idee laten varen en het anders aan gaan pakken...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
_JGC_ schreef op zaterdag 27 februari 2021 @ 23:15:
[...]

Dan vraag ik me toch af waarom je voor Kingston gaat ipv Intel. De DC S4510 is goedkoper en heeft langere levensduur.
Persoonlijk ben ik niet zo dol op Kingston SSDs, maar dat is op basis van hun consumenten series die niet heel denderend zijn.
Thx! :9 snap niet waarom ik die gemist heb. Mijn ervaringen met Kingston voor de zakelijke markt is dat het altijd stabiel werkt, waarschijnlijk een gevoelskwestie (zegt niks overigens).

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 15:25
domme vraag. ik draai met veel plezier proxmox op mijn nuc i7 10th gen. Ik heb gisteren windows 10 geinstalleerd en 16gb ram gegeven. Draait super snel maar als ik taskmanageer kijk staat hij op 1.6 ghz. Terwijl mijn cpu 6 core (HT 12 cors) veel sneller is. Ik las dat deze waarde niet betrouwbaar is. Echter lees ik ook verhalen dat ik niet kvm64 als processor moet kiezen maar host. Echter zie ik dan ook 1.6ghz.

Ik draai verder nog 3 ubuntu machines.

Kan ik dit negeren of moet ik even research doen naar cpu's?

Acties:
  • 0 Henk 'm!

  • DRaakje
  • Registratie: Februari 2000
  • Niet online
TweakerVincent schreef op dinsdag 9 maart 2021 @ 22:21:
domme vraag. ik draai met veel plezier proxmox op mijn nuc i7 10th gen. Ik heb gisteren windows 10 geinstalleerd en 16gb ram gegeven. Draait super snel maar als ik taskmanageer kijk staat hij op 1.6 ghz. Terwijl mijn cpu 6 core (HT 12 cors) veel sneller is. Ik las dat deze waarde niet betrouwbaar is. Echter lees ik ook verhalen dat ik niet kvm64 als processor moet kiezen maar host. Echter zie ik dan ook 1.6ghz.
Al gekeken hiernaar?
https://pve.proxmox.com/wiki/Windows_10_guest_best_practices

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
TweakerVincent schreef op dinsdag 9 maart 2021 @ 22:21:
domme vraag. ik draai met veel plezier proxmox op mijn nuc i7 10th gen. Ik heb gisteren windows 10 geinstalleerd en 16gb ram gegeven. Draait super snel maar als ik taskmanageer kijk staat hij op 1.6 ghz. Terwijl mijn cpu 6 core (HT 12 cors) veel sneller is. Ik las dat deze waarde niet betrouwbaar is. Echter lees ik ook verhalen dat ik niet kvm64 als processor moet kiezen maar host. Echter zie ik dan ook 1.6ghz.

Ik draai verder nog 3 ubuntu machines.

Kan ik dit negeren of moet ik even research doen naar cpu's?
Guest tools geinstalleerd?

Acties:
  • +1 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 15:25
powerboat schreef op dinsdag 9 maart 2021 @ 22:25:
[...]

Guest tools geinstalleerd?
ok super tnx. dat wordt dus een reinstall :P. Gelukkig vrijwel niks geinstalleerd. Nu toch moe dus prima klusje nu

tnx

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 15:25
Compleet nieuwe win10 gemaakt met alle stappen hierboven maar ik blijf in taskmanager in de nieuwe vm windows Base speed blijft 1.61 :( default cpu settings kvm64

Moet ik een andere cpu kiezen? Volgens mij snap ik niet helemaal hoe cpu werkt in proxmox. ik heb wel 12 cores in windows alleen dus super traag 1.61 ghz. Maar het voelt helemaal niet traag dus ik vermoed dat de windows taskbar niet goed kan communiceren met proxmox?/

[ Voor 38% gewijzigd door TweakerVincent op 09-03-2021 23:59 ]


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
TweakerVincent schreef op dinsdag 9 maart 2021 @ 23:35:
Compleet nieuwe win10 gemaakt met alle stappen hierboven maar ik blijf in taskmanager in de nieuwe vm windows Base speed blijft 1.61 :( default cpu settings kvm64

Moet ik een andere cpu kiezen? Volgens mij snap ik niet helemaal hoe cpu werkt in proxmox. ik heb wel 12 cores in windows alleen dus super traag 1.61 ghz. Maar het voelt helemaal niet traag dus ik vermoed dat de windows taskbar niet goed kan communiceren met proxmox?/
Normaliter werkt dat wel prima met die stappen zal dadelijk eens kijken wat ik er heb staan.

Overigens ... weet niet of je performance issues hebt. Maar ik de powersettings van mijn server in de bios op max moeten zetten.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:49

zeroday

There is no alternative!

powerboat schreef op woensdag 10 maart 2021 @ 07:13:
[...]


Normaliter werkt dat wel prima met die stappen zal dadelijk eens kijken wat ik er heb staan.

Overigens ... weet niet of je performance issues hebt. Maar ik de powersettings van mijn server in de bios op max moeten zetten.
zou daar best mee te maken kunnen hebben

Afbeeldingslocatie: https://tweakers.net/i/RK-yiQBgWPPBBTvFbGovT2QKQJ4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/lEhjCOvD6JwOUwOOpreZcMZR.png?f=user_large

Ik heb 2x Windows moeten installeren. Mijn eerste config werkte ook voor geen meter. Elke keer ging de VM uit ..

Daarna een andere windows versie gepakt en de link die hier al eerder is voorgekomen gevolgd. de stapjes goed uitvoeren en de drivers goed laden. Of dat uiteindelijk je CPU helpt weet ik niet ..
die van mij staat ook op KVM64 met Default (i440fx)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 15:25
powerboat schreef op woensdag 10 maart 2021 @ 07:13:
[...]


Normaliter werkt dat wel prima met die stappen zal dadelijk eens kijken wat ik er heb staan.

Overigens ... weet niet of je performance issues hebt. Maar ik de powersettings van mijn server in de bios op max moeten zetten.
Om eerlijk te zijn voelt windows snel aan, maar ik heb natuurlijk amper iets geinstalleerd. Ik heb de pricewatch: Intel NUC 10 Performance kit NUC10i7FNK Nuc. i7 10th generatie. 1TB SSD en 64 gb soddr4 2666. Cpu heeft 6 cores.

Moet je normaal de cpu op kvm64 zetten en dan 12 cores toewijzen? (ik draai dus nog 3 ubuntu machines die weinig cpu eisen) of kan ik dat beter instellen?


host cpu is dus een Intel Core i7-10710U. Die gaat van 1.1 ghz tot 4.7 turbo.

vm standaard op 1.61 lijkt me wat raar. (dat heb ik dus nu)

[ Voor 7% gewijzigd door TweakerVincent op 10-03-2021 13:26 ]


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 18:58
@TweakerVincent kvm64 is een generieke KVM CPU die op alle x86_64 CPUs zou moeten werken. Als je het maximale uit je systeem wilt halen zet je die op "host". Nadeel is wel dat je dan niet live migration kunt doen naar een andere server met andere CPU.

1.6GHz is de configurable TDP-up snelheid, ik vermoed dat daar je 1.6GHz vandaan komt. De hogere CPU snelheid zie je in Windows niet omdat KVM dat niet exporteert naar de VM. Kijk op de host maar eens naar "cat /proc/cpuinfo", dan zie je waar de CPU op draait. Standaard instelling van Proxmox is max performance met turbo boost ingeschakeld, dus idle zal je op 4.7GHz zitten.

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 15:25
_JGC_ schreef op woensdag 10 maart 2021 @ 13:34:
@TweakerVincent kvm64 is een generieke KVM CPU die op alle x86_64 CPUs zou moeten werken. Als je het maximale uit je systeem wilt halen zet je die op "host". Nadeel is wel dat je dan niet live migration kunt doen naar een andere server met andere CPU.

1.6GHz is de configurable TDP-up snelheid, ik vermoed dat daar je 1.6GHz vandaan komt. De hogere CPU snelheid zie je in Windows niet omdat KVM dat niet exporteert naar de VM. Kijk op de host maar eens naar "cat /proc/cpuinfo", dan zie je waar de CPU op draait. Standaard instelling van Proxmox is max performance met turbo boost ingeschakeld, dus idle zal je op 4.7GHz zitten.
Ok als ik shell doe dan zie ik idd hoge waardes. Maar dat is dus voor alles. Ik zet de windows machine nu op host en dan moet het dus goed gaan en moet ik die waarden skippen.

tnx

Is het dan verstand alle 12 cores toe te wijzen (host)? of beter maar 6 bv?


update:

Wel raar ik draai furmark cpu stress in de windows vm. Maar als ik dan cat /proc/cpuinfo doe zie ik maar rond de 2800 mhz en sommige iets hoger. Turbol haalt hij niet.

Kan dat betekenen dat ik performance modus uit heb? staat mij iets vna mij dat ik performance uitgezet heb vorig jaar ivm ubuntus die niks deden

[ Voor 17% gewijzigd door TweakerVincent op 10-03-2021 14:01 ]


Acties:
  • 0 Henk 'm!

  • DaRoot
  • Registratie: Maart 2001
  • Laatst online: 12-09 12:17

DaRoot

Some say...

Ik heb sinds kort eindelijk een Proxmox machine in de lucht.. ruim jaar gesteggeld, onlangs maar eens doorgezet.
Nu heb ik helaas 1 van mijn storage disks defect, in zoverre: ik kreeg vage foutmeldingen in de Openmediavault VM die erop draait.
Nadere inspectie geeft aan dat beide disks in de diskpool fouten hebben, en dat de virtual disk file voor de data opslag van OpenmediaVault een fout bevat:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
root@pve:~# zpool status -v
  pool: disk-pool
 state: ONLINE         
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.       
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.                 
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A
  scan: scrub repaired 0B in 00:03:26 with 0 errors on Sun Feb 14 00:27:27 2021
config:

        NAME        STATE     READ WRITE CKSUM
        disk-pool   ONLINE       0     0     0
          sdd       ONLINE       0     0     2
          sde       ONLINE       0     0     1

errors: Permanent errors have been detected in the following files:

        disk-pool/vm-101-disk-0:<0x1>

die pool bestaat uit 2 schijven niet in één of andere raid opstelling, meer JBOD zeg maar.. niet handig, weet ik, maar goed, ik heb er nu mee te dealen.
Beide schijven lijken me niet meer betrouwbaar, dus d'r moeten maar nieuwe komen, no problem.
Maar om dit soort perikelen iets beter op te vangen, welke opstellig zou ik het beste kunnen gebruiken?
Ik heb nu 2x 3TB dus 6TB opslag.. prijsverschil tussen 3 en 4 is niet zodanig dat ik die moet laten, mogelijk is groter ook wel interessant.
Nu lees ik ook veel over RAIDZ-1, met 3 disks dus...
Voordeel daarmee is: die kan ik aan de machine koppelen zonder andere disks af te koppelen: ik heb namelijk nog 3 S-ATA poorten vrij.
huidige setup:
1x 60GB SSD als OS disk
2x 180GB SSD als JBOD zpool voor de VM OS disks
2x 3TB HDD als JBOD zpool voor VM data disks
Nu vind ik een RAIDZ-2 met 4 disks ook geen probleem, maar kan ik dan eerst een RAID0 of 1 maken met 2 disks en dan later als de data overgezet is, de defecte disk afkoppelen en 2 extra nieuwe aankoppelen?
Edit:
overige specs:
Core i5 3470S
20GB RAM
Asrock B75 Pro3-M board

Insured by MAFIA - You hit me, we hit you!!!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DaRoot schreef op woensdag 10 maart 2021 @ 16:43:
Beide schijven lijken me niet meer betrouwbaar, dus d'r moeten maar nieuwe komen, no problem.
Maar om dit soort perikelen iets beter op te vangen, welke opstellig zou ik het beste kunnen gebruiken?
Ik zou lekker 2x 8 TB "shucken" uit de welbekende WD Elements en My Book modellen en die in een RAIDZ Mirror gooien :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
Had afgelopen week iets vaags met ProxmoxVE nadat ik had ge-update naar versie 6.3.4 -O- .

Het statisch IP adres van mijn Windows Guest machines verdwenen nadat ik een (live) migration had uitgevoerd. Terug migreren loste het probleem op of opnieuw het statische IP adres invullen.

Probleem is gelukkig verholpen in 6.3.6. *O* O ja .... mogelijk moet je dan alsnog voor de laatste keer het IP adres nog een keer terugzetten. |:(

Aanvullende info: https://forum.proxmox.com...6-3-4-patch-inside.84915/

[ Voor 26% gewijzigd door powerboat op 11-03-2021 07:16 . Reden: Nieuw inzicht na verder doortesten ]


Acties:
  • 0 Henk 'm!

  • DaRoot
  • Registratie: Maart 2001
  • Laatst online: 12-09 12:17

DaRoot

Some say...

nero355 schreef op woensdag 10 maart 2021 @ 23:56:
[...]

Ik zou lekker 2x 8 TB "shucken" uit de welbekende WD Elements en My Book modellen en die in een RAIDZ Mirror gooien :)
Is een idee, kost maar 2 disks idd..
maar RAIDZ-1 heeft dan weer ongeveer zelfde betrouwbaarheid, maar 50% meer leessnelheid, zie ook https://calomel.org/zfs_raid_speed_capacity.html
Aan de andere kant is het qua CPU belasting weer interessanter om RAID1 mirror te doen ipv RAIDZ
maar 2x 8TB drives zijn weer ongeveer gelijk geprijsd aan 3x 4TB drives.. waarbij ik in beide gevallen netto 8TB storage over houd, maar met RAIDZ-1 meer performance heb..

Insured by MAFIA - You hit me, we hit you!!!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DaRoot schreef op donderdag 11 maart 2021 @ 10:28:
Is een idee, kost maar 2 disks idd..
maar RAIDZ-1 heeft dan weer ongeveer zelfde betrouwbaarheid, maar 50% meer leessnelheid, zie ook https://calomel.org/zfs_raid_speed_capacity.html
Aan de andere kant is het qua CPU belasting weer interessanter om RAID1 mirror te doen ipv RAIDZ
maar 2x 8TB drives zijn weer ongeveer gelijk geprijsd aan 3x 4TB drives.. waarbij ik in beide gevallen netto 8TB storage over houd, maar met RAIDZ-1 meer performance heb..
Voor zover ik weet :
- Zitten 4 TB Interne HDD's ergens rond de € 90
- Kan je dus 8 TB Externe HDD's scoren voor rond de € 130 tijdens aanbiedingen.

- 3x 4 TB kom je dus op € 270 terecht.
- 2x 8 TB kom je dus op € 260 terecht.

Maar...

Bij de laatste bespaar je wel 1 SATA poort die je weer mooi kan gebruiken voor een rebuild! :*)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • DaRoot
  • Registratie: Maart 2001
  • Laatst online: 12-09 12:17

DaRoot

Some say...

nero355 schreef op donderdag 11 maart 2021 @ 16:29:
[...]

Voor zover ik weet :
- Zitten 4 TB Interne HDD's ergens rond de € 90
- Kan je dus 8 TB Externe HDD's scoren voor rond de € 130 tijdens aanbiedingen.

- 3x 4 TB kom je dus op € 270 terecht.
- 2x 8 TB kom je dus op € 260 terecht.

Maar...

Bij de laatste bespaar je wel 1 SATA poort die je weer mooi kan gebruiken voor een rebuild! :*)
Klopt ook weer..
Maar moet ook nog ff rekening houden met smr en cmr verschil..
Die externe shucken schijnt laatste tijd ook veel smr drives op te leveren..

Insured by MAFIA - You hit me, we hit you!!!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DaRoot schreef op donderdag 11 maart 2021 @ 16:35:
Maar moet ook nog ff rekening houden met smr en cmr verschil..
Die externe shucken schijnt laatste tijd ook veel smr drives op te leveren..
Zie : https://nl.hardware.info/...r-gebruik-van-smr-in-hdds ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • DaRoot
  • Registratie: Maart 2001
  • Laatst online: 12-09 12:17

DaRoot

Some say...

I know.. maar ik las her en der dat er ook SMR varianten van de HDD's in de MyBooks zitten de laatste 2 a 3 maand..
Ik waag het er liever niet op..
Ik zit nu te denken aan 3x Ironwolf 8TB van Seagate.. dan in RAIDZ-1 opstelling.. kan keurig naast de huidige 2x WD RED om de boel over te zetten.. en dan de WD-RED maar afkoppelen en apart eens testen wat er mee aan de hand is..

Insured by MAFIA - You hit me, we hit you!!!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DaRoot schreef op donderdag 11 maart 2021 @ 17:03:
I know.. maar ik las her en der dat er ook SMR varianten van de HDD's in de MyBooks zitten de laatste 2 a 3 maand..
Ik waag het er liever niet op..
Hmm... raar... :/
Ik zit nu te denken aan 3x Ironwolf 8TB van Seagate.. dan in RAIDZ-1 opstelling.. kan keurig naast de huidige 2x WD RED om de boel over te zetten.. en dan de WD-RED maar afkoppelen en apart eens testen wat er mee aan de hand is..
Seagate... JIJ DURFT!!! :+

WD/Toshiba/Hitachi voor mij en ik blijf het zonde vinden dat Samsung geen HDD's meer maakt en opgekocht is door Seagate :-(

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:57
Niks raars aan. WD stopt er in wat ze op de plank hebben liggen. Toen ik begin vorig jaar 3x WD Elements 8TB heb geshucked waren die nog met helium. Maar dat schijnt ook afgelopen te zijn, en nu gewoon air filled.

Acties:
  • 0 Henk 'm!

  • DaRoot
  • Registratie: Maart 2001
  • Laatst online: 12-09 12:17

DaRoot

Some say...

nero355 schreef op donderdag 11 maart 2021 @ 17:06:
[...]

Hmm... raar... :/


[...]

Seagate... JIJ DURFT!!! :+

WD/Toshiba/Hitachi voor mij en ik blijf het zonde vinden dat Samsung geen HDD's meer maakt en opgekocht is door Seagate :-(
Hitachi is haast niet te krijgen.. en ironwolf is niet de consumenten lijn natuurlijk..
Samsung disks was ik nooit kapot van..
IBM deskstars destijds..

Insured by MAFIA - You hit me, we hit you!!!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

RobertMe schreef op donderdag 11 maart 2021 @ 17:13:
Niks raars aan. WD stopt er in wat ze op de plank hebben liggen. Toen ik begin vorig jaar 3x WD Elements 8TB heb geshucked waren die nog met helium. Maar dat schijnt ook afgelopen te zijn, en nu gewoon air filled.
Ik heb onlangs een My Book 12 TB exemplaar gekocht en die was gewoon de Helium variant gelukkig.

De Elements 12 TB die ik al in November of zo had gekocht heb ik echter niet uitgelezen...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:57
nero355 schreef op donderdag 11 maart 2021 @ 17:20:
[...]

Ik heb onlangs een My Book 12 TB exemplaar gekocht en die was gewoon de Helium variant gelukkig.

De Elements 12 TB die ik al in November of zo had gekocht heb ik echter niet uitgelezen...
Klopt, last time I read was alles boven 8TB wel nog helium. Maar het sentiment moge duidelijk zijn. En ik meen dus ook al gelezen te hebben dat de kleinere modellen dan ook met SMR schijven zijn.

Zoals gezegd, WD lijkt er zo ongeveer willekeurig wat in te stoppen. En het liefst vaak een nieuw modelnummer zodat niemand meer weet dat de modellen betekenen en wat de verschillen zijn.
En enerzijds hebben ze daar ook "gelijk" in. De WD Elements hebben in zoverre geen echte specs natuurlijk. Het is niet dat WD veel zegt over de schijven die erin zitten, buiten de opslagcapaciteit.

Beetje hetzelfde als dat de schijven op 7200rpm zouden draaien volgens gebruikers, en WD noemt het "5400rpm class performance". Ze zeggen dus niks over het letterlijke aantal rpm, alleen waarmee het te vergelijken is.
Alleen hebben ze zichzelf uiteraard nogal in de vingers gesneden met het SMR verhaal. Aangezien daar weldegelijk "below specs" geleverd werd.

Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 18:58
DaRoot schreef op donderdag 11 maart 2021 @ 17:14:
[...]

Hitachi is haast niet te krijgen.. en ironwolf is niet de consumenten lijn natuurlijk..
Samsung disks was ik nooit kapot van..
IBM deskstars destijds..
HGST is tegenwoordig WD. De WD Ultrastar is een van de weinige overblijfselen van HGST, de rest geen idee.

Als je HGST techniek wilt moet je naar Toshiba, die hebben de Deskstar lijnen overgenomen.

Acties:
  • +1 Henk 'm!

  • DaRoot
  • Registratie: Maart 2001
  • Laatst online: 12-09 12:17

DaRoot

Some say...

het worden 3x Ironwolf 8TB.. in RAIDZ-1..
mooie combi tussen snelheid en betrouwbaarheid hoop ik..
en 15TB opslag ipv de 5,5 die ik nu heb.. ook mooie vooruitgang

Insured by MAFIA - You hit me, we hit you!!!


Acties:
  • 0 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 13-09 17:40
afterburn schreef op maandag 1 februari 2021 @ 13:56:

Ik zoek dus eigenlijk iets wat 1) goedkoop is 2) genoeg power om fatsoenlijk VM's te draaien, 3) niet vreselijk veel stroom trekt en 4) igp of pcie voor passthrough.

Hebben jullie daar een beetje suggesties voor, er vanuitgaande dat er Proxmox op moet gaan draaien?
Nuc met de hoeveelheid memory en cpu wat je nodig denkt te hebben. Dit is wat ik gebruik, maar het draait ook goed op een i5 / i3.

#CategoryProductPrijsSubtotaal
1BarebonesIntel NUC 10 Performance Kit NUC10i7FNH (EU-stekker)€ 475,-€ 475,-
1Geheugen internSamsung M471A4G43MB1-CTD€ 152,44€ 152,44
1Solid state drivesCrucial MX500 2,5" 1TB€ 89,90€ 89,90

Acties:
  • +2 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

Ik had last van IO delay op mijn Proxmox bak, vaak 5%, maar soms ook uitschieters naar 20%
Uiteindelijk opgelost door write cache op al mijn SSD's en schijven aan te zetten.

Met hdparm -W /dev/sda kan je checken of het aanstaat met hdparm -W 1 /dev/sda kan je het aanzetten. Mijn IO delay is nu 1-2%. Zeker bij een SSD als de MX500 moet dat aangezet worden, aangezien die een SLC cache heeft..

Misschien ook de oplossing voor
@scorpion303

[ Voor 18% gewijzigd door Zenix op 14-03-2021 20:32 ]


Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Laatst online: 13-09 23:14
Zenix schreef op zondag 14 maart 2021 @ 20:26:
Ik had last van IO delay op mijn Proxmox bak, vaak 5%, maar soms ook uitschieters naar 20%
Uiteindelijk opgelost door write cache op al mijn SSD's en schijven aan te zetten.

Met hdparm -W /dev/sda kan je checken of het aanstaat met hdparm -W 1 /dev/sda kan je het aanzetten. Mijn IO delay is nu 1-2%. Zeker bij een SSD als de MX500 moet dat aangezet worden, aangezien die een SLC cache heeft..

Misschien ook de oplossing voor
@scorpion303
Welk filesystem gebruik je?

Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

zx9r_mario schreef op zondag 14 maart 2021 @ 22:30:
[...]


Welk filesystem gebruik je?
ext4 en ZFS.

Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Laatst online: 13-09 23:14
Bij ZFS kun je sync=disabled eens proberen of een goede ZIL.

Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

zx9r_mario schreef op zondag 14 maart 2021 @ 22:38:
[...]

Bij ZFS kun je sync=disabled eens proberen of een goede ZIL.
Ik heb dat getest, maakte een klein verschil. Dus die heb ik weer op standard gezet.

[ Voor 17% gewijzigd door Zenix op 14-03-2021 22:44 ]


Acties:
  • +1 Henk 'm!

  • scorpion303
  • Registratie: Juni 2002
  • Niet online
Zenix schreef op zondag 14 maart 2021 @ 20:26:
Ik had last van IO delay op mijn Proxmox bak, vaak 5%, maar soms ook uitschieters naar 20%
Uiteindelijk opgelost door write cache op al mijn SSD's en schijven aan te zetten.

Met hdparm -W /dev/sda kan je checken of het aanstaat met hdparm -W 1 /dev/sda kan je het aanzetten. Mijn IO delay is nu 1-2%. Zeker bij een SSD als de MX500 moet dat aangezet worden, aangezien die een SLC cache heeft..

Misschien ook de oplossing voor
@scorpion303
Dank voor de tip. Ik heb nadat mijn issues nog erger werden (met een crashende NUC tot gevolg) en ik daarvoor geen echte oplossing kon vinden, mijn oudere SSD (Plextor M5M 256GB) maar vervangen door een nieuwe Crucial MX500 2,5" (500GB) en een nieuwe proxmox install.

Dit loste het issue direct op. Ik zie inmiddels wel de gemiddelde IO delay weer toenemen (naar zo'n 2.0-2.5 per dag gemiddeld) maar de NUC is vooralsnog stabiel.

De disk caching voor de MX500 stond bij mij echter al (by default) aan.

code:
1
2
3
4
5
root@nuc-proxmox-ve:~# hdparm -W /dev/sda

/dev/sda:
 write-caching =  1 (on)
root@nuc-proxmox-ve:~#

Acties:
  • +1 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

@scorpion303 Mooi dat het opgelost is. Het kan ook zijn dat in mijn bios het uitgezet was, maar dan moet ik weer rebooten :)

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 13-09 22:02

icecreamfarmer

en het is

Ik heb net een proxmox aangemaakt op een HP T630.
Op de ssd van 32gb heb ik proxmox staan.
Verder heb ik nog een 256 ssd.
Daar wil ik de images op draaien.
Conform dit YouTube: Virtualize Everything! - Proxmox Install Tutorial zou ik een netwerkschijf moeten maken ipv een local. Wat is dan het beste om te nemen voor een HomeAssistant VM en een Openmediavault VM?
NFC of CIFS?

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ehm, geen van beiden? Ik zou een zpool aanmaken op de schijf en die toevoegen aan Proxmox, en als je ook file storage nodig hebt voor iso-bestanden daar een zfs-dataset voor aanmaken en die toevoegen als directory. Ik heb de video niet bekeken, maar aan de comments eronder te lezen valt er wat af te dingen op de Proxmox-kennis van de maker.

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 13-09 22:02

icecreamfarmer

en het is

dcm360 schreef op donderdag 18 maart 2021 @ 21:28:
Ehm, geen van beiden? Ik zou een zpool aanmaken op de schijf en die toevoegen aan Proxmox, en als je ook file storage nodig hebt voor iso-bestanden daar een zfs-dataset voor aanmaken en die toevoegen als directory. Ik heb de video niet bekeken, maar aan de comments eronder te lezen valt er wat af te dingen op de Proxmox-kennis van de maker.
Doel is om er later een usb3 hdd aan te hangen voor de nas en plexserver.
Maar die zfs pool is dan beter?

[ Voor 3% gewijzigd door icecreamfarmer op 18-03-2021 21:51 ]

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • Luxicon
  • Registratie: Oktober 2010
  • Laatst online: 18-07-2021
icecreamfarmer schreef op donderdag 18 maart 2021 @ 21:44:
[...]


Doel is om er later een usb3 hdd aan te hangen voor de nas en plexserver.
Maar die zfs pool is dan beter?
Je kan ook 2 x SSD samenvoegen tot een ZFS Raid1, en daar zowel Proxmox, als de VM's (en ISOs > tijdelijk) op gaan installeren. 1 X SSD met een ZFS pool is ook prima natuurlijk. Dan zou je een andere interne schijf kunnen gebruiken i.p.v. de USB disk.

[ Voor 14% gewijzigd door Luxicon op 19-03-2021 12:20 ]

...


Acties:
  • 0 Henk 'm!

  • KappuhH
  • Registratie: Augustus 2004
  • Niet online
Ik heb Proxmox draaien op een NUC. Nu lijkt het er op dat Proxmox er voor zorgt dat de fan van de NUC steeds hard en dan weer zacht gaat draaien. Instellingen in de bios van de NUC lijken geen invloed te hebben op de fan. Zelfs als ik de fan daar helemaal uit zet blijft hij hetzelfde gedrag vertonen. Temperatuur is ook niet hoog. Als ik via de root inlog krijg ik met 'sensors' de volgende info:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
root@proxmox:~# sensors
iwlwifi_1-virtual-0
Adapter: Virtual device
temp1:            N/A  

acpitz-acpi-0
Adapter: ACPI interface
temp1:       -263.2 C  

coretemp-isa-0000
Adapter: ISA adapter
Package id 0:  +42.0 C  (high = +100.0 C, crit = +100.0 C)
Core 0:        +41.0 C  (high = +100.0 C, crit = +100.0 C)
Core 1:        +40.0 C  (high = +100.0 C, crit = +100.0 C)

pch_skylake-virtual-0
Adapter: Virtual device
temp1:        +40.5 C


Aan de temperatuur kan het niet liggen volgens mij.

pwmconfig geeft:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
# pwmconfig revision $Revision$ ($Date$)
This program will search your sensors for pulse width modulation (pwm)
controls, and test each one to see if it controls a fan on
your motherboard. Note that many motherboards do not have pwm
circuitry installed, even if your sensor chip supports pwm.

We will attempt to briefly stop each fan using the pwm controls.
The program will attempt to restore each fan to full speed
after testing. However, it is ** very important ** that you
physically verify that the fans have been to full speed
after the program has completed.

/usr/sbin/pwmconfig: There are no pwm-capable sensor modules installed


Iemand enig idee hoe ik de fans langzamer kan laten draaien? Het continu opspinnen maakt best wat geluid namelijk.

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 13-09 22:02

icecreamfarmer

en het is

Net home assistant draaien maar heb nu het probleem dat hij deze foutmelding geeft:
closing file '/var/log/pve/tasks/active.tmp.1022' failed - No space left on device (500)

Ik kan de VM niet eens meer verwijderen of de shell openen.
Ik heb het geïnstalleerd op een directory schijf van 256gb (aangemaakt onder de naam VM-local).
Maar proxmox geeft bij summary aan dat hij maar 7gb tot zijn beschikking heeft.
Dat is het zelfde als de Local schijf.
De local LVM daarentegen is helemaal leeg.

Wat gaat hier fout en hoe kan ik er voor zorgen dat ik niet alles opnieuw moet installeren?

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 13-09 17:40
KappuhH schreef op vrijdag 19 maart 2021 @ 13:23:
Temperatuur is ook niet hoog.
Iemand enig idee hoe ik de fans langzamer kan laten draaien? Het continu opspinnen maakt best wat geluid namelijk.
Is die temperatuur niet relatief laag omdat de fans opspinnen?
Wat is je gemiddelde cpu belasting als je fans spinnen, dat lijkt me een goede graadmeter.

Ik heb 3 nucjes staan met proxmox. En afhankelijk van het cpu gebruik hoor ik de fans wel of niet namelijk.

Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 12:05
icecreamfarmer schreef op vrijdag 19 maart 2021 @ 18:55:
Net home assistant draaien maar heb nu het probleem dat hij deze foutmelding geeft:
closing file '/var/log/pve/tasks/active.tmp.1022' failed - No space left on device (500)

Ik kan de VM niet eens meer verwijderen of de shell openen.
Ik heb het geïnstalleerd op een directory schijf van 256gb (aangemaakt onder de naam VM-local).
Maar proxmox geeft bij summary aan dat hij maar 7gb tot zijn beschikking heeft.
Dat is het zelfde als de Local schijf.
De local LVM daarentegen is helemaal leeg.

Wat gaat hier fout en hoe kan ik er voor zorgen dat ik niet alles opnieuw moet installeren?
Dat je de VM hebt geïnstalleerd op een schijf met 256GB wil nog niet zeggen je ook zoveel gealloceerd hebt voor de VM. Aangezien de VM een eigen "virtuele" schijf krijgt die leeft op die 256GB schijf.
Jij hebt vermoedelijk maar 7GB gealloceerd voor de "virtuele" schijf.

Als je nog niet te veel hebt geïnstalleerd en geconfigureerd in die VM raad ik je aan om opnieuw te beginnen.
Anders moet moet je eerst in Proxmox de hardeschijf vergroten, en dan met grub de partitie expanderen. Afhankelijk of je een SWAP partitie hebt en waar die zit is dat nog niet zo gedaan.

Je kan de grootte van de "virutele" schijf controleren in de hardware tab van je VM.

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 13-09 22:02

icecreamfarmer

en het is

maxxie85 schreef op vrijdag 19 maart 2021 @ 19:07:
[...]


Dat je de VM hebt geïnstalleerd op een schijf met 256GB wil nog niet zeggen je ook zoveel gealloceerd hebt voor de VM. Aangezien de VM een eigen "virtuele" schijf krijgt die leeft op die 256GB schijf.
Jij hebt vermoedelijk maar 7GB gealloceerd voor de "virtuele" schijf.

Als je nog niet te veel hebt geïnstalleerd en geconfigureerd in die VM raad ik je aan om opnieuw te beginnen.
Anders moet moet je eerst in Proxmox de hardeschijf vergroten, en dan met grub de partitie expanderen. Afhankelijk of je een SWAP partitie hebt en waar die zit is dat nog niet zo gedaan.

Je kan de grootte van de "virutele" schijf controleren in de hardware tab van je VM.
Dat dacht ik ook maar daar heb ik dus rekening mee gehouden.

Die staat op 56gb voor die vm.
Ruim genoeg voor home assistant.

Echter lijkt hij qua grootte gekoppeld te zitten aan de kleine local schijf van proxmox.

Plus als ik hem herinstalleer wat moet ik dan doen om dit probleem te voorkomen?

Zover ik weet heb ik het volgens het boekje gedaan.

Edit in plaatjes:
Afbeeldingslocatie: https://tweakers.net/i/1HjbpTssP5jq86tfXfZO_qFm4dI=/800x/filters:strip_exif()/f/image/rE2Xlk0DlVk2DOZtmU6uc04Q.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/Xh7VantQD1cjlCyMv8uot_byqiw=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/K15EG7VXBJWkurSCCKfrwBoS.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/hcJiwqIjVg628X8X1T9xh_tTgVQ=/800x/filters:strip_exif()/f/image/x4xGTyEXwrdBXbMPePlyDa4q.png?f=fotoalbum_large

Er is dus genoeg toegewezen. De schijf wordt ook volledig gezien echter lijkt hij vervolgens maar 7gb ipv 256gb te hebben?

Opgelost. Ik snap geen reet van al dat mounten. Daar ging het fout.
Nu dit gebruikt:
https://nubcakes.net/inde...o-add-storage-to-proxmox/

[ Voor 33% gewijzigd door icecreamfarmer op 19-03-2021 22:14 ]

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 13-09 22:02

icecreamfarmer

en het is

Luxicon schreef op vrijdag 19 maart 2021 @ 12:08:
[...]


Je kan ook 2 x SSD samenvoegen tot een ZFS Raid1, en daar zowel Proxmox, als de VM's (en ISOs > tijdelijk) op gaan installeren. 1 X SSD met een ZFS pool is ook prima natuurlijk. Dan zou je een andere interne schijf kunnen gebruiken i.p.v. de USB disk.
Ik gebruik nu een thinclient. Heel luxe is het allemaal niet.
Heb 1 ssd van 32gb met daarop proxmox os draaien.
En heb een andere ssd van 256gb welke ik voor data, iso's, VM's etc wil gebruiken.

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 15:25
Ik lees op diverse plekken dat upgraden niet zomaar gaat. ik draai 6.1.7. Ik ga parallel een dev env opzetten op mijn mac mini waar ik kan troubleshooten. Kan ik tegen veel dingen aanlopen bij upgraden? Ik backup alle VM's naar een netwerk share dus volgens mij moet ik wel veilig kunnen backuppen (wat ik dus met de sandbox proxmox wil gaan uitproberen). of gaat het toch echt niet zo simpel?
Pagina: 1 ... 15 ... 61 Laatste