RobertMe schreef op woensdag 5 maart 2025 @ 11:59:
V.w.b. support dus 50/50. Ja, intussen wordt er "echt" naar gekeken neem ik aan (gezien de nieuwe route). Maar dat er steeds een dag over nieuw antwoord heen gaat is wel "shitty".
Of ik dan deze week nog ga cancellen weet ik niet. Als ze er echt naar kijken wil ik best verder helpen en "blijven". Maar momenteel as is ga ik de VPS niet gebruiken, en heb ik deze dus ook niet geïnstalleerd, en zou een "hier heb je geld terug totdat het werkt" IMO wel netjes zijn. Nog even kijken dus hoe ik dat ga aanvliegen.
Intussen weer een goede twee weken verder. Contact is "dood gebloed" met van hun kant als laatste een "het is doorgezet naar de netwerk afdeling". Dat ik iperf heb opgezet (thuis en op Contabo VPS) is dus verder geen reactie meer op gekomen behalve dan dat het was doorgezet. Vervolgens heb ik wel nog 1 of 2 mails gestuurd, o.a. dat mijn thuis IP (gek genoeg) veranderd was (gebeurt echt "nooit", maar blijkbaar nu wel) en dus het nieuwe IP doorgegeven, en had modem reboot gedaan waardoor ook de Ziggo snelheidsupdate was doorgevoerd van 200 down naar 250 dus dat ook maar er bij gezet.
Dat het intussen 400/40 is heb ik hun nog niet eens over geïnformeerd, ik zat toch nog steeds op hun te wachten. En gek genoeg, lijk ik met die 400/40 wel een iperf3 te kunnen doen waar een snelheid van 200+ uit komt, maar ook daar niet het maximum (IIRC 300-350). Terwijl een run van thuis naar een publieke server prima 390 of meer doet. Het lijkt dus eerder alsof het verkeer gek gesegmenteerd wordt, waardoor er veel meer protocol overhead is of zo (bedenk ik me nu ik dit type).
En de gewijzigde traceroute die ik op een gegeven moment zag..., die zie ik niet meer. Verkeer gaat weer continu via Wenen.
Afgelopen week de VPS wel maar weer opnieuw opgezet, voor ZFS on root met Debian. Dit keer wel gelukt. In de handmatige stappen zit (altijd) een quirk waardoor de
zpool export faalt (heb ik op alle systemen gehad waarop ik dit doorlopen heb). Gevolg daarvan "zou moeten zijn" dat de import tijdens boot mislukt (laatst geïmporteerd op een anderr systeem) waarbij je op de rescue shell (in initramfs) wordt gedropt, je de import kunt forceren en weer verder kunt booten. Ik had nu daarbij een gewone reinstall gedaan (vanaf netinstall medium die Netcup netjes beschikbaar stelt, hoeft maar te klikken om die aan te koppelen) maar dan met de installatie op de laatste 10GB van de disk en de rest vrij. En vervolgens vanaf die installatie de "ZFS on root" stappen doorlopen. Faalde uiteraard nog steeds, maar het viel me toen wel op dat ook bij die installatie er na Grub geen beeld was, tot vervolgens even een korte flits wat leek op systemd direct gevolgd door de login prompt. Wat mij het idee gaf dat er puur geen beeld was in combinatie met de falende import. Dus vanaf die installatie een import (werkte direct, zonder te "forceren"), vervolgens de export, reboot, en tada, een login prompt vanaf de installatie op ZFS.
En vervolgens die 10GB partitie verwijderd en de ZFS partitie groter gemaakt.
Alleen..., loop ik nu weer tegen een nieuw probleem aan

Namelijk IPv6. Ze geven een /64 adres uit. Maar blijkbaar routeren ze niet de /64 naar de VPS

. De VPS heb ik op de prefix maar /72 gezet. Dit geeft dus nog 8 bits om te segmenteren. Waardoor ik Docker met IPv6 kan gebruiken (in die 8 bits). Waarbij containers dus rechtstreeks aan het internet gehangen kunnen worden met een GUA adres. Alleen..., kan ik die containers niet eens pingen. Wat er blijkbaar, altijd, gebeurt is dat de router van Netcup een neigbor solicit ("ARP request" bij IPv4) de deur uit doet voor het "onbekende" IP adres. Alleen kan mijn VPS hier "niks mee". Want de "fysieke" interface heeft bv <prefix>::1. Maar mijn reverse proxy draait in een container op <prefix>:8000::80. Vervolgens komt er op de "fysieke" interface een neighbor solicit voor <prefix>:8000::80 waar de VPS niks mee kan, want dat IP adres kent hij niet, op de interface waarop de solicit binnen komt (/uberhaupt niet. Maar er is wel een bridge en een virtuele interface voor <prefix>::8000::/72). Dus daar antwoord die niet op.
Dus bv een ping naar dat IP adres resulteert in een router van Netcup die antwoord met een "Unreachable address". Terwijl bij Contabo dit prima werkt. Daar zal gewoon altijd de prefix gerouteerd worden. Dus gewoon alles van <prefix>::/64 gaat naar de VPS en die zoekt het zich maar uit wat die er mee doet. En naar mijn idee is dat ook een stuk logischer.
En waarschijnlijk is dat ook nog eens een stuk veiliger. Want ik nu met tcpdump ook solicits voorbij komen met IPv6 adressen (GUAs) die helemaal niet van mij zijm (met grapjes zoals "c0de:cafe"

). Dus waarschijnlijk kan ik mijn VPS ook laten antwoorden op zo'n IP (/gewoon dat IP statisch toekennen) en komt dat verkeer dan ineens op mijn VPS aan?!
Simpel te zien verschil tussen Contabo en Netcup is dan ook dat als ik bv <prefix>::2 ping, dat niet in gebruik is, ik bij Contabo een Unreachable address krijg van op <prefix>::1, mijn VPS, en bij Netcup een totaal ander IP (dat in een traceroute uiteraard direct voor mijn VPS zit (/laatste hop voor de VPS). En dus ook dat als ik een tcpdump draai bij Contabo mijn VPS (alleen) de echo request ontvangt, zelf op zoek gaat naar dat IP (zelf een neighbor solicit de deur uit doet) en dan ook zelf de Unreachable address de deur uit doet. Bij Netcup daarentegen resulteert die ping naar <prefix>::2 (alleen) in een neighbor solicit voor <prefix>::2. Waar de VPS (/geen enkele VPS) dus op reageert en de hop/router die de solicit doet dus de Unreachable stuurt.
Nu kan ik daarover wel weer contact opnemen hoe dat zit. Maar dan heb ik intussen toch zoiets van "waarom zou ik de moeite doen?", in combinatie met mijn vorige ticket dat dus nog steeds open staat. En de implicaties van dat de prefix niet direct aan de VPS is gekoppeld, maar het gebruik van een neighbor solicit, geven mij nu ook niet echt vertrouwen (als in: mogelijk om een IP uit andere prefix in/over te nemen?!

).
Maar, lang verhaal kort, ben ik nu wel benieuwd hoe het IPv6 stuk bij andere providers (Hetzner bv) in elkaar steekt. Wellicht dat anderen dus eens een ping kunnen doen naar een niet in gebruik zijnd IP binnen hun prefix, en aangeven of de "From ..." dan het IP adres van de VPS is of een ander IP adres (in een ander subnet).