HunterPro schreef op zondag 15 januari 2006 @ 03:14:
[...]
ja, want er zijn altijd dezelfde windowmanagers geweest, vier jaar geleden werkte een grafische shell op linux echt net zo soepel als windows! not dus. Vroegah toen KDE nog niet zo hip als nu was, en je nog met windowmaker etc werkte, was de hele GUI echt een ramp. Zowel qua gebruikersgemak als qua stabiliteit trouwens.
Ik ben begonnen eerst met Slackware daarna met een Redhat 5.0. Idd, de GUI is veranderd, RedHat 5.0 had een nogal spartaans uitzicht maar toch, het is niet enkel de windowmanager dat ik vergelijk. Als je nu Windows 95 installeert dan zul je toch ook zeggen: dat is lelijk. Het heeft echter in mijn ervaring altijd onder linux soepeler gewerkt op dezelfde hardware (ik had een 486 met 16mb ram dual booting Windows 95/DRDOS en Linux om te beginnen). Om het te verbeteren heb ik toen nog de memory manager van MSDOS in Win95 vervangen door die van DRDOS. Veel mensen zijn echter begonnen op een oude pc Linux te installeren en een nieuwe pc windows te draaien, inderdaad merk je dan wel het verschil. Ook zijn er zooooveel Wintendo's in het rond die Winmodems en andere zooi hebben. Ik heb altijd deftige hardware gehad omdat die ook onder Windows sneller en stabieler werkt. De driversupport onder Windows voor GOEDE hardware (denk aan RAID controllers, SCSI controllers, VLB) is altijd al spartaans geweest terwijl die gewoon ingebouwd werd/wordt in de kernel. De proprietary (denk aan HSF, HCF modems, Promise) is nooit goed geweest onder Linux omdat de fabrikant gewoon geen gegevens geeft.
daar is windows consequenter in dan linux - alleen al de locaties van scripts en configfiles verschilt tussen Redhat en Debian al enorm.
/boot, /etc, /usr etc. etc. altijd dezelfde locatie's onder alle Linux/Unix die ik al tegengekomen ben. Inderdaad de specifieke locatie kan veranderen maar valt nogal gemakkelijk uit te vinden.
Nogal wiedes als je broncode meeneemt. Een windows 3.11 applicatie doet het nog steeds onder Windows XP. Als jij een binary meeneemt van een PowerPC naar een Sun gaat dat behoorlijk op z'n muil hoor.
Met POSIX bedoel ik het volgende: Shared memory, pipes, IPC, awk, grep. Ik maak een degelijk programma POSIX compliant onder kernel 2.2 en het draait nog steeds onder 2.6 of Unix. Er zijn wel programma's die niet draaien onder andere kernels maar deze maken meestal gebruik van kernelspecifieke functie's, hetzelfde met shell scripts en andere. En ik zou graag een Windows op een Sun, Alpha of PowerPC draaien maar guess what: er is geen... broncode, mogelijkheid om een stuk van de kernel aan te passen... Ik ken weinig programma's die vb. de TCP/IP stack van DOS gebruiken die nog onder Windows XP draaien
is dat een voordeel? Als je dat doet, heb je enoorm veel rommel-modules en een niet-geoptimiezede kernel (eentje die niet geoptimaliseerd is voor de microcode-trucjes die je proc biedt). Dat kan je procenten schelen in performance. En windows is een consumenten-app - die switchen niet meer terug naar andere hardware.
Ik weet niet of je de Linux kernel kent, maar de optimalisatie's worden automatisch geactiveerd bij een match van de processor zo ook de ACPI om oa. cpufrequentie aan te passen. Alles is modulair op elkaar geplugd en wordt geladen en ontladen indien nodig. Als je bepaalde modules wil optimaliseren voor je CPU kun je dat altijd doen (en meeste modules hebben hier zelfs opties voor), je moet zelfs je volledige kernel niet hercompileren en eventueel nog zelfs de module niet.
waar is dat anders dan onder Windows? En dan noem ik expliciet XP, omdat jij het ook over last-gen verhalen hebt zoals Fedora met grafische tools etc. Back in tha days als je een VGA-kaart verving was het compileren tot je omviel om het weer in X werkend te krijgen. Niet gewoon de CD erin en de driver installeren zoals in WIndows - al dan niet in safe mode.
Back in tha days moest ik mijn XFree86.conf aanpassen en een modulestring aanpassen (ook onder mijn RH5.0), dat was alles, X heeft altijd al modules gebruikt voor de VGA kaart en die moet je misschien hercompileren (alhoewel ik het nog nooit nodig had), de kernel moest wel de module aanwezig hebben en dat zit dan weer meestal in een standaard kernel niet hardgebakken maar als module zodanig dat dit bij reboot gededecteerd wordt. Gelieve te spreken als je er iets over weet. Als ik onder Windows mijn grafische kaart verander moet ik inderdaad in safe mode gaan, heb ik conflicten bij de normale boot met een multitude aan programma's en zoals ik zeg, teveel hardware verbouwen en ik mag ofwel herregistreren of ik krijg een BSOD tijdens het booten met een of andere vage foutmelding.
tja, eyecandy door 3rd parties gebouwd. Heb je ook voor windows, sterker nog , die apps zou je met wat hack-'n'slash-werk naar de windows IDE mogelijk ook wel op windows kunnen draaien.
Gelieve uit te wijzen waar de VOLLEDIGE Windows IDE inclusief broncode staat zodanig dat ik oa. Word format perfect in kan uitlezen onder gelijk welk programma alsook terug schrijven, gelijk welk programma kan aansturen, een universele plugin voor gelijk welk protocol maak..., zoek eerst eens uit wat DCOP en KIO-slaves zijn en leg dan uit waar ik het kan vinden voor Windows.
die laatste heb ik ook met ubuntu

same for the 'nieuw gezicht' factor trouwens, is gewoon een themaatje/skinnetje. Doen ze ook bij bijv Ubuntu.
Thema's/skin kan ik nog verstaan maar ik bedoel de algemene locatie van configuratie's (ook onder de GUI) en andere. De opties in KDE en GNOME zijn uitgebreid, de basis staat nog steeds op dezelfde plaats.
Daarvoor heeft de wereld failovers, maar vooral 'buiten kantoortijd' uitgevonden. En een goed afgerichte machine is echt binnen een minuut weer gereboot. Als het écht moet zelfs binnen de standaard timeout.
Leg eens uit aan de gemiddelde manager waarom hij 2 IBM iSeries (ja, deze met Linux) of 2x AIX moet kopen om een "failover" te krijgen. Buiten kantoortijd draait de gemiddelde e-winkel nog altijd en een database is gemiddeld NIET gereboot binnen de minuut. Webservers kan ik nog begrijpen om te failoveren, storages al helemaal niet en databases, mainframes... what you say? reboot? Er zijn echter wel mensen die "kritieke" applicaties op commodity hardware (Maxtor IDE schijven en software raid etc.) draaien maar dit zou zeker de trend niet mogen zijn.
imo stemmingmakerij - je geeft niet aan waar je het nu over hebt, 3rd party software os MS-eigen, en wat jij als gaten ziet. Klinkt meer als een punt om de discussie jouw kant op te slingeren dan een argument aan te dragen.
Gaten... waarom is er in hemelsnaam scripting aanwezig in mijn media player, e-mailsoftware, browser (de grootste verspreidingen van virussen en malware). Ik wil de informatie krijgen en zelf interpreteren, ik wil niet dat er iets binnenkomt, er iets buiten mijn weten om gebeurt vanwege een "scriptje" en dat allemaal van iemand die ik niet ken. Waarom zit er in een standaard Windows 2003 installatie (bedoeld als server toch) een Windows Media Player, Messenger of Internet Explorer? Sinds er enkel Remote Desktop is om de meeste dingen aan te sturen wordt het al snel "gebruikt" door de "junior administrator" om iets te vragen aan iemand anders (work-related of niet).
alle bestanden die kritiek zijn voor het OS bevatten een digitale handtekening en middels diverse tools kan er met 1 druk op de knop bekeken worden waarmee gerommeld is en van CD de originele files teruggezet worden. Voor linux moet je werken met een 3rd party tool 'chkrootkit' die allemaal obscure informatie uitpoept die je maar beter naar een textfile kunt dumpen voor inspectie, want uiteraaaard komt er beneden aan de lijst geen summary van mogelijke problemen te staan, stel je voor. Die mag je trouwens ook met elke scheet updaten, en als de eventuele indringer ook maar iets met je internet heeft gedaan kun je daar dus ook voor geen meter op vertrouwen.
Wel, zo'n dingen bestaan uiteraard ook voor Linux (een image-cd terug te zetten, digitally signed files) zelfs voor niet kritieke bestanden als ik het wil, ik kan het zelfs automatiseren met rsync en ik moet nog nooit rebooten (misschien services herstarten of modules herladen). chkrootkit geeft in mijn ervaring redelijk coherente informatie en firewall rules, virusscanners moet je toch ook elke dag updaten? En als er een virus/hacker in een Windows systeem zit kun je taskmanager ook niet meer vertrouwen maar je moet wel meestal rebooten bij een herstel. Daarnaast heb ik maar weinige rootkits gevonden die niet coredumpen bij het veranderen van kernelversie gewoon omdat deze functies gebruikt die de standaard overtreedt om buiten de normale werking te treden en dus niet zomaar eventjes universeel is. Een programma die goed geschreven en zich aan de regels houdt draait gewoon door zelfs al verander je de kernel.
ook weer een aanname en maar hoe je het bekijkt. Onder linux kan ik zonder enige compilerkennis wel iets gemeens inbouwen in bestaande scripts, dat gewoon on-boot meegaat. Onder windows is dat net ff pittiger. Maar, imo zijn beide even vatbaar voor virussen, en zijn een hoop Linux-beheerders er compleet niet op voorbereid, wat wil zeggen dat stiekem linux potentieel vatbaarder is (op professionele systemen) dan Windows.
Na 2 jaar ervaring in een datacenter constant fouten herstellende van "beheerders" vind ik dat de gemiddelde beheerder inderdaad geen klop van zijn systeem kent, daarnaast vind ik dat Linux beheerders wel meer kennis van zaken hebben als ze hun werk doen en bijleren, daarnaast zijn ze meestal ook op de hoogte van andere systemen zoals Windows en netwerken.
die zin mag je uitleggen

Ik bedoel dat voor XP de meeste installatie's op DOS gebaseerd zijn
Na XP zijn ze op NT gebaseerd
Nog geen enkele Windows is bij release helemaal opnieuw opgebouwd terwijl de kernel bij elke major release (2.2 -> 2.4 -> 2.6) opnieuw opgebouwd wordt met kennis van de vorige release, dit resulteert dat dezelfde fouten bij een nieuwe release in het algemeen niet herhaald worden en dus een patch nodig hebben. Hetzelfde geldt voor X, KDE etc., ze zijn allemaal wel eens opnieuw gestart.
Die op hun beurt het grapje weer van Xerox hebben afgespiekt. Overigens is KDE echt een late speler hoor, Windows bestond al eind jaren 80 met het huidige windowing-model.
Inderdaad, gestolen van elkander, Windows 2 had echter geen overlappende vensters terwijl de Commodore 128 dat wel had. De eye-candy in Vista is gebaseerd op het Aqua model van Apple. Ik bedoel dat Microsoft altijd achterloopt met gelijk welk product, het enorm kan marketen op niet-altijd-nette-manieren en dan met de eer gaat lopen in eigen veld (mensen die andere systemen gebruikt hebben weten natuurlijk beter, maar de gemiddelde beheerder, consumer, moeder-van-tweaker)
niet waar - je moet alleen opnieuw activeren. En als jij je netjes aftegrainde kernel in een voor 80% ander systeem prikt, met bijv SATA ipv PATA, krijg jij ook echt wel kernelpanics.

Zoals hierboven gezegd: modulaire kernels. En ik heb op Windows nog geen enkele manier gevonden om mijn kernel aan te passen
untrue, een windows XP systeem kun je out of the box tot in de puntjes remote beheren. De volledige management console kun je remote mee werken. Je kunt remote services starten en stoppen, je kunt remote opdrachten geven, je hebt administrative shares, en als dat niet werkt kun je altijd nog met de terminal services client remote console pakken. En ja, geen remote text-console. Wil je weten waarom? windows heeft geen text-console nodig om beheerd te worden, elke windows-XP machine beschikt over alle tools om een andere machine op afstand te beheren.
En ik heb een 56k modem (echt waar, ik krijg hier geen breedband) en ik heb geen VPN verbinding/teveel overhead... daar gaat je beheerbaarheid (reken maar dat dat enorm kan schelen als je 24/7 kan opgebeld worden voor een probleem om eventjes over en weer naar het kantoor te gaan of net niet). Poortje veranderen om die mooie beheerbaarheid te krijgen? Longhorn/Blackcomb ging daar verandering in brengen, laten we hopen.
daar is vbscript voor :)en goh, als je een goed script wilt bouwen om 300 servers te behandelen, heb je kennis van zaken nodig. Mag verdikkeme hopen dat je kennis van zaken hebt als je het beheer hebt over 300 servers zeg.
Meestal worden zo'n dingen niet gevraagd om eventjes een dagje bezig te zijn een goed script te bouwen en een stuk programmeertaal ala Perl of PHP uit te zoeken. Ik wil het doen omdat mijn baas dat binnen het half uur wil gedaan hebben en ik heb momenteel de tijd, kennis en beschikking heb over... command line scripting (bash, command.com, batch files hoe je het ook noemt) zowel over Windows 2000 als Windows 2003 servers. De service die ik moest aanpassen is echter bij quasi alle Linux distro's gestandaardiseerd (Red Hat, Gentoo EN Debian) en zoniet heb ik altijd nog find of locate. Er moest remote ingelogd worden met gegevens in een excel bestandje, een file moest gekopieerd worden over het netwerk van een andere locatie, een andere overschrijven en dan de service herstarten. Het is gelukt met 3rd party software.
De GUI op de server is niet nodig. Leuke is dat zolang je server uitgelogd is, er ook helemaal geen zware GUI oid geladen is. En die heb je ook niet nodig, want zoals ik al aangaf kun je alles met - voor windows maatstaven - behoorlijk standaard tools beheren, remote of op locatie.
Inderdaad de GUI is niet nodig en zoals je zelf zegt: binnen Windows maatstaven, niet binnen de gemiddelde IBM Mainframe specialist zijn maatstaven. Maar de meeste beheerders hebben de kennis gewoon niet en/of de beschikking niet over de o-zo-mooie beheerderstools over vanwege verbinding, beveiliging of andere. Daarentegen wil ik gewoon over 1 TCP/IP-poort communiceren voor remote beheer omdat dat meestal ook het enige dat is toegelaten, 1 verbinding. Andere protocollen (poort 138, 139) of soorten verbinding worden gewoon geblokkeerd.
En daarom was de eerste OS-X zo crappy dat de mensen die het kochten en er professioneel mee moesten werken bijna huilend maar weer op 9 zijn overgestapt.
Geen probleem gehad met OS-X 10.1 en draai het nog steeds. Professioneel stap je ook niet over naar de laatste nieuwe gadget (er draaien nog veel servers op Windows 2000 of NT4).
WHAT?!?! mag ik je even in je gezicht uitlachten. Macs crashen, en hard. Ten tijde van 9 ook nog zonder enige reden, gewoon *poof* drie uur werk weg. met OS-X is het íets beter geworden, maar als je serieus gebruik maakt van alle power in je macje, bijv met beeldbestanden van een paar honderd meg, en projecten Quark, is het echt een ramp.
Nog nooit geen problemen mee gehad en ik ken een paar mensen die professioneel met de Mac werken (servers maar ook Quark, Photoshop). Het enige probleem dat ik met Apple ondervonden heb is dat eenmaal je harde schijf begint te gaan, het OS inderdaad begint te hangen maar dat neem ik aan is voor elk OS.
programmeurs zijn niet logisch en menselijk. Het zijn programmeurs, die dingen op hun manier oplossen. Grotere mailinglists zijn vaak gemene sneren over en weer over hoe iets opgelost moet worden. Linux voor 2004 was alles behalve gebruikersvriendelijk, en was zeker geen gestroomlijnd OS dat uit zichzelf wel duidelijk werd. Veel google was vereist (als je dat al kon bereiken) om de fijne kneepjes te pakken te krijgen. Met ubuntu is het *redelijk* aan kant, maar nog niet helemaal. Teveel third party rommel zonder duidelijke development-richtlijnen. Dingen die MS en Apple wel goed doen.
Ik ben programmeur (als hobby en soms professioneel) en voor mij is de denkwijze dus aannemelijk. Niet alles hoeft voor mij gedocumenteerd te zijn zeker niet als het voor mij persoonlijk is. En je moest inderdaad pre 2.4 vanalles uitzoeken (2004 vind ik wel laat om te zeggen dat het niet gebruikersvriendelijk was) maar sinds 2.4 is dat allemaal imho verbeterd. Misschien is het omdat ik zelf de kromme denkwijze van een programmeur heb maar ik heb de pre-release 2.4 versie van Caldera (ja SCO's) Linux gebruikt en vond die toch enorm aangenaam werken, documentatie om een kernel te hercompileren was compleet en elke module in de kernel stond redelijk duidelijk wat het deed.
en daar zit de crux - het zijn allemaal gebruikers, allemaal mensen, met allemaal wensen. Het resultaat is applicaties met een codebase met vier tot 20 verschillende programmeerstijlen waardoor bugs sneller ontstaan. Mensen doen aanpassingen op aanpassingen en verhacken hacks weer omdat ze niet snappen wat er gebeurt in de oorspronkelijke code omdat ze eigenlijk niet weten wat ze aan het doen zijn. Maar, in de wereld van de harige penguin is iedereen programmeur, en kan iedereen contributen. Helaas ook soms met slechte gevolgen.
Hangt af wie of wat het programma beheert. Als ik in een professionele omgeving kijk en de project manager veegt er zijn figuurlijke broek aan krijg je dezelfde resultaten voor gelijk wat je maakt. Ik vind de Kernel, X.org, Gnome en KDE enorm goed beheerd en er bestaan inderdaad branches die al dan niet een eigen leven beginnen leiden maar dit geeft een enorme diversiteit (snelheid, latency, security) waarvan de codebase dan weer in het main kan worden gebruikt. Dat is nu het mooie aan Open source is dat iedereen kan aanpassen en elkaars (geperfectioneerde) code kan gebruiken zelfs al werk je met duizenden aan een project. Als jij een slecht stukje kernel code schrijft omdat je niet weet wat je doet gaat dit echt niet in de kernel terecht komen net zoals een slecht geschreven wetenschappelijk paper niet in Science of Nature gaat terecht komen (peer review). Een stuk slecht geschreven software voor Windows of gelijk welk commerciele software gaat er gemakkelijker door omdat er juist minder peer review is (een team bestaat uit wat, 10-20 programmeurs die zo snel mogelijk hun eigen ding moeten doen, 1 of 2 project managers die een bachelor in bedrijfsleiding hebben en een paar debuggers/integrators die oa. andere programmeurs moeten aanporren sneller te coden zodat ze alles kunnen integreren in het geheel)
aanname, aanname, aanname. Je geeft geen feiten weer maar een mening. Windows is denk ik de applicatie waar de meeste social experts, psychologen, usability-experts en dergelijk volk aan te pas komen. Daarom kun je een kleuter achter windows XP zetten en em word laten opstarten. Onder linux lukt dat nog wel - maar een printer installeren wordt al heel wat spannender. Zeker als je dan die printer ook nog eens over het netwerk wilt delen. En ja, daar zijn inmiddels oplossingen voor onder linux, maar lijkt dat tooltje nou niet heel erg op de manier dat windows het al jaren doet?

Ik heb nog nooit een kleuter iets weten doen op een PC (behalve spelletjes door de ouder opgestart) en ik kan aannemen dat je die kleuter kan trainen om een kernel te hercompileren zolang hij maar de juiste toetsen in volgorde herkent. Een printer installeren (ook over netwerk) met de huidige tools is letterlijk kinderspel onder Linux (CUPS anyone?) alsook het delen over het netwerk of het printen naar een ander netwerk (of een netwerk printer of batch printing of clustered printing) en CUPS noch de CUPS tool onder KDE of Webmin lijkt op de applicatie in Windows integendeel, alles wat moet geconfigureerd worden staat op 1 pagina ipv. altijd next next, driver, next ok te klikken. Er is met moeite ondersteuning voor UNIX printing onder Windows.
Volgens mij heb je een beetje utopisch beeld van hoe een softwarebouwer in elkaar steekt. Mensen willen vooral geld verdienen, ook OS-X is geen levenswerk van davinci.
Ik weet niet compleet hoe een softwarebakker in elkaar steekt en ik moet ook mijn brood verdienen maar ik werk liever bij Pixar dan een ander grafisch bedrijf... waarom.. bezoek eens hun gebouwen en vertel het dan eens. Hetzelfde met Apple, ik vind het een enorm hip bedrijf - de werksfeer is aangenaam. Ik woon in de VS en ik heb met die mensen gewerkt (niet bij Apple zelf). Maar als je de geschiedenis kent van de ontwikkeling van de 747 en mijn vergelijking van Apple of gelijk welk bedrijf die volgens die standaarden werkt dan zie je het verschil met hoe Microsoft of gelijk welk klassiek softwarebedrijf werkt (ik ben baas, jij kleine baas en jij werkman) die na enorme aantallen papieren en vergaderingen met dezelfe mentaliteit (je mag iets zeggen maar ik luister toch niet omdat ik het beter weet vanwege mijn Industrieel en Burgerlijk Ingenieur diploma) uiteindelijk iets gedaan krijgt. Ik heb ooit voor een bedrijf zoals dat gewerkt en de baas/managers hadden die mentaliteit van hun "ervaring" bij Microsoft overgenomen (er waren zelfs "managers" die rechtstreeks van Microsoft kwamen)
Dan hoop ik dat je beheerder bent, en geen persoon met verantwoordelijkheden verder dan z'n eigen toetsenbord. Want je bent wel heel erg extremistisch anti-microsoft. Het druipt gewoon van je reply af. Ik gebruik alle drie de omgevingen voor m'n werk - beheer en verbeter zowel mixed environments met windows (2000 en XP), X-serves, Mac werkstations, Linux en AS/400, als netwerken die puur op 1 OS draaien. En wil ook echt niet voor het windows kamp kiezen. Maar Linux is echt niet zo enorm superieur over anderen imo. En OS-X is ook geen god. Eigenlijk is het allemaal crappy maar is het de keuze met welke non-functionaliteit je het best kunt leven. Op dit moment ben ik erg richting apple aan het hangen. Maar als ik morgen een PB koop zal ik mogelijk em met een half jaar alweer verkopen omdat ik het kudt vind. Who knows

Ik ben beheerder en inderdaad verantwoordelijkheden naar klanten en managment toe. Ik heb in de hosting geweest van zowel Windows als Linux producten (klant is beheerder, bij probleem betaal bedrijf en ik mocht het dan oplossen) Ik ben inderdaad anti-Microsoft gevormd. Ik had indertijd ook alleen maar kennis van MS-producten en ik wist niet dat er iets anders bestond totdat mijn nonkel dat uitwees.
Daarna heb ik het MOETEN gebruiken naast mijn grote interesse voor andere producten en de manier waarop ze werken, iets oplossen of iets aan de man brengen of het door de strot duwen van bepaalde bedrijven dmv contracten heeft mij een afkeer doen krijgen.
Linux vind ik superieur over Windows zeker voor servers en andere professionele doeleinden. Er bestaan anderen ook (Solaris, HP-UX) maar deze zijn zo verschrikkelijk duur dat ik ze enkel in gespecialiseerde omgevingen gezien heb maar toch, een AIX machine met 4 jaar uptime vind ik toch... mooi, maar ik kan geen licentie noch de hardware voor thuis betalen. Mac OSX is geen god maar zeker de moeite waard vooral voor workstation gebruik. Mijn gebruiksvriendelijkheid ligt echter meer bij servers, services, programmeren en integratie en het is imho Linux die daar uitsteekt, Novell heeft ook hele mooie software voor intra-netwerken maar daar houd ik me minder mee bezig.
Daarom vind ik voor de bovenstaande redenen Linux enorm veel gemakkelijker werken. Mijn idee, als jij om een of andere reden Windows gemakkelijker werken vind kan ik dat aannemen. Het gemakkelijkst werken vind ik Mac OS X maar zoals ik zeg, ik vind het niet leuk dat ik daar speciale hardware moet voor aanschaffen en enkel bij hun terecht kan voor gelijk wat.
Mijn perspectief is vanuit een beheerders standpunt die 's nachts wakker gemaakt wordt als er een probleem is. Als ik het dan vanuit mijn bed over een 56k lijn kan oplossen vind ik dat super. Moet ik opstaan en mijn kleren aantrekken en met de auto een eind gaan rijden of een taxi huren om mij eerst binnen het beveiligde netwerk te brengen om dan het remote beheer via menuutjes uit te vissen vind ik het minder leuk
Als iemand dan zijn netwerkkaart "uitgeschakeld" heeft is het helemaal in orde. Onder Linux moet je die gewoon (hard) rebooten, alles in orde, onder Windows moet je lokaal aanloggen en de boel terug aanschakelen zelfs na een reboot.