Disclaimer: Ik vond het topic an sich niet passen in een subforum zoals electronica of 'complete systemen', maar gaarne een kick in de juiste richting geven als het hier niet op zijn plek is.
Ik ben benieuwd naar jullie mening, visie, input en ervaringen op dit onderwerp...
Al sinds jaar en dag speel ik graag met 'oude meuk' uit mijn computerhistorie. Voor veel mensen begint dat al zo ver terug als de Atari's, ZX Spectrum, Commodores, maar ook VAX systemen bijvoorbeeld. Voor mij begon het pas echt met een 8088 met wel 640kb geheugen, en daarna een 286 met 2MB ram. Dat was niet snel natuurlijk, maar ik heb er veel van geleerd over hoe je zuinig met resources om moest springen.
Met de komst van dit soort 'generieke' systemen (de X86 standaard) werd de stap gezet naar standaardisatie van hard- en software, zodat het ontwikkelen van software maar ook het uitwisselen van hard- en software makkelijker werd.
Dat stond (en staat soms nog een beetje) haaks op optimalisatie: Een OS dat op zo'n beetje iedere PC moet werken (een voorwaarde waar elke nieuwe Windows of Linux versie tot op zekere hoogte nog aan voldoet) is lastig te optimaliseren voor één specifiek platform. Maar dat word wel gedaan: niet alleen door hobbyisten, maar ook voor embedded systems of door bijvoorbeeld console bouwers. De hardware die je in een PS3 vind is niet indrukwekkend te noemen, toch weten ze daar graphics uit te persen die op een identiek X86 platform bijna niet te realiseren zouden zijn.
Ik zie ook steeds vaker Youtube video's voorbij komen (dit geeft een beetje een idee van mijn kijkgedrag
) van mensen die kijken wat ze nog voor elkaar krijgen op een oud systeem, bijvoorbeeld Windows 10 draaien op zo min mogelijk RAM of iets compileren op een zo traag mogelijke CPU.
Als je kijkt naar de ontwikkelingen op het gebied van energiegebruik of cpu cycles, zie je een trend naar het opwekken van steeds meer daarvan (omdat we er meer van nodig hebben c.q. gebruiken) maar ook een trend naar 'less is more' waarbij we kijken of we niet simpelweg met minder genoegen kunnen nemen. Met nieuwe technologie kunnen we chips steeds zuiniger maken, maar wat nou als we de software tegelijkertijd met minder genoegen laten nemen en op die manier energie sparen?
De vraag waar ik nu al een flinke tijd mee in mijn hoofd zit, maar waarvoor het me aan praktijkervaring ontbreekt om gedegen onderzoek te kunnen doen: Hoe bruikbaar kan een voor hedendaagse standaarden 'oud' of 'traag' systeem op eens weer worden als de software niet meer generiek hoefde te zijn? Ik denk aan Symbian telefoons die met veel minder megaherzen genoegen namen, Raspberry PI boards die hele mediacenters draaien en de 486 processor die nog tot 2007 in productie is geweest voor 'embedded systems' (aldus Wikipedia (er staat helaas niet bij waarvóór dan).
Ik vraag me dus af of een 'ouddated' of 'underpowered' platform zoals de genoemde voorbeelden (of jouw eigen input) met toegerichte software hetzelfde kan als een modern, generiek platform en hoe ver je daarin kan gaan: Kunnen de cpu cycles van een pentium nog volstaan als de software maar optimaal genoeg is?
Ik ben benieuwd naar jullie mening, visie, input en ervaringen op dit onderwerp...
Al sinds jaar en dag speel ik graag met 'oude meuk' uit mijn computerhistorie. Voor veel mensen begint dat al zo ver terug als de Atari's, ZX Spectrum, Commodores, maar ook VAX systemen bijvoorbeeld. Voor mij begon het pas echt met een 8088 met wel 640kb geheugen, en daarna een 286 met 2MB ram. Dat was niet snel natuurlijk, maar ik heb er veel van geleerd over hoe je zuinig met resources om moest springen.
Met de komst van dit soort 'generieke' systemen (de X86 standaard) werd de stap gezet naar standaardisatie van hard- en software, zodat het ontwikkelen van software maar ook het uitwisselen van hard- en software makkelijker werd.
Dat stond (en staat soms nog een beetje) haaks op optimalisatie: Een OS dat op zo'n beetje iedere PC moet werken (een voorwaarde waar elke nieuwe Windows of Linux versie tot op zekere hoogte nog aan voldoet) is lastig te optimaliseren voor één specifiek platform. Maar dat word wel gedaan: niet alleen door hobbyisten, maar ook voor embedded systems of door bijvoorbeeld console bouwers. De hardware die je in een PS3 vind is niet indrukwekkend te noemen, toch weten ze daar graphics uit te persen die op een identiek X86 platform bijna niet te realiseren zouden zijn.
Ik zie ook steeds vaker Youtube video's voorbij komen (dit geeft een beetje een idee van mijn kijkgedrag
Als je kijkt naar de ontwikkelingen op het gebied van energiegebruik of cpu cycles, zie je een trend naar het opwekken van steeds meer daarvan (omdat we er meer van nodig hebben c.q. gebruiken) maar ook een trend naar 'less is more' waarbij we kijken of we niet simpelweg met minder genoegen kunnen nemen. Met nieuwe technologie kunnen we chips steeds zuiniger maken, maar wat nou als we de software tegelijkertijd met minder genoegen laten nemen en op die manier energie sparen?
De vraag waar ik nu al een flinke tijd mee in mijn hoofd zit, maar waarvoor het me aan praktijkervaring ontbreekt om gedegen onderzoek te kunnen doen: Hoe bruikbaar kan een voor hedendaagse standaarden 'oud' of 'traag' systeem op eens weer worden als de software niet meer generiek hoefde te zijn? Ik denk aan Symbian telefoons die met veel minder megaherzen genoegen namen, Raspberry PI boards die hele mediacenters draaien en de 486 processor die nog tot 2007 in productie is geweest voor 'embedded systems' (aldus Wikipedia (er staat helaas niet bij waarvóór dan).
Ik vraag me dus af of een 'ouddated' of 'underpowered' platform zoals de genoemde voorbeelden (of jouw eigen input) met toegerichte software hetzelfde kan als een modern, generiek platform en hoe ver je daarin kan gaan: Kunnen de cpu cycles van een pentium nog volstaan als de software maar optimaal genoeg is?