Hoe bruikbaar kan oude technologie nog zijn?

Pagina: 1
Acties:

  • HTT-Thalan
  • Registratie: Juni 2004
  • Nu online

HTT-Thalan

technically, I'm not pedantic.

Topicstarter
Disclaimer: Ik vond het topic an sich niet passen in een subforum zoals electronica of 'complete systemen', maar gaarne een kick in de juiste richting geven als het hier niet op zijn plek is.

Ik ben benieuwd naar jullie mening, visie, input en ervaringen op dit onderwerp...

Al sinds jaar en dag speel ik graag met 'oude meuk' uit mijn computerhistorie. Voor veel mensen begint dat al zo ver terug als de Atari's, ZX Spectrum, Commodores, maar ook VAX systemen bijvoorbeeld. Voor mij begon het pas echt met een 8088 met wel 640kb geheugen, en daarna een 286 met 2MB ram. Dat was niet snel natuurlijk, maar ik heb er veel van geleerd over hoe je zuinig met resources om moest springen.

Met de komst van dit soort 'generieke' systemen (de X86 standaard) werd de stap gezet naar standaardisatie van hard- en software, zodat het ontwikkelen van software maar ook het uitwisselen van hard- en software makkelijker werd.

Dat stond (en staat soms nog een beetje) haaks op optimalisatie: Een OS dat op zo'n beetje iedere PC moet werken (een voorwaarde waar elke nieuwe Windows of Linux versie tot op zekere hoogte nog aan voldoet) is lastig te optimaliseren voor één specifiek platform. Maar dat word wel gedaan: niet alleen door hobbyisten, maar ook voor embedded systems of door bijvoorbeeld console bouwers. De hardware die je in een PS3 vind is niet indrukwekkend te noemen, toch weten ze daar graphics uit te persen die op een identiek X86 platform bijna niet te realiseren zouden zijn.

Ik zie ook steeds vaker Youtube video's voorbij komen (dit geeft een beetje een idee van mijn kijkgedrag ;)) van mensen die kijken wat ze nog voor elkaar krijgen op een oud systeem, bijvoorbeeld Windows 10 draaien op zo min mogelijk RAM of iets compileren op een zo traag mogelijke CPU.

Als je kijkt naar de ontwikkelingen op het gebied van energiegebruik of cpu cycles, zie je een trend naar het opwekken van steeds meer daarvan (omdat we er meer van nodig hebben c.q. gebruiken) maar ook een trend naar 'less is more' waarbij we kijken of we niet simpelweg met minder genoegen kunnen nemen. Met nieuwe technologie kunnen we chips steeds zuiniger maken, maar wat nou als we de software tegelijkertijd met minder genoegen laten nemen en op die manier energie sparen?

De vraag waar ik nu al een flinke tijd mee in mijn hoofd zit, maar waarvoor het me aan praktijkervaring ontbreekt om gedegen onderzoek te kunnen doen: Hoe bruikbaar kan een voor hedendaagse standaarden 'oud' of 'traag' systeem op eens weer worden als de software niet meer generiek hoefde te zijn? Ik denk aan Symbian telefoons die met veel minder megaherzen genoegen namen, Raspberry PI boards die hele mediacenters draaien en de 486 processor die nog tot 2007 in productie is geweest voor 'embedded systems' (aldus Wikipedia (er staat helaas niet bij waarvóór dan).

Ik vraag me dus af of een 'ouddated' of 'underpowered' platform zoals de genoemde voorbeelden (of jouw eigen input) met toegerichte software hetzelfde kan als een modern, generiek platform en hoe ver je daarin kan gaan: Kunnen de cpu cycles van een pentium nog volstaan als de software maar optimaal genoeg is?

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ligt eraan wat je erop wil draaien. Dat als ik Plex op mijn TV draai de UI één haperende bende is, komt niet alleen door dat er een processor in zit die weinig voorstelt, maar ook dat de software inderdaad niet bepaald geoptimaliseerd is.

Tegelijk gaat de 486 echt geen 4k HDR realtime decoderen. En tegenwoordig heeft een beetje microcontroller die rekenkracht. Uiteindelijk gaat het een combinatie zijn van dat sommige zaken simpelweg een hele hoop rekenkracht kosten, en andere zaken optimalisatie geen prioriteit is. Of dat nu uit luiheid of realisme is. Als jij een embedded systeem ontwerpt voor een specifiek doel waarvan er 10 worden gemaakt, dan is het zonde van je tijd om het uit te optimaliseren zodat er 10x een €3 euro goedkopere chip in gedaan kan worden. Als je er 10M verkoopt wordt dan een ander verhaal.

  • dion_b
  • Registratie: September 2000
  • Laatst online: 21:22

dion_b

Moderator Harde Waren

say Baah

HTT-Thalan schreef op zondag 25 december 2016 @ 20:07:[...]

De vraag waar ik nu al een flinke tijd mee in mijn hoofd zit, maar waarvoor het me aan praktijkervaring ontbreekt om gedegen onderzoek te kunnen doen: Hoe bruikbaar kan een voor hedendaagse standaarden 'oud' of 'traag' systeem op eens weer worden als de software niet meer generiek hoefde te zijn? Ik denk aan Symbian telefoons die met veel minder megaherzen genoegen namen, Raspberry PI boards die hele mediacenters draaien en de 486 processor die nog tot 2007 in productie is geweest voor 'embedded systems' (aldus Wikipedia (er staat helaas niet bij waarvóór dan).

Ik vraag me dus af of een 'ouddated' of 'underpowered' platform zoals de genoemde voorbeelden (of jouw eigen input) met toegerichte software hetzelfde kan als een modern, generiek platform en hoe ver je daarin kan gaan: Kunnen de cpu cycles van een pentium nog volstaan als de software maar optimaal genoeg is?
De vraag is natuurlijk helemaal wat je verstaat onder 'voldoen'.

Het is overduidelijk dat custom assembly code ongelofelijk veel efficienter zal zijn dan applicaties geschreven in high-level languages die afhankelijk zijn van generieke libraries die weer draaien binnen OSsen die ook al high-level programmed zijn en samengeraapt zijn met scripting enzo.

Maar:
1) grootste deel van de verloren efficiency zit in formaat van executables, niet zozeer snelheid waarmee ze afgespeeld worden.

Hier kan ik over meepraten. Jaar of 10, 15 terug was ik nogal fan van Gentoo Linux. Mocht je het niet kennen: het is een Linux distro die je geheel vanaf sources compileert (maar wel een - soms functionerende - package manager heeft). Belangrijkste onderdeel van installatie van Gentoo is dan ook om aan te geven welke compile flags je mee moet geven. Hoe meer je weet van je hardware en software, des te specifieker kun je het maken en des te efficienter het zou moeten zijn. Typisch voorbeeld is dat vrijwel alle grafische Linux software per default gecompileerd werd om zowel met GTK (Gnome) als QT (KDE) grafische libraries te werken. Dat maakte de bestanden flink groter, en als je bij voorbaat wist welk van de twee je ging gebruiken kon je kiezen om de ander niet te ondersteunen. Winst kon oplopen tot meer dan 1/3 van bestandsgrootte. Winst in performance was echter verwaarloosbaar, althans, zolang je voldoende RAM had. De keer dat ik op een P266MMX subnotebook met 32MB RAM werkte maakte het verschi enorm uit omdat het voorkwam dat hij naar HDD moest thrashen.

Zolang je dus genoeg opslag en geheugen hebt, is verlies tgv barokke programmering en compilatie beperkt.

2) High-performance code wordt doorgaans wel betrekkelijk efficient geschreven, plus dat je daar eerder tegen beperkingen van oude hardware oploopt. Ook al zou je een game in assembly schrijven, verwacht niet dat je op een Amiga of 486 met Trident 9440 1920x1080 zou kunnen renderen met FSAA en performance van tientalen frames per seconde. Alleen al een bitmap van het scherm zou te groot zijn om in het videogeheugen te passen :o

3) Basisfunctionaliteit is anno 2016 meestal ook niet zo zwaar, het is alle eye-candy, UI polish en auto-dit en auto-dat dat erin hakt. Ik doe significant deel van m'n werk in CLI. Dat doe ik toevallig doorgaans op een Core i5 laptop of thuis op een Core i7 desktop, maar dat deel zou ik prima op een 25-jaar oude NeXTstation kunnen doen. Sterker nog, toen ik minder kinderen had en dus relatief meer tijd en ruimte over had, heb ik exact dat gedaan :P
Als je abstract gaat kijken naar wat je doet is voor de meeste mensen (degenen die dus geen game designer zijn, computer-muzikant, 3D modeller etc) het overgrote deel van het werk totaal niet afhankelijk van een recent systeem. De laatste paar procent is waar het om gaat. Je kunt op een VT100-compatible terminal (emulator) prima een document schrijven. Maar managers waarderen meestal een mooi geformateerd .pptx-je. Powerpoint 2013 draait niet op een VT100-compatible terminal. Je kunt prima text-only mailen, maar zodra je met plaatjes wilt werken moet je meer spierballen in je PC hebben.

Webbrowsen idem - sterker nog, als er een use-case is voor een zware bak met veel RAM is het wel hoe hedendaagse websites eruit zien en werken. Anno 2003 heb ik nog een PC met Windows XP en 192MB RAM samengesteld voor een arme studentenorganisatie. Het was ook toen niet snel te noemen, maar was zeker bruikbaar. Tien jaar later en een vergelijkbare PC, ook met XP en 1GB RAM was al zodanig traag dat het onbruikbaar te noemen was. Puur door de hoeveelheid RAM dat de webbrowser gebruikte. Dat komt voor een kleine deel door bloat in de browser, maar voor een veel grotere deel door bloat in de websites. Als je voor je toepassing web moet browsen, is dat iets wat je nauwelijks in de hand hebt. Ook hier kun je in theorie zelfs text-only werken (Lynx :P ), maar in praktijk werkt dat voor geen meter. Zodra je www zinnig en efficient moet kunnen doen, zit je vast aan bloated zooi en heb je de hardware nodig om dat aan te kunnen.

Oslik blyat! Oslik!


  • Fish
  • Registratie: Juli 2002
  • Niet online

Fish

How much is the fish

Heel bruikbaar, ....

Mooi voorbeel van oude techniek, die gebruikt wordt op de op de cutting edge of science ..and beyond

http://www.cpushack.com/space-craft-cpu.html
"The Hubble now runs on a 80486"
The Space shuttle uses the APA-101S computer (5 of them for redundancy). They run at about 1.2MIPS and still use a couple megs of ferrite core memory (which is impervious to radiation). The entire control software for the shuttle is less then one meg. The new glass cockpit in the shuttle runs on Intel 80386s

[ Voor 51% gewijzigd door Fish op 26-12-2016 00:50 ]

Iperf


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Fish schreef op maandag 26 december 2016 @ 00:47:
Heel bruikbaar, ....

Mooi voorbeel van oude techniek, die gebruikt wordt op de op de cutting edge of science ..and beyond

http://www.cpushack.com/space-craft-cpu.html

[...]


[...]
Dat heeft meer met de extreme omgeving en eisen te maken dan met oude obsolete technologie. Als je een oude PC op zolder hebt staan terwijl je beneden een nieuwe hebt staan is meer wat er met dit topic bedoeld wordt.