Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.
Of je moet een compleet OS schrijven dat precies die functies gebruikt (maar goed, dat is gewoon niet mogelijk).
...gevonden!
Ok, maar die cpu zal toch iets eenvoudiger zijn dan de huidige GPUs (die zijn echt super complex).Trefwoord schreef op 08 June 2003 @ 15:32:
interessant ideeDe 1541 diskdrive van de commodore 64 had zijn eigen processor en die werd soms gebruikt door software als aanvulling op de processorkracht van de c64 zelf.
alles is mogenlijkTerw_Dan schreef op 08 June 2003 @ 15:30:
Of je moet een compleet OS schrijven dat precies die functies gebruikt (maar goed, dat is gewoon niet mogelijk).
The difficult we do right away, the impossible takes slightly longer.
Verwijderd
Niet alles is mogelijk. Een GPU kan nooit alle instructies die een CPU heeft bevatten.
[ Voor 34% gewijzigd door Verwijderd op 08-06-2003 15:36 ]
Emulatoren of bep. translators of wat gaan niet lukken?
XBO: Michaël#3318
huh? wat maakt dat nou uit? ze hebben toch beide een instuctieset. [ de cpu van de 1541 diskdrive was trouwens een 6510, familie van de 6502 van de c64 ]Terw_Dan schreef op 08 June 2003 @ 15:33:
[...]
Ok, maar die cpu zal toch iets eenvoudiger zijn dan de huidige GPUs (die zijn echt super complex).
...gevonden!
Verwijderd
Jij dacht dat een NV30-GPU x86-compatible is?Nefiorim schreef op 08 juni 2003 @ 15:36:
Moet je dr echt een heel OS voor schrijven?
Emulatoren of bep. translators of wat gaan niet lukken?
Klinkt leuk maar is te duur, te onhandig en als je CPU tegelijkertijd je GPU is dan krijg je problemen met de geheugen brandbreedte, timings en clocks!
There is no place like ::1
Tijdje geleden was hier geloof ik op een hardware site wat onderzoek naar gedaan. Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid) in 3D spelletjes sneller was dan een Athlon 2000+ (die dus alles op de cpu deed). Als dat enige indicatie is van de snelheid die een hedendaagse gpu gaat geven bij het proberen een cpu te 'emuleren', dan kun je denk ik beter proberen je TI-83 aan te sluiten op je pc om meer snelheid te verkrijgen
Al is het maar 10% van de grafische rekenkracht... gratis is gratis...
Edit: Lord-M: je kan het ook andersom zien. Als de GPU zo veel beter beeld kan berekenen dan de CPU, dan zal hij vast een hele goeie CPU kunnen spelen :-)
Neu, zal wel niet
[ Voor 26% gewijzigd door Tijgert op 08-06-2003 15:45 ]
Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.
Verwijderd
Dat hoeft toch helemaal niet. There's more to life than x86 alone...Jij dacht dat een NV30-GPU x86-compatible is?
wat je ook nog gaat krijgen is dat je cpu ook voor een gedeelte data moet gaan sturen naar de gpu, dit gaat dus weer ten koste van de processorkracht.swampy schreef op 08 juni 2003 @ 15:38:
..een beetje het idee van een CPU en een GPU in een.
Klinkt leuk maar is te duur, te onhandig en als je CPU tegelijkertijd je GPU is dan krijg je problemen met de geheugen brandbreedte, timings en clocks!
ik zou niet zo 123 weten wat je ongeveer aan rekenkracht (ook omdat ie voor grafisch gedoe is ontworpen) uit je gpu haalt, maar t moet natuurlijk meer opbrengen dan dat t bij de cpu wegtrekt !
Meneer 1000 has spoken......
There is no place like ::1
Verwijderd
Snap ik ook wel. Wat hij bedoelt is porten. Dat is iets anders dan emuleren.Verwijderd schreef op 08 juni 2003 @ 15:43:
[...]
Dat hoeft toch helemaal niet. There's more to life than x86 alone...
MAAR, die 60mhz voodoo1 gpu word ondersteund door een cpu, als dat niet zo was zou ie het nieteens trekkenLord-M schreef op 08 June 2003 @ 15:40:
Het lijkt me niet dat dit heel veel nut heeft...
Tijdje geleden was hier geloof ik op een hardware site wat onderzoek naar gedaan. Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid) in 3D spelletjes sneller was dan een Athlon 2000+ (die dus alles op de cpu deed). Als dat enige indicatie is van de snelheid die een hedendaagse gpu gaat geven bij het proberen een cpu te 'emuleren', dan kun je denk ik beter proberen je TI-83 aan te sluiten op je pc om meer snelheid te verkrijgen
Bovendien, 3d-applicatie gebruiken veel floating point getallen, en amd ergens specht in is is het wel in het werken met floats
Nu stuurt je CPU een heleboel(lees: meer dan de helft) van de data door naar de ALU, die het vervolgens uitrekent en trug stuurt. Deze twee zaten voreger ook los van elkaar, tegen woordig zitten ze in 1 chip, omdat dat sneller is...dude123 schreef op 08 juni 2003 @ 15:51:
[...]
wat je ook nog gaat krijgen is dat je cpu ook voor een gedeelte data moet gaan sturen naar de gpu, dit gaat dus weer ten koste van de processorkracht.
ik zou niet zo 123 weten wat je ongeveer aan rekenkracht (ook omdat ie voor grafisch gedoe is ontworpen) uit je gpu haalt, maar t moet natuurlijk meer opbrengen dan dat t bij de cpu wegtrekt !
[ Voor 31% gewijzigd door Rey Nemaattori op 08-06-2003 16:15 ]
Speks:The Hexagon Iks Twee Servertje
"When everything is allright,there is nothing left."Rey_Nemaattori
Dus het is wel mogelijk om ze voor iets anders in te zetten. maar dan moet je em daar denk ik dedicated voor gebruiken, want zomaar idle time gebruiken is er volgens mij niet bij.
Gevonden
Bron: The Future of 3D GraphicsAre GPU's limited to just graphics operations? Not at all, according to Kirk. Physics, collision detection, and other dynamic simulation problems are also now being performed with GPUs. You should check out this link for a number of creative uses of GPU horsepower beyond pure graphics functions.
[ Voor 46% gewijzigd door cryforhelp op 08-06-2003 16:19 . Reden: Link gevonden ]
Kijk, dat ze kunnen rekenen, ok, maar instructies uitvoeren die een CPU doet? Een klein deel misschien, maar veel te beperkt om de functie van een CPU over te nemen..
|>
Maar als je kijkt naar de pagina die ik link hierboven dan zie je dat het wel bruikbaar is voor "allemaal interessant klinkende wiskundige dingen"
Daar mee zal je vast wel iets distributed computing achtigs kunnen doen
Een GPU kan nooit alle instructies die een CPU heeft bevatten.[/quote]
Dat klopt maar je kan deze instructies met software emuleren
[ Voor 9% gewijzigd door _Drake_ op 08-06-2003 17:47 ]
The difficult we do right away, the impossible takes slightly longer.
en door die Vertex & Pixel Shaders is het wel weer een stuk flexibler gewoorden waardoor die weer wat uitgebreider toepasbaar is maar nog altijd geen CPU vervanger
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
even wat recht zetten... amd was met de k6 idd bagger slecht met floats, maar de fpu is tegenwoordig zelfs beter dan die van intel (toch?)Rey Nemaattori schreef op 08 June 2003 @ 16:11:
[...]
Bovendien, 3d-applicatie gebruiken veel floating point getallen, en amd ergens specht in is is het wel in het werken met floats
Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.
Kan, toch vind ik een P4 wel goed als je nadenkt hoe rete stabiel ze zijn, en hoe weinig warmte ze maken in vergelijk met de AMD.Tijgert schreef op 09 June 2003 @ 00:41:
Inderdaad, de P4 FPU zuigt...
Maar ja, als een processor maar doet wat je wilt zullen we maar zeggen!
There is no place like ::1
foutLord-M schreef op 08 juni 2003 @ 15:40:
Het lijkt me niet dat dit heel veel nut heeft...
Tijdje geleden was hier geloof ik op een hardware site wat onderzoek naar gedaan. Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid) in 3D spelletjes sneller was dan een Athlon 2000+ (die dus alles op de cpu deed). Als dat enige indicatie is van de snelheid die een hedendaagse gpu gaat geven bij het proberen een cpu te 'emuleren', dan kun je denk ik beter proberen je TI-83 aan te sluiten op je pc om meer snelheid te verkrijgen
de voodoo1 is sneller omdat hij voor de instructies van het 3d spel is gebouwd, de hele architectuur van de chip is er voor ontworpen, de cpu is voor _compleet_ andere doeleinden ontworpen en kan met een emulator(software rendering dus) nooit zijn volledige kracht gebruiken, nou verschillen de 2 architecturen zo enorm van elkaar dat de athlon 2000+(1500mhz ofzow?) vrijwel al zijn kracht verliest aan het emuleren en omzetten van instructies, je kan dus ook wel veilig stellen dat mocht je een gpu cpu taken kunnen laten emuleren dat dat BOTER langzaam gaat zijn, dan krijg je een geforce fx die evenveel doet als een pentium 60mhz ofzow, daar heb je ook niet zoveel aan
bovendien heb ik deze vraag zelf ook gesteld in mijn ahum "n00b" periode, 2-3 jaar geleden, wel geinig om te zien dat ie nu weer gesteld word
zet het huidige amd top model neer, zet de p4 neer die daar qua prestaties ongeveer gelijk op loopt en je zal zien dat ze ongeveer evenveel warmte verbruikenswampy schreef op 09 June 2003 @ 00:50:
[...]
Kan, toch vind ik een P4 wel goed als je nadenkt hoe rete stabiel ze zijn, en hoe weinig warmte ze maken in vergelijk met de AMD.
Maar ja, als een processor maar doet wat je wilt zullen we maar zeggen!
de p4 gebruikt per mhz minder warmte, maar de de athlon gebruikt dan per IPC minder warmte, als je alles bij elkaar optelt kom je weer op hetzelfde aantal
[ Voor 19% gewijzigd door bolleh op 09-06-2003 01:26 ]
Beide hebben hun sterke, en zwakke kanten!
Zie ook geen reden om een AMD vs. P4 flame te beginnen, als je koel wilt moet je maar een Via processor kopen!
There is no place like ::1
begrijp me niet verkeerd hoor, kben een die hard intel-fanboyswampy schreef op 09 June 2003 @ 02:00:
Ach ja, de keuze tussen de pentium en de amd is en blijft er een van smaak en budget!
Beide hebben hun sterke, en zwakke kanten!
Zie ook geen reden om een AMD vs. P4 flame te beginnen, als je koel wilt moet je maar een Via processor kopen!
Tikje offtopic, maar dat is bullshit. De Athlons van tegenwoordig verstoken minder dan die ultieme heethoofd, de Tbird 1400, terwijl de P4's hem juist overtreffen:swampy schreef op 09 June 2003 @ 00:50:
[...]
Kan, toch vind ik een P4 wel goed als je nadenkt hoe rete stabiel ze zijn, en hoe weinig warmte ze maken in vergelijk met de AMD.
http://users.erols.com/chare/elec.htmAthlonXP 3200+ Typical consumption: 60.4W Max consumption: 76.8W
Pentium4 3000 Typical consumption: 81.9W Max consumption: unlisted
InderdaadMaar ja, als een processor maar doet wat je wilt zullen we maar zeggen!
Verder zou het voor de mensen die zeggen 'nee dat kan niet' een goed idee zijn om de link die cryforhelp al tig posts terug deed te volgen: http://wwwx.cs.unc.edu/~harrism/gpgpu/index.shtml
Er zijn wel degelijk toepassingen waar GPU farms nuttig kunnen zijn voor meer dan UT2003
Oslik blyat! Oslik!
feit is wel dat de p4 zn warmte een stuk beter kwijt raakt, of dat nou door de materialen komt(soorten materialen, heatspreader etc) of doordat de p4 gewoonweg beter is ontworpen om warmte kwijt te raken(wat me nix zou verbazen) dat laten we even in het middendion_b schreef op 09 juni 2003 @ 02:25:
[...]
Tikje offtopic, maar dat is bullshit. De Athlons van tegenwoordig verstoken minder dan die ultieme heethoofd, de Tbird 1400, terwijl de P4's hem juist overtreffen:
Ik heb ook ergens iets gezien van een cluster van PS2's (ja de gameconsole) die ze gebruikte als supercomputer. Hierbij werd ook de GPU gebruikt. Effe linkje zoeken...
Gevonden! http://arrakis.ncsa.uiuc.edu/ps2/cluster.php
[ Voor 7% gewijzigd door zaphod_b op 09-06-2003 15:09 ]
Ik zou dan ook verder kijken en zien hoe off topic die site is.dion_b schreef op 09 June 2003 @ 02:25:
Verder zou het voor de mensen die zeggen 'nee dat kan niet' een goed idee zijn om de link die cryforhelp al tig posts terug deed te volgen: http://wwwx.cs.unc.edu/~harrism/gpgpu/index.shtml
Er zijn wel degelijk toepassingen waar GPU farms nuttig kunnen zijn voor meer dan UT2003
Het gaat erom dat een GPU de CPU kan vervangen en daar wordt de GPU gewoon als een bijzondere FPU gebruikt NAAST de CPU voor specifieke taken waarvoor de Pixel en vertex shader gebruikt kunnen worden.
bijvoorbeeld heb je een aplicatie probleem waar veel met matrix berekeningen nodig zijn en ook nog es erg parralel dan kan je daarvoor 'n GPU goed voor misbruiken.
maar doe maar wat gewone CPU taken zoals zoals een platform bouwen zonder x86 CPU maar met met 'n NV30-GPU als CPU en daar 'n OS voor bouwen das pas ontopic en dan is de vraag kan dat wel? aangezien je nu wel 'n nv30 compatible systeembios OS en apps nodig hebt.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Hozeo offtopicSuperG schreef op 09 juni 2003 @ 15:30:
[...]
Ik zou dan ook verder kijken en zien hoe off topic die site is.
Het gaat erom dat een GPU de CPU kan vervangen en daar wordt de GPU gewoon als een bijzondere FPU gebruikt NAAST de CPU voor specifieke taken waarvoor de Pixel en vertex shader gebruikt kunnen worden.
bijvoorbeeld heb je een aplicatie probleem waar veel met matrix berekeningen nodig zijn en ook nog es erg parralel dan kan je daarvoor 'n GPU goed voor misbruiken.
maar doe maar wat gewone CPU taken zoals zoals een platform bouwen zonder x86 CPU maar met met 'n NV30-GPU als CPU en daar 'n OS voor bouwen das pas ontopic en dan is de vraag kan dat wel? aangezien je nu wel 'n nv30 compatible systeembios OS en apps nodig hebt.
Vraag van de TS:
Ik quote vervolgens van die site:Zou je een GPU zo kunnen programmeren dat hij dingen berekent die niet alleen op het beeld worden getoverd?
Ik denk dan aan idle cycles gebruiken voor b.v. distributed computing, net als met de CPU.
Als dat niet een specifiek antwoord is op de specifieke vraag van de TS weet ik het ook niet meerWith the increasing programmability of commodity graphics processing units (GPUs), these chips are capable of performing more than the specific graphics computations for which they were designed. They are now capable coprocessors, and their high speed makes them useful for a variety of applications. The goal of this page is to catalog the current and historical use of GPUs for general purpose computation.
Discussies over CPU vervangen met GPU (zoals jij stelt) hebben juist niets met die vraag te maken
Oslik blyat! Oslik!
Een CPU die op 300 MHz draait zou in theorie sneller kunnen zijn dan één die op 2000 MHz draait. Het heeft te maken met hoeveel (FL)OPS hij per clockcycle kan uitvoeren. Als dit superveel is, zal een CPU op 300 MHz sneller zijn dan één van 2000 MHz (bijvoorbeeld).AirX schreef op 10 juni 2003 @ 10:35:
boevndien, wat heb je er aan? een GPU draait meestal rond de 275/300 mhz, wil je daar een koetje op draaien, schiet het toch niet op
[ Voor 37% gewijzigd door [BoSS] op 10-06-2003 10:45 ]
20x 170 Wp (Solar Frontier) op ZZO / 54 graden
Verwijderd
Als het niet met hardware kan, dan misschien met software -> emuleer een CPU, maar zal je niet veel mee opschieten vermoed ikVerwijderd schreef op 08 juni 2003 @ 15:34:
Ja, maar da's heel wat anders dan een GPU. Een GPU is ontworpen om bepaalde instructies heel snel uit te voeren, en aan die instructies heb je weinig bij een normaal OS. En dan moet je dat OS inderdaad ook nog eens speciaal voor die architectuur schrijven..
[...]
Niet alles is mogelijk. Een GPU kan nooit alle instructies die een CPU heeft bevatten.
Verwijderd
Misschien nu nog niet maar denk eens na hoe snel GPU's ontwikkelen qua snelheid en mogelijkheden, misschien gaan de CPU / GPU binnen 5 jaar wel samen onder 1 chip, net als de northbridge/ southbridge die vroegen uit vele losse chips bestonden.Godjira schreef op 08 juni 2003 @ 15:37:
Leuk idee, maar ik denk niet echt haalbaar. Er zullen allemaal aparte stukken software op geschreven moeten worden die de architectuur van zowel de CPU als de GPU ondersteunen. Gaat verschrikkelijk veel tijd inzitten en ik denk daarom dat dit nooit echt haalbaar zal zijn.
Lord-M schreef op 08 June 2003 @ 15:40:
Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid)
50 Mhz
Je GPU kent instructies waar jij bij je progs. NIETS aan hebt.
Deze GPU's KUNNEN ook alleen rekenen met de instructies die ze kennen
Verwijderd
Je kan bijvoorbeeld de GPU een blaatje laten berekenen en elke tint staat dan voor een of ander getal of zo, en dan eens in de zoveel tijd idd je geheugen flushen. Moet toch niet al te moeilijk zijn. Toegegeven, het is een hels karwei maar het kan wel!!
Een GPU tekent niet, hij rekent, dus kan ook niet-grafisch gerelateerde berekeningen uitvoeren.
http://groups.google.com/...ing.google.com%26rnum%3D7
Ik ben er niet verder mee gegaan.. na het bekijken van de V3 instructieset was de hoop dat het ooit zou lukken met deze kaart weg (meende ik), en aangezien ik nog steeds die V3 heb, ga ik het niet nog een keer proberen
[ Voor 5% gewijzigd door Sponge op 11-06-2003 12:32 ]