GPU als CPU?

Pagina: 1
Acties:
  • 233 views sinds 30-01-2008
  • Reageer

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 20-02 01:36

Tijgert

Let the Zen flow. Shit a leak!

Topicstarter
Zomaar een loos ideetje:

Zou je een GPU zo kunnen programmeren dat hij dingen berekent die niet alleen op het beeld worden getoverd?
Ik denk dan aan idle cycles gebruiken voor b.v. distributed computing, net als met de CPU.

Een GPU is toch eigenlijk maar een bijzondere CPU.

Zou dit kunnen? (nee, ik programmeer niet, was gewoon benieuwd naar hoe flexibel de rekenkracht van een GPU gebruikt zou kunnen worden)

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Dit gaat je niet zomaar lukken. een GPU heeft een heel andere architectuur dan een CPU.
Of je moet een compleet OS schrijven dat precies die functies gebruikt (maar goed, dat is gewoon niet mogelijk).

  • Trefwoord
  • Registratie: Augustus 2001
  • Laatst online: 19:23

Trefwoord

blader, blader...

interessant idee :) De 1541 diskdrive van de commodore 64 had zijn eigen processor en die werd soms gebruikt door software als aanvulling op de processorkracht van de c64 zelf.

...gevonden!


  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Trefwoord schreef op 08 June 2003 @ 15:32:
interessant idee :) De 1541 diskdrive van de commodore 64 had zijn eigen processor en die werd soms gebruikt door software als aanvulling op de processorkracht van de c64 zelf.
Ok, maar die cpu zal toch iets eenvoudiger zijn dan de huidige GPUs (die zijn echt super complex).

  • _Drake_
  • Registratie: Oktober 2002
  • Laatst online: 01:25
Terw_Dan schreef op 08 June 2003 @ 15:30:
Of je moet een compleet OS schrijven dat precies die functies gebruikt (maar goed, dat is gewoon niet mogelijk).
alles is mogenlijk

The difficult we do right away, the impossible takes slightly longer.


Verwijderd

Ja, maar da's heel wat anders dan een GPU. Een GPU is ontworpen om bepaalde instructies heel snel uit te voeren, en aan die instructies heb je weinig bij een normaal OS. En dan moet je dat OS inderdaad ook nog eens speciaal voor die architectuur schrijven..
Niet alles is mogelijk. Een GPU kan nooit alle instructies die een CPU heeft bevatten.

[ Voor 34% gewijzigd door Verwijderd op 08-06-2003 15:36 ]


  • Nefiorim
  • Registratie: Januari 2001
  • Laatst online: 16-03-2025
Moet je dr echt een heel OS voor schrijven?
Emulatoren of bep. translators of wat gaan niet lukken?

XBO: Michaël#3318


  • Trefwoord
  • Registratie: Augustus 2001
  • Laatst online: 19:23

Trefwoord

blader, blader...

Terw_Dan schreef op 08 June 2003 @ 15:33:
[...]


Ok, maar die cpu zal toch iets eenvoudiger zijn dan de huidige GPUs (die zijn echt super complex).
huh? wat maakt dat nou uit? ze hebben toch beide een instuctieset. [ de cpu van de 1541 diskdrive was trouwens een 6510, familie van de 6502 van de c64 ]

...gevonden!


Verwijderd

Nefiorim schreef op 08 juni 2003 @ 15:36:
Moet je dr echt een heel OS voor schrijven?
Emulatoren of bep. translators of wat gaan niet lukken?
Jij dacht dat een NV30-GPU x86-compatible is?

  • Godjira
  • Registratie: Februari 2003
  • Laatst online: 14-02 14:21

Godjira

To infinity and beyond!

Leuk idee, maar ik denk niet echt haalbaar. Er zullen allemaal aparte stukken software op geschreven moeten worden die de architectuur van zowel de CPU als de GPU ondersteunen. Gaat verschrikkelijk veel tijd inzitten en ik denk daarom dat dit nooit echt haalbaar zal zijn.

Profile


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 12-02 18:26

swampy

Coconut + Swallow = ?

..een beetje het idee van een CPU en een GPU in een.

Klinkt leuk maar is te duur, te onhandig en als je CPU tegelijkertijd je GPU is dan krijg je problemen met de geheugen brandbreedte, timings en clocks!

There is no place like ::1


  • Lord-M
  • Registratie: September 2000
  • Laatst online: 10-02 23:10
Het lijkt me niet dat dit heel veel nut heeft...

Tijdje geleden was hier geloof ik op een hardware site wat onderzoek naar gedaan. Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid) in 3D spelletjes sneller was dan een Athlon 2000+ (die dus alles op de cpu deed). Als dat enige indicatie is van de snelheid die een hedendaagse gpu gaat geven bij het proberen een cpu te 'emuleren', dan kun je denk ik beter proberen je TI-83 aan te sluiten op je pc om meer snelheid te verkrijgen :)

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 20-02 01:36

Tijgert

Let the Zen flow. Shit a leak!

Topicstarter
Als je op een of andere manier de OpenGL instrcutieset kunt ombuigen om te berekenen wat jij wilt, dan heb je gewoon gratis extra rekenkracht op alle PC's met OpenGL ondersteunende videokaarten.
Al is het maar 10% van de grafische rekenkracht... gratis is gratis...

Edit: Lord-M: je kan het ook andersom zien. Als de GPU zo veel beter beeld kan berekenen dan de CPU, dan zal hij vast een hele goeie CPU kunnen spelen :-)

Neu, zal wel niet

[ Voor 26% gewijzigd door Tijgert op 08-06-2003 15:45 ]

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Verwijderd

Jij dacht dat een NV30-GPU x86-compatible is?
Dat hoeft toch helemaal niet. There's more to life than x86 alone...

  • dude123
  • Registratie: December 2001
  • Laatst online: 13-05-2022

dude123

Linux addict

swampy schreef op 08 juni 2003 @ 15:38:
..een beetje het idee van een CPU en een GPU in een.

Klinkt leuk maar is te duur, te onhandig en als je CPU tegelijkertijd je GPU is dan krijg je problemen met de geheugen brandbreedte, timings en clocks!
wat je ook nog gaat krijgen is dat je cpu ook voor een gedeelte data moet gaan sturen naar de gpu, dit gaat dus weer ten koste van de processorkracht.
ik zou niet zo 123 weten wat je ongeveer aan rekenkracht (ook omdat ie voor grafisch gedoe is ontworpen) uit je gpu haalt, maar t moet natuurlijk meer opbrengen dan dat t bij de cpu wegtrekt !

Meneer 1000 has spoken......


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 12-02 18:26

swampy

Coconut + Swallow = ?

Vergeet de warmte ook niet, de CPU's en GPU's moeten all gekoeld worden. Wat als ze samen in een GCPU gaan....waterkoeling??

There is no place like ::1


Verwijderd

Verwijderd schreef op 08 juni 2003 @ 15:43:
[...]


Dat hoeft toch helemaal niet. There's more to life than x86 alone...
Snap ik ook wel. Wat hij bedoelt is porten. Dat is iets anders dan emuleren.

  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 22-01 15:57
Lord-M schreef op 08 June 2003 @ 15:40:
Het lijkt me niet dat dit heel veel nut heeft...

Tijdje geleden was hier geloof ik op een hardware site wat onderzoek naar gedaan. Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid) in 3D spelletjes sneller was dan een Athlon 2000+ (die dus alles op de cpu deed). Als dat enige indicatie is van de snelheid die een hedendaagse gpu gaat geven bij het proberen een cpu te 'emuleren', dan kun je denk ik beter proberen je TI-83 aan te sluiten op je pc om meer snelheid te verkrijgen :)
MAAR, die 60mhz voodoo1 gpu word ondersteund door een cpu, als dat niet zo was zou ie het nieteens trekken :P

Bovendien, 3d-applicatie gebruiken veel floating point getallen, en amd ergens specht in is is het wel in het werken met floats :P
dude123 schreef op 08 juni 2003 @ 15:51:
[...]


wat je ook nog gaat krijgen is dat je cpu ook voor een gedeelte data moet gaan sturen naar de gpu, dit gaat dus weer ten koste van de processorkracht.
ik zou niet zo 123 weten wat je ongeveer aan rekenkracht (ook omdat ie voor grafisch gedoe is ontworpen) uit je gpu haalt, maar t moet natuurlijk meer opbrengen dan dat t bij de cpu wegtrekt !
Nu stuurt je CPU een heleboel(lees: meer dan de helft) van de data door naar de ALU, die het vervolgens uitrekent en trug stuurt. Deze twee zaten voreger ook los van elkaar, tegen woordig zitten ze in 1 chip, omdat dat sneller is...

[ Voor 31% gewijzigd door Rey Nemaattori op 08-06-2003 16:15 ]

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


  • cryforhelp
  • Registratie: December 2001
  • Laatst online: 16-02 17:51
Ik kwam laatst op een hardware site een stukje tegen over banken GPU's die ze als supercluster gebruikten.

Dus het is wel mogelijk om ze voor iets anders in te zetten. maar dan moet je em daar denk ik dedicated voor gebruiken, want zomaar idle time gebruiken is er volgens mij niet bij. :|

Gevonden 8) :
Are GPU's limited to just graphics operations? Not at all, according to Kirk. Physics, collision detection, and other dynamic simulation problems are also now being performed with GPUs. You should check out this link for a number of creative uses of GPU horsepower beyond pure graphics functions.
Bron: The Future of 3D Graphics

[ Voor 46% gewijzigd door cryforhelp op 08-06-2003 16:19 . Reden: Link gevonden ]


Verwijderd

Lekker je GPU mee laten Foldingen...of RC5-en ;)

  • simon
  • Registratie: Maart 2002
  • Laatst online: 20-02 10:39
Maar wat wil je doen met die minimale instructie set van een GPU? Beetje Vierkantjes op je beeld projecteren? GPU's zijn niet gemaakt om als processor te fungeren, en omdat het dan alleenmaar duur is om 'onnodige' functies erop te hebben en verre van handig zit het er gewoon niet op.

Kijk, dat ze kunnen rekenen, ok, maar instructies uitvoeren die een CPU doet? Een klein deel misschien, maar veel te beperkt om de functie van een CPU over te nemen..

|>


  • cryforhelp
  • Registratie: December 2001
  • Laatst online: 16-02 17:51
Ok, je kan em niet gebruiken om een cpu te vervangen, is ook een beetje inkoppertje anders hadden ze het wel gedaan. >:)
Maar als je kijkt naar de pagina die ik link hierboven dan zie je dat het wel bruikbaar is voor "allemaal interessant klinkende wiskundige dingen" :+
Daar mee zal je vast wel iets distributed computing achtigs kunnen doen

  • _Drake_
  • Registratie: Oktober 2002
  • Laatst online: 01:25
[quoteJ SS schreef op 08 June 2003 @ 15:34:
Een GPU kan nooit alle instructies die een CPU heeft bevatten.[/quote]

Dat klopt maar je kan deze instructies met software emuleren

[ Voor 9% gewijzigd door _Drake_ op 08-06-2003 17:47 ]

The difficult we do right away, the impossible takes slightly longer.


  • ETzPliskin
  • Registratie: Januari 2003
  • Laatst online: 20-02 09:46

ETzPliskin

PS3 ID: Kretus

Denk even aan het omgekeerde : een cpu kan toch software renderen?

  • SG
  • Registratie: Januari 2001
  • Laatst online: 11-02 22:12

SG

SG surft naar info hardewaren

'n GPU is een chip die speciaal voor Grafische code & data is gemaakt, dus op 3D gebied is het dus een 3D specifieke FPU

en door die Vertex & Pixel Shaders is het wel weer een stuk flexibler gewoorden waardoor die weer wat uitgebreider toepasbaar is maar nog altijd geen CPU vervanger

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • sharkzor
  • Registratie: Maart 2000
  • Laatst online: 19-02 08:28
Rey Nemaattori schreef op 08 June 2003 @ 16:11:
[...]


Bovendien, 3d-applicatie gebruiken veel floating point getallen, en amd ergens specht in is is het wel in het werken met floats :P
even wat recht zetten... amd was met de k6 idd bagger slecht met floats, maar de fpu is tegenwoordig zelfs beter dan die van intel (toch?)

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 20-02 01:36

Tijgert

Let the Zen flow. Shit a leak!

Topicstarter
Inderdaad, de P4 FPU zuigt...

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 12-02 18:26

swampy

Coconut + Swallow = ?

Tijgert schreef op 09 June 2003 @ 00:41:
Inderdaad, de P4 FPU zuigt...
Kan, toch vind ik een P4 wel goed als je nadenkt hoe rete stabiel ze zijn, en hoe weinig warmte ze maken in vergelijk met de AMD.

Maar ja, als een processor maar doet wat je wilt zullen we maar zeggen!

There is no place like ::1


  • bolleh
  • Registratie: Juli 2001
  • Laatst online: 21:20
Lord-M schreef op 08 juni 2003 @ 15:40:
Het lijkt me niet dat dit heel veel nut heeft...

Tijdje geleden was hier geloof ik op een hardware site wat onderzoek naar gedaan. Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid) in 3D spelletjes sneller was dan een Athlon 2000+ (die dus alles op de cpu deed). Als dat enige indicatie is van de snelheid die een hedendaagse gpu gaat geven bij het proberen een cpu te 'emuleren', dan kun je denk ik beter proberen je TI-83 aan te sluiten op je pc om meer snelheid te verkrijgen :)
fout

de voodoo1 is sneller omdat hij voor de instructies van het 3d spel is gebouwd, de hele architectuur van de chip is er voor ontworpen, de cpu is voor _compleet_ andere doeleinden ontworpen en kan met een emulator(software rendering dus) nooit zijn volledige kracht gebruiken, nou verschillen de 2 architecturen zo enorm van elkaar dat de athlon 2000+(1500mhz ofzow?) vrijwel al zijn kracht verliest aan het emuleren en omzetten van instructies, je kan dus ook wel veilig stellen dat mocht je een gpu cpu taken kunnen laten emuleren dat dat BOTER langzaam gaat zijn, dan krijg je een geforce fx die evenveel doet als een pentium 60mhz ofzow, daar heb je ook niet zoveel aan ;)

bovendien heb ik deze vraag zelf ook gesteld in mijn ahum "n00b" periode, 2-3 jaar geleden, wel geinig om te zien dat ie nu weer gesteld word ;)
swampy schreef op 09 June 2003 @ 00:50:
[...]


Kan, toch vind ik een P4 wel goed als je nadenkt hoe rete stabiel ze zijn, en hoe weinig warmte ze maken in vergelijk met de AMD.

Maar ja, als een processor maar doet wat je wilt zullen we maar zeggen!
zet het huidige amd top model neer, zet de p4 neer die daar qua prestaties ongeveer gelijk op loopt en je zal zien dat ze ongeveer evenveel warmte verbruiken

de p4 gebruikt per mhz minder warmte, maar de de athlon gebruikt dan per IPC minder warmte, als je alles bij elkaar optelt kom je weer op hetzelfde aantal

[ Voor 19% gewijzigd door bolleh op 09-06-2003 01:26 ]


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 12-02 18:26

swampy

Coconut + Swallow = ?

Ach ja, de keuze tussen de pentium en de amd is en blijft er een van smaak en budget!

Beide hebben hun sterke, en zwakke kanten!

Zie ook geen reden om een AMD vs. P4 flame te beginnen, als je koel wilt moet je maar een Via processor kopen!

There is no place like ::1


  • bolleh
  • Registratie: Juli 2001
  • Laatst online: 21:20
swampy schreef op 09 June 2003 @ 02:00:
Ach ja, de keuze tussen de pentium en de amd is en blijft er een van smaak en budget!

Beide hebben hun sterke, en zwakke kanten!

Zie ook geen reden om een AMD vs. P4 flame te beginnen, als je koel wilt moet je maar een Via processor kopen!
begrijp me niet verkeerd hoor, kben een die hard intel-fanboy :+

  • dion_b
  • Registratie: September 2000
  • Laatst online: 01:59

dion_b

Moderator Harde Waren

say Baah

swampy schreef op 09 June 2003 @ 00:50:
[...]


Kan, toch vind ik een P4 wel goed als je nadenkt hoe rete stabiel ze zijn, en hoe weinig warmte ze maken in vergelijk met de AMD.
Tikje offtopic, maar dat is bullshit. De Athlons van tegenwoordig verstoken minder dan die ultieme heethoofd, de Tbird 1400, terwijl de P4's hem juist overtreffen:
AthlonXP 3200+ Typical consumption: 60.4W Max consumption: 76.8W

Pentium4 3000 Typical consumption: 81.9W Max consumption: unlisted
http://users.erols.com/chare/elec.htm
Maar ja, als een processor maar doet wat je wilt zullen we maar zeggen!
Inderdaad :z

Verder zou het voor de mensen die zeggen 'nee dat kan niet' een goed idee zijn om de link die cryforhelp al tig posts terug deed te volgen: http://wwwx.cs.unc.edu/~harrism/gpgpu/index.shtml

Er zijn wel degelijk toepassingen waar GPU farms nuttig kunnen zijn voor meer dan UT2003 :z

Oslik blyat! Oslik!


  • bolleh
  • Registratie: Juli 2001
  • Laatst online: 21:20
dion_b schreef op 09 juni 2003 @ 02:25:
[...]

Tikje offtopic, maar dat is bullshit. De Athlons van tegenwoordig verstoken minder dan die ultieme heethoofd, de Tbird 1400, terwijl de P4's hem juist overtreffen:
feit is wel dat de p4 zn warmte een stuk beter kwijt raakt, of dat nou door de materialen komt(soorten materialen, heatspreader etc) of doordat de p4 gewoonweg beter is ontworpen om warmte kwijt te raken(wat me nix zou verbazen) dat laten we even in het midden :)

  • dr.lowtune
  • Registratie: Mei 2002
  • Laatst online: 25-08-2025

dr.lowtune

Deugt niet

maar goed, de omgekeerde wereld. wat als je nou gaat knutselen en je dumpt een xp2500+ op een pcbtje met 2x256ddr in dual channel mode? Gaat dat ownen(er van uitgaande dat het werkt)in 3dmark?

  • catfish
  • Registratie: December 2000
  • Laatst online: 27-12-2025
voor afhankelijke berekeningen lijkt het mij niet zo interessant (te trage bus/cpu belasting verkeer), maar de nieuwe DX9 kaarten hebben toch veel mem en hebben 128bit FPU, dus lijkt het mij perfect mogelijk om er een koe op te draaien compleet onafhankelijk van de cpu en dan maar om de zoveelt tijd het mem te flushen

  • Mister_X
  • Registratie: Februari 2000
  • Laatst online: 26-10-2025
in tegen stellingen zoals de meeste zeggen, het is wel mogelijk, een cpu kan ook fungeneren als aanvulling voor beeld, dus waarom zou een gpu dan niet aan kunnen vullen als cpu, het is alleen een rotklus om een gpu de juiste instructies mee te geven! in een gpu zitten gewoon transistors net als in een cpu, dus why the hack zou het niet kunnen?

  • zaphod_b
  • Registratie: Oktober 2001
  • Laatst online: 20-02 13:12
De grafische chips van tegenwoordig lijken zoveel op een 'volwaardige' CPU dat men ze GPU is gaan noemen. De naam GPU is geintroduceerd door NVidia met hun eerste Geforce chips. Je kunt wel degelijk bepaalde dingen doen met een GPU naast 'grafische spullen'. Uiteraard is het nogal toegespitst of grafische bewerkingen; daar is ie voor geoptimaliseerd maar dat wil niet zeggen dat ie niks anders kan. Uiteindelijk blijft het toch nullen en eenen optellen, en dat dan vrij vlotjes :).

Ik heb ook ergens iets gezien van een cluster van PS2's (ja de gameconsole) die ze gebruikte als supercomputer. Hierbij werd ook de GPU gebruikt. Effe linkje zoeken...

Gevonden! http://arrakis.ncsa.uiuc.edu/ps2/cluster.php

[ Voor 7% gewijzigd door zaphod_b op 09-06-2003 15:09 ]


  • SG
  • Registratie: Januari 2001
  • Laatst online: 11-02 22:12

SG

SG surft naar info hardewaren

dion_b schreef op 09 June 2003 @ 02:25:

Verder zou het voor de mensen die zeggen 'nee dat kan niet' een goed idee zijn om de link die cryforhelp al tig posts terug deed te volgen: http://wwwx.cs.unc.edu/~harrism/gpgpu/index.shtml

Er zijn wel degelijk toepassingen waar GPU farms nuttig kunnen zijn voor meer dan UT2003 :z
Ik zou dan ook verder kijken en zien hoe off topic die site is.

Het gaat erom dat een GPU de CPU kan vervangen en daar wordt de GPU gewoon als een bijzondere FPU gebruikt NAAST de CPU voor specifieke taken waarvoor de Pixel en vertex shader gebruikt kunnen worden.

bijvoorbeeld heb je een aplicatie probleem waar veel met matrix berekeningen nodig zijn en ook nog es erg parralel dan kan je daarvoor 'n GPU goed voor misbruiken.

maar doe maar wat gewone CPU taken zoals zoals een platform bouwen zonder x86 CPU maar met met 'n NV30-GPU als CPU en daar 'n OS voor bouwen das pas ontopic en dan is de vraag kan dat wel? aangezien je nu wel 'n nv30 compatible systeembios OS en apps nodig hebt.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • dion_b
  • Registratie: September 2000
  • Laatst online: 01:59

dion_b

Moderator Harde Waren

say Baah

SuperG schreef op 09 juni 2003 @ 15:30:
[...]

Ik zou dan ook verder kijken en zien hoe off topic die site is.

Het gaat erom dat een GPU de CPU kan vervangen en daar wordt de GPU gewoon als een bijzondere FPU gebruikt NAAST de CPU voor specifieke taken waarvoor de Pixel en vertex shader gebruikt kunnen worden.

bijvoorbeeld heb je een aplicatie probleem waar veel met matrix berekeningen nodig zijn en ook nog es erg parralel dan kan je daarvoor 'n GPU goed voor misbruiken.

maar doe maar wat gewone CPU taken zoals zoals een platform bouwen zonder x86 CPU maar met met 'n NV30-GPU als CPU en daar 'n OS voor bouwen das pas ontopic en dan is de vraag kan dat wel? aangezien je nu wel 'n nv30 compatible systeembios OS en apps nodig hebt.
Hozeo offtopic :?

Vraag van de TS:
Zou je een GPU zo kunnen programmeren dat hij dingen berekent die niet alleen op het beeld worden getoverd?
Ik denk dan aan idle cycles gebruiken voor b.v. distributed computing, net als met de CPU.
Ik quote vervolgens van die site:
With the increasing programmability of commodity graphics processing units (GPUs), these chips are capable of performing more than the specific graphics computations for which they were designed. They are now capable coprocessors, and their high speed makes them useful for a variety of applications. The goal of this page is to catalog the current and historical use of GPUs for general purpose computation.
Als dat niet een specifiek antwoord is op de specifieke vraag van de TS weet ik het ook niet meer 8)7

Discussies over CPU vervangen met GPU (zoals jij stelt) hebben juist niets met die vraag te maken :o

Oslik blyat! Oslik!


  • AirX
  • Registratie: Juni 2002
  • Laatst online: 22:28

AirX

Tweak Guru

boevndien, wat heb je er aan? een GPU draait meestal rond de 275/300 mhz, wil je daar een koetje op draaien, schiet het toch niet op

  • [BoSS]
  • Registratie: Maart 2000
  • Laatst online: 21-02 10:56

[BoSS]

Geen woorden maar daden!

AirX schreef op 10 juni 2003 @ 10:35:
boevndien, wat heb je er aan? een GPU draait meestal rond de 275/300 mhz, wil je daar een koetje op draaien, schiet het toch niet op
Een CPU die op 300 MHz draait zou in theorie sneller kunnen zijn dan één die op 2000 MHz draait. Het heeft te maken met hoeveel (FL)OPS hij per clockcycle kan uitvoeren. Als dit superveel is, zal een CPU op 300 MHz sneller zijn dan één van 2000 MHz (bijvoorbeeld).

[ Voor 37% gewijzigd door [BoSS] op 10-06-2003 10:45 ]

20x 170 Wp (Solar Frontier) op ZZO / 54 graden


Verwijderd

Verwijderd schreef op 08 juni 2003 @ 15:34:
Ja, maar da's heel wat anders dan een GPU. Een GPU is ontworpen om bepaalde instructies heel snel uit te voeren, en aan die instructies heb je weinig bij een normaal OS. En dan moet je dat OS inderdaad ook nog eens speciaal voor die architectuur schrijven..

[...]

Niet alles is mogelijk. Een GPU kan nooit alle instructies die een CPU heeft bevatten.
Als het niet met hardware kan, dan misschien met software -> emuleer een CPU, maar zal je niet veel mee opschieten vermoed ik 8)7, wel een interessant idee.

Verwijderd

Godjira schreef op 08 juni 2003 @ 15:37:
Leuk idee, maar ik denk niet echt haalbaar. Er zullen allemaal aparte stukken software op geschreven moeten worden die de architectuur van zowel de CPU als de GPU ondersteunen. Gaat verschrikkelijk veel tijd inzitten en ik denk daarom dat dit nooit echt haalbaar zal zijn.
Misschien nu nog niet maar denk eens na hoe snel GPU's ontwikkelen qua snelheid en mogelijkheden, misschien gaan de CPU / GPU binnen 5 jaar wel samen onder 1 chip, net als de northbridge/ southbridge die vroegen uit vele losse chips bestonden.

  • Wekkel
  • Registratie: Maart 2000
  • Laatst online: 14-08-2024

Wekkel

De downloadkoning

Lord-M schreef op 08 June 2003 @ 15:40:
Uiteindelijk bleek dat een voodoo 1 gpu (ding draait 60 Mhz oid)
offtopic:
50 Mhz

  • n00bs
  • Registratie: Augustus 2002
  • Laatst online: 18-02 21:18

n00bs

Het is weer Zomer!

DIt kan natuurlijk never ever ;)

Je GPU kent instructies waar jij bij je progs. NIETS aan hebt.
Deze GPU's KUNNEN ook alleen rekenen met de instructies die ze kennen

  • Wekkel
  • Registratie: Maart 2000
  • Laatst online: 14-08-2024

Wekkel

De downloadkoning

Als je het terug kan brengen tot 0 en 1 vergelijken, kom je gewoon tot de basis van een cpu. De vraag is of je de GPU efficiënt genoeg kan inzetten voor het betere rekenwerk in vergelijking met je CPU.

Verwijderd

Mensen, het is natuurlijk duidelijk dat je GPU je CPU niet kan vervangen. En dat daar ook niet dezelfde code op kan draaien met dezelfde instrucitieset is al wel helemaal duidelijk. Het gaat er hier volgens mij om of iemand het werk op zich gaat nemen om een programma te schrijven die via de GPU floatingpoints of integers gaat berekenen. Of vectoren voor sommige videokaarten, wat dan ook iig.
Je kan bijvoorbeeld de GPU een blaatje laten berekenen en elke tint staat dan voor een of ander getal of zo, en dan eens in de zoveel tijd idd je geheugen flushen. Moet toch niet al te moeilijk zijn. Toegegeven, het is een hels karwei maar het kan wel!!

  • 1Mark
  • Registratie: Juni 2001
  • Laatst online: 22-02 17:35
Rippie heeft niet de hele topic gelezen.

Een GPU tekent niet, hij rekent, dus kan ook niet-grafisch gerelateerde berekeningen uitvoeren.

  • Sponge
  • Registratie: Januari 2002
  • Laatst online: 17-02 19:31

Sponge

Serious Game Developer

Toevallig, had ik een jaar geleden (op een paar dagen na! :)) het zelfde idee, en het eens op een newsgroup geplaatst.

http://groups.google.com/...ing.google.com%26rnum%3D7

Ik ben er niet verder mee gegaan.. na het bekijken van de V3 instructieset was de hoop dat het ooit zou lukken met deze kaart weg (meende ik), en aangezien ik nog steeds die V3 heb, ga ik het niet nog een keer proberen :)

[ Voor 5% gewijzigd door Sponge op 11-06-2003 12:32 ]

Pagina: 1