Niet om dit topic te kapen, maar weet iemand toevallig ook een project die de ongebruikte processorkracht van je videokaart gebruikt?
F@H heeft dat geloof ik...Verwijderd schreef op vrijdag 29 december 2006 @ 17:49:
Niet om dit topic te kapen, maar weet iemand toevallig ook een project die de ongebruikte processorkracht van je videokaart gebruikt?
offtopic:
SoB zou zich ook perfect lenen voor GPU berekeningen.. toch eens vragen op dat forum
SoB zou zich ook perfect lenen voor GPU berekeningen.. toch eens vragen op dat forum
[ Voor 32% gewijzigd door DukeBox op 29-12-2006 18:06 ]
Duct tape can't fix stupid, but it can muffle the sound.
Gebruikt die dan ook je processorkracht én je videokaart? Ik zou best mn videokaart daarvoor willen inzetten en mn processor bij R@H houden.... Mijn videokaart zit nu toch bijna niks te doen...
I see red pixels.
Werkt alleen met de laatste ATI kaarten.wwwhizz schreef op vrijdag 29 december 2006 @ 18:32:
[...]
Gebruikt die dan ook je processorkracht én je videokaart? Ik zou best mn videokaart daarvoor willen inzetten en mn processor bij R@H houden.... Mijn videokaart zit nu toch bijna niks te doen...
Unified Sharders maken dat toch mogelijk? Dan zou theoretisch gezien ook de 8800 serie van nvidea het moeten ondersteunen. Moet wel door de project managers worden gemaakt.
Dit is toch wel een apart topicje waard aangezien ik denk dat er in de toekomst wel meer projecten zich op de GPU zullen richten en dit onderwerp door de tand des tijd en de search niet meer terug te vinden zal zijn als ik het niet splits
"The trouble with quotes from the Internet is that you can never know if they are genuine." - Elvis Presley | Niet met me eens ? DM ME
* CowArt graaft....
Om even alle informatie te verzamelen, wat oude topiques opgezocht:
[BOINC] GPU ipv CPU gebruiken?
Eerste gpu-client Folding@Home gepresenteerd
Om even alle informatie te verzamelen, wat oude topiques opgezocht:
[BOINC] GPU ipv CPU gebruiken?
Eerste gpu-client Folding@Home gepresenteerd
Mbt tot de F@H GPU client:
Zodra ik of een van de anderen er aan toe komt (het is nog allemaal erg nieuw), wordt de primaire FAH wiki page voor de F@H GPU client:
http://fahwiki.net/index.php/GPU_client
Zie voornamelijk de officiële FAQ:
http://folding.stanford.edu/FAQ-ATI.html
En het support forum:
http://forum.folding-comm...forum.php?selected_id=f54
Zodra ik of een van de anderen er aan toe komt (het is nog allemaal erg nieuw), wordt de primaire FAH wiki page voor de F@H GPU client:
http://fahwiki.net/index.php/GPU_client
Zie voornamelijk de officiële FAQ:
http://folding.stanford.edu/FAQ-ATI.html
En het support forum:
http://forum.folding-comm...forum.php?selected_id=f54
| [Folding@Home] Announce: Client monitor voor Linux (fci) | fci-1.8.4 | Fatal Error Group |
Wees daar blij mee; een beetje moderne videokaart trekt full load 200+W, das wel wat anders dan een CPU die full load 65W doet.wwwhizz schreef op vrijdag 29 december 2006 @ 18:32:
Mijn videokaart zit nu toch bijna niks te doen...
Wanneer dit tijdens een stevig potje gamen is, vindt ik dat niet zo'n ramp, maar 24/7!?!
Computing...
Daar heb je op zich wel een punt, alleen betaal ik hier de stroom nietTheadalus schreef op zaterdag 30 december 2006 @ 01:57:
[...]
Wees daar blij mee; een beetje moderne videokaart trekt full load 200+W, das wel wat anders dan een CPU die full load 65W doet.
Wanneer dit tijdens een stevig potje gamen is, vindt ik dat niet zo'n ramp, maar 24/7!?!
I see red pixels.
We moeten daarom met alle Nederlandse DCers gaan lobbyen, zodat we onze stroomkosten van de belasting kunnen aftrekken voor bepaalde projecten omdat deze donaties aan goede doelen zijn.
En dat is uiteindelijk wat je doet, je doneert stroom en krijgt daar credits voor terug als bedankje.
En dat is uiteindelijk wat je doet, je doneert stroom en krijgt daar credits voor terug als bedankje.
| [Folding@Home] Announce: Client monitor voor Linux (fci) | fci-1.8.4 | Fatal Error Group |
Aan die F@H client zitten nogal wat haken en ogen. Hij gebruikt namelijk en je GPU en CPU voor de volle 100% want de CPU moet de processen richting de GPU voeden. Verder zit deze client nog steeds in de betafase en die loopt maar tot 1-2-2007, daarna wordt pas beslist hoe en wanneer deze client in een definitieve vorm wordt ingezet. Ik heb 'm zelf een tijdje geprobeerd maar ik was er niet echt tevreden over, veel Early Unit End errors en zeer instabiel. ATI heeft trouwens ook nog lang geen optimale ondersteuning voor Stream-computing in hun eigen drivers geintegreerd, wat natuurlijk ook niet echt helpt.
Zoals hierboven al terecht opgemerkt zitten er aan het stroomverbruik nog al wat nadelen, laat staan aan de herrie die een ATI-koeler op volle kracht maakt.
Voor SETI is er ook een GPU-client in ontwikkeling, op basis van Nvidia's CUDA SDK die je kunt vinden in de Geforce 8-serie. De ontwikkeling verloopt moeizaam en je kunt die hier volgen. Een corresponderend draadje op het SETI-forum vind je hier
Zoals hierboven al terecht opgemerkt zitten er aan het stroomverbruik nog al wat nadelen, laat staan aan de herrie die een ATI-koeler op volle kracht maakt.
Voor SETI is er ook een GPU-client in ontwikkeling, op basis van Nvidia's CUDA SDK die je kunt vinden in de Geforce 8-serie. De ontwikkeling verloopt moeizaam en je kunt die hier volgen. Een corresponderend draadje op het SETI-forum vind je hier
[ Voor 13% gewijzigd door Mr.Conroe op 30-12-2006 17:03 ]
Vooral met climateprediction.net zul je het moeilijk hebben om die 200Watt extra uit te leggen, die jongens doen juist onderzoek naar klimaatveranderingen... kun je gelijk submitten waarom het klimaat veranderd 
Ik denk dat er wel kritisch gekeken moet worden naar de energie/prestatie verhouding van dit soort intiatieven. Moderne processoren kunnen veel stroom besparen als ze niet voluit gebruikt worden, vroeger was het verschil tussen idle en full load veel groter. Zeker in een tijd dat GPU's tot wel drie keer zoveel stroom verbruiken als CPU's zou er dan toch ook een factor 4 snelheidswinst geboekt moeten worden om het gebruik daarvan te rechtvaardigen. Dat soort winsten heb ik voorlopig nog nergens anders gezien als in persberichten van ATI en NVidia
Ageia Physx en meer in het algemeen de PPU zal binnenkort ook wel onderzocht worden voor bruikbaarheid bij dit soort projecten, maar die verbruikt vooralsnog gelukkig slechts 35 Watt
Ik denk dat er wel kritisch gekeken moet worden naar de energie/prestatie verhouding van dit soort intiatieven. Moderne processoren kunnen veel stroom besparen als ze niet voluit gebruikt worden, vroeger was het verschil tussen idle en full load veel groter. Zeker in een tijd dat GPU's tot wel drie keer zoveel stroom verbruiken als CPU's zou er dan toch ook een factor 4 snelheidswinst geboekt moeten worden om het gebruik daarvan te rechtvaardigen. Dat soort winsten heb ik voorlopig nog nergens anders gezien als in persberichten van ATI en NVidia
Ageia Physx en meer in het algemeen de PPU zal binnenkort ook wel onderzocht worden voor bruikbaarheid bij dit soort projecten, maar die verbruikt vooralsnog gelukkig slechts 35 Watt
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Pagina: 1