Ik begrijp niet dat er niet opgetreden wordt tegen dat soort sites. Wordt tijd dat ATi/AMD eens strenger wordt met z'n NDA policy.
Webshops tekenen geen NDA. AMD kan ook helemaal niks doen tegen webshops die dergelijke streken uithalen. De leverancier van Salland had nooit mogen uitleveren.Jejking schreef op woensdag 25 maart 2009 @ 16:54:
Ik begrijp niet dat er niet opgetreden wordt tegen dat soort sites. Wordt tijd dat ATi/AMD eens strenger wordt met z'n NDA policy.
Zal ik met een overgeclockte E6850 @ 3.6GHz en 2GB DDR800 ram de volledige mogelijkheden halen uit een HD4890
Of zit er nog ergens een bottleneck?
Anoniem: 205954
Yep, ik heb er 2 besteldcarnage6 schreef op woensdag 25 maart 2009 @ 14:15:
salland zegt de kaarten al op voorraad te hebben en er staan volgens mij zelfgemaakte foto's bij..
ben benieuwd of ik hem morgen al binnen heb...
http://www.salland.eu/pro...ess-x16-hd-489a-zdf7.html
Status van de order is verzonden dus we gaan het zien.
Zoals eerder al eens duidelijk was geworden, ATI heeft z'n W7 drivers goed op orde. Nou ook met de X2 getest:
http://www.rage3d.com/articles/catalyst/cat93/
http://www.rage3d.com/articles/catalyst/cat93/
Niet op voorraad.
Anoniem: 286793
Ja, een xfx hd 4890 black edition lijkt me wel wat! Maar is dat al bevestigt? En hoe lang duurt het normaal gesproken voordat xfx met zoiets komt.
Die gtx 260 BE was echt een geweldig product. 666 mhz op de core. Veel oc gtx 260's doen het op circa 630 mhz. Alleen de evga ssc (niet sc) is hoger geclockt naar mijn weten (700 mhz dacht ik) maar ik had uit tests gezien dat dit niet veel opleverde. En asus komt ook met een gtx 260 matrix. Die is op 700 mhz geclockt. Daarmee presteert hij bijna net zo goed als de gtx 280.
Als de asus hd 4890 op 950 mhz geclockt is met voltmod, is dat niet veel beter dan zon BE. Xfx lever echt qualiteit maar het design veranderen ze de laatste tijd niet vaak (alleen de koeler maar ik kan het mis hebben).
Wat ik me ook afvraag is wanneer er eindelijk eens reviews verschijnen. Deze week een mogelijkheid?
Die gtx 260 BE was echt een geweldig product. 666 mhz op de core. Veel oc gtx 260's doen het op circa 630 mhz. Alleen de evga ssc (niet sc) is hoger geclockt naar mijn weten (700 mhz dacht ik) maar ik had uit tests gezien dat dit niet veel opleverde. En asus komt ook met een gtx 260 matrix. Die is op 700 mhz geclockt. Daarmee presteert hij bijna net zo goed als de gtx 280.
Als de asus hd 4890 op 950 mhz geclockt is met voltmod, is dat niet veel beter dan zon BE. Xfx lever echt qualiteit maar het design veranderen ze de laatste tijd niet vaak (alleen de koeler maar ik kan het mis hebben).
Wat ik me ook afvraag is wanneer er eindelijk eens reviews verschijnen. Deze week een mogelijkheid?
XFX HD4890 is niet meer bij salland in het assortiment
Goed koper is duurder dan slecht koper
Nice, we verwachten wel pics en benchesAnoniem: 205954 schreef op woensdag 25 maart 2009 @ 17:16:
[...]
Yep, ik heb er 2 besteld
Status van de order is verzonden dus we gaan het zien.
[ Voor 5% gewijzigd door tjtristan op 25-03-2009 18:24 ]
Nog meer gelekte Vantage scores op een Core i7 965 Extreme. Corespeed 1050Mhz, Memspeed 1175. X5975. Kans is groot dat deze gesjopt is. Heb nog geen drivers gezien waar de core op 1200Mhz kon in CCC. Edit: Tenzij ze de ini files gemod hebben natuurlijk...
Nieuwe launchdate is nu 2 april.
Edit 2: en nog meer leaks. uitgebreidere review met gametests: http://blog.pconline.com.cn/article/239516.html
Nieuwe launchdate is nu 2 april.
Edit 2: en nog meer leaks. uitgebreidere review met gametests: http://blog.pconline.com.cn/article/239516.html
[ Voor 45% gewijzigd door CJ op 25-03-2009 18:56 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 286793
Ik denk dat de kracht van de hd4890 vooral in de overclockbaarheid zit, niet in de stockspeeds. Dit werkt natuurlijk geweldig als smokescreen voor nVidia. Ook veel sites berichten: the gtx275 should be the faster of the two. Op stock speeds wel, maar een oc kaart verslaat de gtx 275 met gemak.
Een gtx 285 scoort ongeveer net zo veel als een hd 4890 op 3dmark, MAAR een hd 4850x2 schijnt minder te scoren terwijl deze beter scoort in games dus wie weet. gaming benchmarks vallen op 850 mhz tegen maar een overgeclockte hd 4890 kan veel meer.
Een gtx 285 scoort ongeveer net zo veel als een hd 4890 op 3dmark, MAAR een hd 4850x2 schijnt minder te scoren terwijl deze beter scoort in games dus wie weet. gaming benchmarks vallen op 850 mhz tegen maar een overgeclockte hd 4890 kan veel meer.
Okee, volgens die test is de power consumption dus nog slechter dan de 4870.............
Geen 4890 hier dus. Ronduit teleurstellend na het hele PowerPlay verhaal.
En smokescreen mwoh, ook de 275 is makkelijk te OCen.
Geen 4890 hier dus. Ronduit teleurstellend na het hele PowerPlay verhaal.
En smokescreen mwoh, ook de 275 is makkelijk te OCen.
[ Voor 14% gewijzigd door mdcobra op 25-03-2009 19:43 ]
Anoniem: 134818
Ooit gehoord van drivers?mdcobra schreef op woensdag 25 maart 2009 @ 19:41:
Okee, volgens die test is de power consumption dus nog slechter dan de 4870.............
Geen 4890 hier dus. Ronduit teleurstellend na het hele PowerPlay verhaal.
En smokescreen mwoh, ook de 275 is makkelijk te OCen.
Altijd leuk al die voorbarige conclusies op basis van benchmarks van vage chinese sites met drivers die niet eens de releasedrivers zijn van de HD4890.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
We zullen zien, drivers doen over het algemeen niet bijzonder veel, 5% max oid, en aan het verbruik zullen ze ook weinig veranderen.
Als je het topic hebt gelezen weet je dat CJ heeft gezegd dat hij idle zuiniger is dan de 4870, dat dat probleem nu dus is opgelost.mdcobra schreef op woensdag 25 maart 2009 @ 19:48:
We zullen zien, drivers doen over het algemeen niet bijzonder veel, 5% max oid, en aan het verbruik zullen ze ook weinig veranderen.
Anoniem: 134818
..... Serieus dat meen je toch niet, echt ga je eens in lezen in hoe het echt werk. De eerste reviews van de HD4870 waren nog slechter dan toen ze power play hadden gefixed. Nee hoor drivers kunnen niets veranderen.mdcobra schreef op woensdag 25 maart 2009 @ 19:48:
We zullen zien, drivers doen over het algemeen niet bijzonder veel, 5% max oid, en aan het verbruik zullen ze ook weinig veranderen.
[ Voor 36% gewijzigd door Anoniem: 134818 op 25-03-2009 19:51 ]
Sorry hoor gemiddeld zul je echt niet meer dan 5% performance winst zien van een driver, in bepaalde gevallen misschien wel, maar gemiddeld echt niet.
@reinman, we zullen zien, als de 4890 idle meer verbruikt dan de 4870 dan verwacht ik wel een rectificatie
, zulke beloften zijn er eerder gemaakt omtrent PowerPlay en de 4870...............dat was pas BS
@reinman, we zullen zien, als de 4890 idle meer verbruikt dan de 4870 dan verwacht ik wel een rectificatie
[ Voor 41% gewijzigd door mdcobra op 25-03-2009 20:02 ]
Anoniem: 134818
Lezen SVP. Dit is wat jij zegt:
Het antwoord hier op is: Bull Shit.aan het verbruik zullen ze ook weinig veranderen.
Denk om je hart... 
We zullen zien wat de drivers doen... ATi is goed bezig met drivers, dus dat komt vast wel goed... De performance van de kaart valt me ietwat tegen, maar goed, als hij heel goed overklokbaar is maakt dat een hoop goed natuurlijk.
EN XFX's Black Editons zullen wel een leuke clockspeed meekrijgen.
Edit; en prijskaartje... Maar die snelheden zijn vooral interessant om te kijken wat "veilig" is voor een referentiekaart.
We zullen zien wat de drivers doen... ATi is goed bezig met drivers, dus dat komt vast wel goed... De performance van de kaart valt me ietwat tegen, maar goed, als hij heel goed overklokbaar is maakt dat een hoop goed natuurlijk.
[ Voor 111% gewijzigd door Format-C op 25-03-2009 20:05 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 205954
Volgens TNT worden ze morgen afgeleverd
Zou het een fout van Salland geweest zijn om ze nu al te verkopen? Ze staan iig niet meer op hun site.
Vanmiddag nog als 'aanbieding'
[ Voor 36% gewijzigd door Anoniem: 205954 op 25-03-2009 20:01 ]
Ze zullen wel uitverkocht zijn. Ze hebben vast alles op alles gezet om er een paar te bemachtigen, en die zsm te verkopen voor de aandacht. Edit; En dus reclame.
[ Voor 8% gewijzigd door Format-C op 25-03-2009 20:03 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 286793
Uit een gtx 275 haal je hooguit 720 mhz. Dat is lang niet zo veel als bij een hd 4890.
En de officiele drivers zijn nog niet eens uit. Het ddr5 geheugen verkracht gewoon de hele powerconsumption.
En de officiele drivers zijn nog niet eens uit. Het ddr5 geheugen verkracht gewoon de hele powerconsumption.
niks bullshit: alle 4870's hebben volgens mij nog steeds geen echte powerplay functies zoals duidelijk voor de launch beloofd.....
mijn laptop met oude 9700mobile kan dat veel beter dan mijn 4870. (maar het is ze vergeven want ik vind de prijs/performance geweldig. ook toen ik hem kocht voor 229euro...)
mijn laptop met oude 9700mobile kan dat veel beter dan mijn 4870. (maar het is ze vergeven want ik vind de prijs/performance geweldig. ook toen ik hem kocht voor 229euro...)
Anoniem: 286793
De rv770/rv790 chip is van zichzelf niet onzuinig. Kijk naar de hd 4850. Het ddr5 geheugen maakt het verschil. Ik denk dat ati nu het ddr5 geheugen onder de knie heeft want ze brengen er al mobility kaarten mee uit. Dus misschien zien we verbetering met de nieuwe drivers.
@dokkie
Laat ons ook eens wat benchmarks zien. En dan gaming benchmarks. Ik ben erg benieuwd naar je hd4890 kaarten.
@dokkie
Laat ons ook eens wat benchmarks zien. En dan gaming benchmarks. Ik ben erg benieuwd naar je hd4890 kaarten.
[ Voor 18% gewijzigd door Anoniem: 286793 op 25-03-2009 20:19 ]
Sinds wanneer zegt MHz iets over de prestaties van een GPU ? nVidia kaarten hebben altijd een lagere core clock. Maar hun shader lopen op veel hogere snelheden. + er zijn nog heel veel andere dingen die belangrijk zijn voor de performance.Anoniem: 286793 schreef op woensdag 25 maart 2009 @ 20:03:
Uit een gtx 275 haal je hooguit 720 mhz. Dat is lang niet zo veel als bij een hd 4890.
En de officiele drivers zijn nog niet eens uit. Het ddr5 geheugen verkracht gewoon de hele powerconsumption.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
hahaha.... misschien zien we verbetering met de nieuwe driver....... dat roepen we al een jaar!Anoniem: 286793 schreef op woensdag 25 maart 2009 @ 20:08:
De rv770/rv790 chip is van zichzelf niet onzuinig. Kijk naar de hd 4850. Het ddr5 geheugen maakt het verschil. Ik denk dat ati nu het ddr5 geheugen onder de knie heeft want ze brengen er al mobility kaarten mee uit. Dus misschien zien we verbetering met de nieuwe drivers.
echte powerplay zoals notebooks dat hebben aint gonna happen anytime soon.... en ik vraag me af waarom niet. zou echt een sterke feature zijn.
Inderdaad, we zullen zien hoe betrouwbaar CJ is in dit opzicht wat betreft idle verbruik 4890, of dat we toch nog op vele driver releases moeten wachten, waarna het verdacht stil blijft.meljor schreef op woensdag 25 maart 2009 @ 20:13:
[...]
hahaha.... misschien zien we verbetering met de nieuwe driver....... dat roepen we al een jaar!
echte powerplay zoals notebooks dat hebben aint gonna happen anytime soon.... en ik vraag me af waarom niet. zou echt een sterke feature zijn.
De 1e review ziet er niet goed uit.
[ Voor 3% gewijzigd door mdcobra op 25-03-2009 20:38 . Reden: CJ is idd prima bron :) ]
Anoniem: 286793
Ik bedoel het ook niet zo letterlijk. Maar in percentages clockt de hd 4890 beter over. Duidelijk?Astennu schreef op woensdag 25 maart 2009 @ 20:08:
[...]
Sinds wanneer zegt MHz iets over de prestaties van een GPU ? nVidia kaarten hebben altijd een lagere core clock. Maar hun shader lopen op veel hogere snelheden. + er zijn nog heel veel andere dingen die belangrijk zijn voor de performance.
Maar drivers kunnen echt een hoop veranderen. Het is technisch mogelijk zon grote verandering te waarborgen. Misschien heeft catalyst maker de bij de beta driver de powerplay even geskipt om de driver zo snel mogelijk beschikbaar te maken.
[ Voor 20% gewijzigd door Anoniem: 286793 op 25-03-2009 20:29 ]
Wellicht dat je deze uitspraak nog even op wilt eten? CJ is al tijden een zeer betrouwbare bron van vroege informatie en technische uitleg gebleken. Hij hoeft zich hier echt niet meer te bewijzen. Je opmerking is wat dat betreft absoluut misplaatst.mdcobra schreef op woensdag 25 maart 2009 @ 20:22:
[...]
Inderdaad, we zullen zien hoe betrouwbaar CJ is in dit opzicht,
Anoniem: 286793
Cj is betrouwbaar en geeft altijd goede uitleg. Zo heeft hij een tijd geleden (vorige deel dacht ik) uitgelegd dat de hoge power consumption niet aan de chip ligt maar aan het ddr5 geheugen.
Ik zie ook niet wat dit alles met CJ's betrouwbaarheid te maken heeft.
Ik zie ook niet wat dit alles met CJ's betrouwbaarheid te maken heeft.
[ Voor 17% gewijzigd door Anoniem: 286793 op 25-03-2009 20:39 ]
Anoniem: 134818
Echt wel bullshit. De eerste drivers bij de HD4870 werkte power play niet. Daarna wel en er was een besparing. Dus bullshit. Wacht maar eerst een de drivers af die het echt ondersteunen.meljor schreef op woensdag 25 maart 2009 @ 20:03:
niks bullshit: alle 4870's hebben volgens mij nog steeds geen echte powerplay functies zoals duidelijk voor de launch beloofd.....
mijn laptop met oude 9700mobile kan dat veel beter dan mijn 4870. (maar het is ze vergeven want ik vind de prijs/performance geweldig. ook toen ik hem kocht voor 229euro...)
Edit: Bedenk maar wat CJ zei over de power circuits. Deze zijn heel anders en het lijkt me dat daar toch aparte instellingen voor moeten zijn.
[ Voor 10% gewijzigd door Anoniem: 134818 op 25-03-2009 20:52 ]
Anoniem: 291245
Graka-orakelisme ten top! 
Ben trouwens benieuwd of Salland ook werkelijk gaat uitleveren. Volgens mij is het bedrijf, of de leverancier dan strafbaar.
Ben trouwens benieuwd of Salland ook werkelijk gaat uitleveren. Volgens mij is het bedrijf, of de leverancier dan strafbaar.
over de verwachte kracht van de hd5xxxx series:
vergeet niet dat de gtx280 niet aan de 1 teraflop komt maar toch sneller is in games dan de hd4870.
vergeet niet dat de gtx280 niet aan de 1 teraflop komt maar toch sneller is in games dan de hd4870.
Hm ik wacht rustig af. Heb eigenlijk wel weer trek in een nieuwe videokaart, vooral de voltage regulators spreken me aan omdat je dan misschien ook via de bios gemakkelijk het voltage kan modden. Lager is een vereiste, maar hoger is ook leuk
Nukezone FTW
Je kan nu al de videokaarten met digital PWM's softwarematig voltmodden hoorPowrskin schreef op woensdag 25 maart 2009 @ 22:31:
Hm ik wacht rustig af. Heb eigenlijk wel weer trek in een nieuwe videokaart, vooral de voltage regulators spreken me aan omdat je dan misschien ook via de bios gemakkelijk het voltage kan modden. Lager is een vereiste, maar hoger is ook leuk
O.A. de HD4870, HD4870X2 & GTX260,GTX280.
Wat een gezeik over Powerplay weer. In dit topic stond al vrij vroeg na de launch in de Frequently Asked Questions lijst een uitleg over Powerplay en welke kaarten wat ondersteunen en waarom. Powerplay doet het gewoon in de RV770. Als je het tegen vindt vallen, dan is dat je eigen mening en wil dat nog niet zeggen dat Powerplay defect is of niet doet wat het moet doen. Dat maakt AMD alsnog zelf wel uit.
Om maar een voorbeeld te geven van dezelfde Powerplay in actie maar op verschillende kaarten:
Bron: MSI R4870 Review @ HardOCP van 25 Maart 2009
Je ziet dat het uitmaakt aan wat voor cooler de RV770 gekoppeld wordt, wat voor bios er in je videokaart zit en wat voor geheugen er gebruikt wordt (de RV770 met GDDR3 in de HD4850 verbruikt veel minder). Ook zie je dat AMD blijkbaar het een en ander verbeterd heeft omdat de 1GB versie al minder verbruikt dan de 512MB versie. Ook de Catalyst drivers kunnen het een en ander verbeterd hebben omdat de GPUs nu een aparte chip hebben die Powerplay kan 'herprogrammeren'. De kans is dus groot dat wanneer men een HD4870 pakt en die vergelijkt met de launchdrivers en de meest recente drivers dat het stroomverbruik ineens een stuk is afgenomen zoals je hier ook al ziet.
Aangezien veel mensen nu al voorbarige conclusies trekken aan de hand van wat gelekte benchmarks... zou ik zeggen... wacht op de echte reviews met launchdriver. Er zijn een aantal dingen verandert waardoor het verbruik zou moeten zijn afgenomen in idle toestand met de launchdrivers. Ik zou dit eigenlijk niet moeten doen, maar voila..... hier een klein overzicht van veranderingen wat je kan verwachten op het gebied van stroomverbruik:
1) De coresnelheid draait nu op 240Mhz ipv 500/550Mhz (was bekend).
2) De cooler heeft nu 3 heatpipes ipv 2 bij de HD4870. Dit komt vooral ten goede bij de hogere kloksnelheden om de boel koeler te houden, maar ook in 2D zou dit een verbetering moeten zijn tov de HD4870
3) De chip heeft een flinke fine-tuning ondergaan waardoor de clockloops nu veel strakker zijn en waardoor de stroomverdeling een stuk beter te regelen is.
4) De RV790 heeft 2 gescheiden stroom niveaus daar waar bij RV770 alles 1 geheel was. Dit kon je eigenlijk ook al wel zien aan de veranderingen op het PCB. Niveau 1 is de core, niveau 2 is de memorycontroller. Hierdoor is het mogelijk om voltages nauwkeuriger te regelen waardoor elke chip gemakkelijk z'n volle potentieel kan bereiken. Bij de RV770 is het zo dat als 1 niveau z'n max had bereikt, je gelijk ook op je top zat. Nu kan je afzonderlijk de niveaus regelen en van elk niveau dus z'n max bepalen.
Punt nummer 4 is dus een van de grote veranderingen binnen de RV790 tov de RV770. Het zorgt er ook voor dat het overklokpotentieel veel hoger ligt dan bij de RV770, maar ook dat het stroomverbruik in idle toestand lager is omdat er meer voltage control is over de verschillende delen binnen de GPU. Maar wel mits de drivers dit goed ondersteunen en van wat ik tot nu toe gezien heb in de 'gelekte' benchmarks zijn er voornamelijk drivers gebruikt die ofwel niet geschikt zijn voor de HD4890 of waar de dual powerplane optie niet is geactiveerd.
Punt nummer 4 is dus ook waarom er nu zo veel meldingen zijn van HD4890 kaarten die 1Ghz halen met de reference cooling. Volgens mijn bronnen zouden bijna alle RV790s de 1Ghz moeten kunnen halen. 950Mhz is gegarandeerd. 1000Mhz moet te doen zijn zonder al te veel moeite.
Edit: Nog meer gelekte benchmarks op een nog te releasen flagship CPU van Intel (i7 975) met drivers van de CD (dus niet de launchdrivers). Beide videokaarten zijn op hetzelfde systeem getest en de OC was met reference cooler en Overdrive bereikt:
3DM06
HD4870 1GB: 14583
HD4890 1GB: 17586
HD4890 1GB OC: 18427
Vantage
HD4870 1GB: P9332
HD4890 1GB: P11385
HD4890 1GB OC: P12467
http://forums.overclocker...p?p=13755233#post13755233
Edit 2: Als je de cijfers van die ene chinese site er bij pakt en het verschil bekijkt tussen de HD4870 en HD4890 dan is dit het verschil in percentages:
1680x1050
Far Cry 9.4%
Crysis 7.5%
Stalker 10.5%
FEAR 13.3%
Grid 4.7%
Call of Duty 2.4%
Vantage 12.6%
1920x1080 met 4x dan wel 8xAA
Far Cry 10.9%
Crysis 9.5%
Stalker 18.3%
FEAR 13.5%
Grid 10.8%
Call of Duty 9.6%
Vantage 15.4%
Dat is dus op reference snelheden... nu nog effe testen met Overdrive aan... Die percentages komen aardig dicht in de buurt bij wat er al een tijd in de first post staat.
Edit 3: Nieuwe GPU-Z met RV740 (HD4750/HD4770) en RV790 (HD4890) support: http://www.techpowerup.co...PowerUp_GPU-Z_v0.3.3.html
Om maar een voorbeeld te geven van dezelfde Powerplay in actie maar op verschillende kaarten:
Videokaart | Idle | Load |
HD4870 512MB @ Launch | 206W | 370W |
HD4870 1GB | 216W | 356W |
MSI R4870 1GB | 204W | 347W |
GTX260 Core 216 | 180W | 343W |
Bron: MSI R4870 Review @ HardOCP van 25 Maart 2009
Je ziet dat het uitmaakt aan wat voor cooler de RV770 gekoppeld wordt, wat voor bios er in je videokaart zit en wat voor geheugen er gebruikt wordt (de RV770 met GDDR3 in de HD4850 verbruikt veel minder). Ook zie je dat AMD blijkbaar het een en ander verbeterd heeft omdat de 1GB versie al minder verbruikt dan de 512MB versie. Ook de Catalyst drivers kunnen het een en ander verbeterd hebben omdat de GPUs nu een aparte chip hebben die Powerplay kan 'herprogrammeren'. De kans is dus groot dat wanneer men een HD4870 pakt en die vergelijkt met de launchdrivers en de meest recente drivers dat het stroomverbruik ineens een stuk is afgenomen zoals je hier ook al ziet.
Dan over de HD4890 en het stroomverbruik en warmte afgifte en mijn 'betrouwbaarheid'. Als straks in sommige reviews blijkt dat de RV790 meer verbruikt dan de RV770 in idle toestand dan is er echt iets mis met de drivers dan wel bios. De chip is zo ontworpen dat dit een stuk lager zou moeten liggen dan de RV770. En ik heb exemplaren gezien waar het inderdaad gewoon goed werkt.This discrepancy might be due to BIOS voltage and power management tweaking on the Radeon HD 4870 1GB and the MSI R4870 MD1G, since the 512MB Radeon HD 4870 we have is one of the earliest launch samples. This shows power management has been improved since the 4870’s launch.
Aangezien veel mensen nu al voorbarige conclusies trekken aan de hand van wat gelekte benchmarks... zou ik zeggen... wacht op de echte reviews met launchdriver. Er zijn een aantal dingen verandert waardoor het verbruik zou moeten zijn afgenomen in idle toestand met de launchdrivers. Ik zou dit eigenlijk niet moeten doen, maar voila..... hier een klein overzicht van veranderingen wat je kan verwachten op het gebied van stroomverbruik:
1) De coresnelheid draait nu op 240Mhz ipv 500/550Mhz (was bekend).
2) De cooler heeft nu 3 heatpipes ipv 2 bij de HD4870. Dit komt vooral ten goede bij de hogere kloksnelheden om de boel koeler te houden, maar ook in 2D zou dit een verbetering moeten zijn tov de HD4870
3) De chip heeft een flinke fine-tuning ondergaan waardoor de clockloops nu veel strakker zijn en waardoor de stroomverdeling een stuk beter te regelen is.
4) De RV790 heeft 2 gescheiden stroom niveaus daar waar bij RV770 alles 1 geheel was. Dit kon je eigenlijk ook al wel zien aan de veranderingen op het PCB. Niveau 1 is de core, niveau 2 is de memorycontroller. Hierdoor is het mogelijk om voltages nauwkeuriger te regelen waardoor elke chip gemakkelijk z'n volle potentieel kan bereiken. Bij de RV770 is het zo dat als 1 niveau z'n max had bereikt, je gelijk ook op je top zat. Nu kan je afzonderlijk de niveaus regelen en van elk niveau dus z'n max bepalen.
Punt nummer 4 is dus een van de grote veranderingen binnen de RV790 tov de RV770. Het zorgt er ook voor dat het overklokpotentieel veel hoger ligt dan bij de RV770, maar ook dat het stroomverbruik in idle toestand lager is omdat er meer voltage control is over de verschillende delen binnen de GPU. Maar wel mits de drivers dit goed ondersteunen en van wat ik tot nu toe gezien heb in de 'gelekte' benchmarks zijn er voornamelijk drivers gebruikt die ofwel niet geschikt zijn voor de HD4890 of waar de dual powerplane optie niet is geactiveerd.
Punt nummer 4 is dus ook waarom er nu zo veel meldingen zijn van HD4890 kaarten die 1Ghz halen met de reference cooling. Volgens mijn bronnen zouden bijna alle RV790s de 1Ghz moeten kunnen halen. 950Mhz is gegarandeerd. 1000Mhz moet te doen zijn zonder al te veel moeite.
Edit: Nog meer gelekte benchmarks op een nog te releasen flagship CPU van Intel (i7 975) met drivers van de CD (dus niet de launchdrivers). Beide videokaarten zijn op hetzelfde systeem getest en de OC was met reference cooler en Overdrive bereikt:
3DM06
HD4870 1GB: 14583
HD4890 1GB: 17586
HD4890 1GB OC: 18427
Vantage
HD4870 1GB: P9332
HD4890 1GB: P11385
HD4890 1GB OC: P12467
http://forums.overclocker...p?p=13755233#post13755233
Edit 2: Als je de cijfers van die ene chinese site er bij pakt en het verschil bekijkt tussen de HD4870 en HD4890 dan is dit het verschil in percentages:
1680x1050
Far Cry 9.4%
Crysis 7.5%
Stalker 10.5%
FEAR 13.3%
Grid 4.7%
Call of Duty 2.4%
Vantage 12.6%
1920x1080 met 4x dan wel 8xAA
Far Cry 10.9%
Crysis 9.5%
Stalker 18.3%
FEAR 13.5%
Grid 10.8%
Call of Duty 9.6%
Vantage 15.4%
Dat is dus op reference snelheden... nu nog effe testen met Overdrive aan... Die percentages komen aardig dicht in de buurt bij wat er al een tijd in de first post staat.
Edit 3: Nieuwe GPU-Z met RV740 (HD4750/HD4770) en RV790 (HD4890) support: http://www.techpowerup.co...PowerUp_GPU-Z_v0.3.3.html
[ Voor 9% gewijzigd door CJ op 26-03-2009 01:37 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Het ziet er wel netjes uit. Ik ben benieuwd naar de echte reviews. Dit zijn erg leuke oc kaartjes. Zeker als je straks met wat bios mods het een en ander zelf kan veranderen 
Ik heb zelf wat tests gedaan met CPU's en coolers. Maar als een CPU 10c warmer wordt gaat het verbruik ook met 8-10 watt omhoog. Ik was hier echt verbaast over. Dus goed coolen scheelt ook weer in het verbruik. Ik weet niet of dit ook geld bij de RV770 chips. Maar hoe warmer een chip wordt hoe hoger de weerstand wordt. Nu kun je hier vast wel dingen aan doen. En dat zal AMD ook wel gedaan hebben want die RV770 is ontworpen voor hoge temps.
Ik heb zelf wat tests gedaan met CPU's en coolers. Maar als een CPU 10c warmer wordt gaat het verbruik ook met 8-10 watt omhoog. Ik was hier echt verbaast over. Dus goed coolen scheelt ook weer in het verbruik. Ik weet niet of dit ook geld bij de RV770 chips. Maar hoe warmer een chip wordt hoe hoger de weerstand wordt. Nu kun je hier vast wel dingen aan doen. En dat zal AMD ook wel gedaan hebben want die RV770 is ontworpen voor hoge temps.
[ Voor 55% gewijzigd door Astennu op 26-03-2009 07:40 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 286793
Ja, als je bedoelt dat je gpu warmer wordt DOORDAT je hem hoger clockt, dan gaat het stroomverbruik wel omhoog maar niet door de warmte. Misschien heb ik het fout, misschien is er wel hogere leakage op een hoge temp maar ik dacht het niet.
Normaal gesproken is het zo dat ati kaarten wat slechter scoren in 3dmark maar vervolgens weer iets beter in gaming. Nu de score in vantage 15% hoger is, is de kans groot dat straks veel games ook 15% (of dus meer) beter scoren. Ik denk dat dit echt is vanwege de beta drivers. Kijk naar Grid en cod, die spellen scoren gewoon te weinig en dit komt gewoon door de drivers.
En als CJ zegt dat hij hd490's heeft gezien die minder verbruiken dan een hd4870 geloof ik hem graag.
En dan nog die ongelooflijke overclockbaarheid. Ik vraag me af of er ook factory oc versies komen die standaard al op 1 ghz geclockt is. Vergeet niet de hd4890 is maar 13.33% hoger geclockt dan de hd 4870. als hij op 1ghz draait maarliefst 33.33%. Nou als hij dan niet bij de gtx 285 in de buurt komt. Zo'n overclock redt je nooit met de gtx 275. En vergeet het ddr3 geheugen niet. Dat zal hem wel gaan bottlenecken op de hoge resolutie.
Normaal gesproken is het zo dat ati kaarten wat slechter scoren in 3dmark maar vervolgens weer iets beter in gaming. Nu de score in vantage 15% hoger is, is de kans groot dat straks veel games ook 15% (of dus meer) beter scoren. Ik denk dat dit echt is vanwege de beta drivers. Kijk naar Grid en cod, die spellen scoren gewoon te weinig en dit komt gewoon door de drivers.
En als CJ zegt dat hij hd490's heeft gezien die minder verbruiken dan een hd4870 geloof ik hem graag.
En dan nog die ongelooflijke overclockbaarheid. Ik vraag me af of er ook factory oc versies komen die standaard al op 1 ghz geclockt is. Vergeet niet de hd4890 is maar 13.33% hoger geclockt dan de hd 4870. als hij op 1ghz draait maarliefst 33.33%. Nou als hij dan niet bij de gtx 285 in de buurt komt. Zo'n overclock redt je nooit met de gtx 275. En vergeet het ddr3 geheugen niet. Dat zal hem wel gaan bottlenecken op de hoge resolutie.
[ Voor 23% gewijzigd door Anoniem: 286793 op 26-03-2009 08:23 ]
Dat dacht ik eerst ook. Maar echt alleen temperatuur scheelde ook al. CPU was gewoon op 3.0 geclockt en ik zette de fan uit. Dan zag je dat elke 10 C die de cpu temp steeg het verbruik ook met 8-10 watt omhoog gegaan was. Je zag het gewoon oplopen op de meter.Anoniem: 286793 schreef op donderdag 26 maart 2009 @ 08:15:
Ja, als je bedoelt dat je gpu warmer wordt DOORDAT je hem hoger clockt, dan gaat het stroomverbruik wel omhoog maar niet door de warmte. Misschien heb ik het fout, misschien is er wel hogere leakage op een hoge temp maar ik dacht het niet.
Normaal gesproken is het zo dat ati kaarten wat slechter scoren in 3dmark maar vervolgens weer iets beter in gaming. Nu de score in vantage 15% hoger is, is de kans groot dat straks veel games ook 15% (of dus meer) beter scoren. Ik denk dat dit echt is vanwege de beta drivers. Kijk naar Grid en cod, die spellen scoren gewoon te weinig en dit komt gewoon door de drivers.
En als CJ zegt dat hij hd490's heeft gezien die minder verbruiken dan een hd4870 geloof ik hem graag.
En dan nog die ongelooflijke overclockbaarheid. Ik vraag me af of er ook factory oc versies komen die standaard al op 1 ghz geclockt is. Vergeet niet de hd4890 is maar 13.33% hoger geclockt dan de hd 4870. als hij op 1ghz draait maarliefst 33.33%. Nou als hij dan niet bij de gtx 285 in de buurt komt. Zo'n overclock redt je nooit met de gtx 275. En vergeet het ddr3 geheugen niet. Dat zal hem wel gaan bottlenecken op de hoge resolutie.
Hogere clocks verhogen het verbruik wel ietsjes. Maar de grootste boosdoener is toch het voltage. Zodra die omhoog gaat zie je de grootste stijging.
Maar goed op deze manier zou je CPU's al eigenlijk met dezelfde coolers moeten testen om het eerlijk te houden. Want als een CPU een betere cooler heeft kan het verbruik daardoor al 10-20c lager zijn.
Misschien is dit ook de rede dat sommige non refferenced Radeon kaarten 10 watt zuiniger zijn. Omdat de niet stock cooler de load temp gewoon wat lager houd en er dus minder weerstand optreed in de chip.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hoe warmer de chip hoe meer verbruik is heel logisch hoorAstennu schreef op donderdag 26 maart 2009 @ 08:30:
[...]
Dat dacht ik eerst ook. Maar echt alleen temperatuur scheelde ook al. CPU was gewoon op 3.0 geclockt en ik zette de fan uit. Dan zag je dat elke 10 C die de cpu temp steeg het verbruik ook met 8-10 watt omhoog gegaan was. Je zag het gewoon oplopen op de meter.
Hogere clocks verhogen het verbruik wel ietsjes. Maar de grootste boosdoener is toch het voltage. Zodra die omhoog gaat zie je de grootste stijging.
Maar goed op deze manier zou je CPU's al eigenlijk met dezelfde coolers moeten testen om het eerlijk te houden. Want als een CPU een betere cooler heeft kan het verbruik daardoor al 10-20c lager zijn.
Misschien is dit ook de rede dat sommige non refferenced Radeon kaarten 10 watt zuiniger zijn. Omdat de niet stock cooler de load temp gewoon wat lager houd en er dus minder weerstand optreed in de chip.
Hoe warmer de chip hoe groter de weerstand wordt. Nemen we de wet van Ohm erbij U = I * R
Als in spanning = stroom * weerstand. Dan zien we dat als de weerstand toeneemt, de spanning ook toeneemt en daardoor de energie door het circuit ook. Deze berekenen we namelijk met P(power/energie) = U*I.
edit: Astennu ik heb eerder een soort poging gedaan hier iets over uit te leggen, maar toen werd ik nogal brutaal afgesnauwd door Dhr. Reinman. Hierop heb ik vervolgens niet meer gereageerd, for the love of the topic.
Maar miss kun jij hem nu wel uit zijn hoofd praten dat hij niet geen gelijk heeft, met jouw praktijkvoorbeeld. Even een quote uit zijn post:
Anoniem: 134818 schreef op woensdag 18 maart 2009 @ 13:22:
[...]
Dus als ik er een dikke koeler op zet en mijn temperatuur naar beneden gaat, verbruik ik ook minder stroom?(ik hoop dat jij ook aanvoelt dat het onzin is). Dus jij moet niet zo blaten. Ik weet wel wat ik zeg.
[ Voor 20% gewijzigd door Gurneyhck op 26-03-2009 10:37 ]
Gurneyhck schreef op donderdag 26 maart 2009 @ 10:32:
[...]
Hoe warmer de chip hoe meer verbruik is heel logisch hoor
Hoe warmer de chip hoe groter de weerstand wordt. Nemen we de wet van Ohm erbij U = I * R
Als in spanning = stroom * weerstand. Dan zien we dat als de weerstand toeneemt, de spanning ook toeneemt en daardoor de energie door het circuit ook. Deze berekenen we namelijk met P(power/energie) = U*I.
edit: Astennu ik heb eerder een soort poging gedaan hier iets over uit te leggen, maar toen werd ik nogal brutaal afgesnauwd door Dhr. Reinman. Hierop heb ik vervolgens niet meer gereageerd, for the love of the topic.
Maar miss kun jij hem nu wel uit zijn hoofd praten dat hij niet geen gelijk heeft, met jouw praktijkvoorbeeld. Even een quote uit zijn post:
[...]

At 550MHz and 560MHz frequencies, the core voltage remained the same, but I installed a water-cooling system. The power consumption then went down somewhat.
Curiously enough, the power consumption of the card at the nominal frequencies turns to be lower with the water-cooling system than with the standard air cooler. Evidently, the water leads to a lower GPU temperature, thus positively affecting the power consumption. This is probably due to the reduction of various leakage currents and other effects when the die temperature is low – specialists in semiconductors may have something to add on the topic. I can only show you a diagram from the report on extreme overclocking of the RADEON X800 Pro – it contains the die temperature and the ambient temperature:
link
[ Voor 20% gewijzigd door Blastpe op 26-03-2009 11:07 ]
Bedankt voor je uitgebreide antwoordCJ schreef op donderdag 26 maart 2009 @ 01:11:
Wat een gezeik over Powerplay weer. ...... Dat maakt AMD alsnog zelf wel uit.
.............
Dan over de HD4890 en het stroomverbruik en warmte afgifte en mijn 'betrouwbaarheid'. Als straks in sommige reviews blijkt dat de RV790 meer verbruikt dan de RV770 in idle toestand dan is er echt iets mis met de drivers dan wel bios. De chip is zo ontworpen dat dit een stuk lager zou moeten liggen dan de RV770. En ik heb exemplaren gezien waar het inderdaad gewoon goed werkt.
Mijn excuses voor het gezeik, ik heb het dan over de betrouwbaarheid/PR (waar jij ook deel van uitmaakt) van Ati, m.i. kan het toch niet zo zijn dat als zowel BIOS en de Drivers hopelijk meewerken dat het dan pas werkt! Laten we wel wezen als je zo'n kaart koopt heb je geen idee wat voor bios erin zit en zit je mogelijk met een niet goed werkende PowerPlay.
Als het resultaat uiteindelijk is dat het idle gebruik hoog is noem ik het gewoon defect (ook al werkt misschien 90% wel), dat is dan voor mij niet van belang
Fudzilla geeft je ook gelijk:
http://www.fudzilla.com/i...k=view&id=12832&Itemid=34
We zullen het de komende tijd zien.
Euh, dat klopt niet helemaal. Chips werken op een bepaalde (vaste) spanning, als de weerstand ervan toe zou nemen door de temperatuur zou de spanning niet toenemen maar de stroom (en daarmee het opgenomen vermogen) afnemen.Gurneyhck schreef op donderdag 26 maart 2009 @ 10:32:
Hoe warmer de chip hoe meer verbruik is heel logisch hoor
Hoe warmer de chip hoe groter de weerstand wordt. Nemen we de wet van Ohm erbij U = I * R
Als in spanning = stroom * weerstand. Dan zien we dat als de weerstand toeneemt, de spanning ook toeneemt en daardoor de energie door het circuit ook. Deze berekenen we namelijk met P(power/energie) = U*I.
De verklaring van de post twee posts boven mij (meer lekstromen bij een hogere temperatuur) lijkt mij dan ook een stuk aannemelijker.
Anoniem: 134818
Ik hoop dat je de koeling ook mee rekent in je verbruik? ik namelijk wel, ik meet altijd total system power consumptionGurneyhck schreef op donderdag 26 maart 2009 @ 10:32:
[...]
edit: Astennu ik heb eerder een soort poging gedaan hier iets over uit te leggen, maar toen werd ik nogal brutaal afgesnauwd door Dhr. Reinman. Hierop heb ik vervolgens niet meer gereageerd, for the love of the topic.
Maar miss kun jij hem nu wel uit zijn hoofd praten dat hij niet geen gelijk heeft, met jouw praktijkvoorbeeld. Even een quote uit zijn post:
Ik zal je nog laten lezen waar het om ging:
Als in, de temperatuur is hier niet zo hoog door het verbruik, als meer het gebruik van de koeler.Het gaat om de koeler in dit geval(hij miept over temperatuur, maar geeft daar het verbruik de schuld van, terwijl het verbruik van de kaart niet buitensporig is, alleen de koeler zo is ingesteld om op een laag pitje te draaien)
Edit: Trouwens ik reageerde op jouw zoals jij reageerde. Vervelend he.
[ Voor 3% gewijzigd door Anoniem: 134818 op 26-03-2009 11:23 ]
Maar goed een cpu fan waar het in mijn voorbeeld over ging. Gebruik 1-2 watt max. En ik ging 30c omhoog en toen ook bijna 20-25 watt in verbruik (ik had niet verwacht dat het zo veel kon zijn). Maar het kan natuurlijk per chip schelen. Maar Temp speelt wel degelijk een rol. Ga je bv een water cooling gebruiken heb je weer het verbruik van je pomp er bij. Maar een betere air cooler zal amper meer verbruiken als het over de fan gaat. Maar kan je wel aardig wat stroom besparen.Anoniem: 134818 schreef op donderdag 26 maart 2009 @ 11:20:
[...]
Ik hoop dat je de koeling ook mee rekent in je verbruik? ik namelijk wel, ik meet altijd total system power consumption. Zoals je ziet bij blastpe is het verschil nominaal. Zeker als je zo lekker selectief quoten, waar het uit eindelijk om ging.
Ik zal je nog laten lezen waar het om ging:
[...]
Als in, de temperatuur is hier niet zo hoog door het verbruik, als meer het gebruik van de koeler.
Edit: Trouwens ik reageerde op jouw zoals jij reageerde. Vervelend he.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 134818
Sja, dat ligt er aan hoe veel beter je koeling is. Ik praatte daar vooral over een dikke koeler, ala deze:
http://www.dvhardware.net...ccelero_xtreme_gtx280.jpg
En als je een push pull maakt op een Mugen (al dan niet 2) of TRUE komt daar ook weer extra verbruik bij. Zakt de temperatuur genoeg om dat verschil goed te maken om minder lekstroom te hebben.
Eigenlijk is het heel simpel. Iemand hier met een stock koeler en een watt meter. Meet je wattage op 90 graden en fan op langzaam 30% en meet het op ~50 graden op 80% fanspeed.
http://www.dvhardware.net...ccelero_xtreme_gtx280.jpg
En als je een push pull maakt op een Mugen (al dan niet 2) of TRUE komt daar ook weer extra verbruik bij. Zakt de temperatuur genoeg om dat verschil goed te maken om minder lekstroom te hebben.
Eigenlijk is het heel simpel. Iemand hier met een stock koeler en een watt meter. Meet je wattage op 90 graden en fan op langzaam 30% en meet het op ~50 graden op 80% fanspeed.
[ Voor 56% gewijzigd door Anoniem: 134818 op 26-03-2009 12:31 ]
Push pull is van wat ik tot nu toe gezien heb nutteloos. Temp zakt maar iets van 2c. En dan krijg je de winst er niet echt uit. Met zo'n accelero denk ik wel (afhankelijk van de chip) Die cooler laat de temp naar 40-50 zakken waar hij nu 90-100 is (in het geval van een HD4870 X2) Dus ik denk dat je die 5 watt aan fans er daar wel uit haalt. + hij zal een stuk stiller zijn.Anoniem: 134818 schreef op donderdag 26 maart 2009 @ 12:27:
Sja, dat ligt er aan hoe veel beter je koeling is. Ik praatte daar vooral over een dikke koeler, ala deze:
http://www.dvhardware.net...ccelero_xtreme_gtx280.jpg
En als je een push pull maakt op een Mugen (al dan niet 2) of TRUE komt daar ook weer extra verbruik bij. Zakt de temperatuur genoeg om dat verschil goed te maken om minder lekstroom te hebben.
Eigenlijk is het heel simpel. Iemand hier met een stock koeler en een watt meter. Meet je wattage op 90 graden en fan op langzaam 30% en meet het op ~50 graden op 80% fanspeed.
Ik heb toen het volgende getest. Fan max. En toen fan uit. Verschil was 1 watt temp nog gelijk maar toen ging de temp omhoog en zag je het verbruik stijgen. Ik weet helaas niet exact meer hoeveel dit was want dit is al 5 weken geleden of zo. Maar ik zal het binnenkort nog eens meten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Daar was ik van op de hoogteGurneyhck schreef op woensdag 25 maart 2009 @ 22:42:
[...]
Je kan nu al de videokaarten met digital PWM's softwarematig voltmodden hoor
O.A. de HD4870, HD4870X2 & GTX260,GTX280.
Nou wie doet er even zijn vinger tussen de 47XX fan en kijkt met gpu-z naar oplopende temps en de wattmeter?
Ik heb hem op waterkoeling, waaraan niet alleen de gpu, zal zo de boel alsnog even uitzetten om verschil te ontdekken.
[ Voor 23% gewijzigd door Powrskin op 26-03-2009 13:30 ]
Nukezone FTW
Ja dus ? het verschil tussen uit en aan was 1 watt voor die cooler.Anoniem: 134818 schreef op donderdag 26 maart 2009 @ 13:18:
Uit is niet het zelfde natuurlijk als langzaam draaien.
Ik heb die van mij hardmodded. Maar dat PWM gedeelte wordt dan wel erg warm. Heb ze mod nu ook gewoon los gehaald scheelt mij maar 10-15 MHz.Powrskin schreef op donderdag 26 maart 2009 @ 13:23:
[...]
Daar was ik van op de hoogteHeb nu een 4850 waarbij dat niet kan namelijk, anders zat die nu ook al wel op 900mhz
[ Voor 44% gewijzigd door Astennu op 26-03-2009 13:30 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De discussie neigt hier nu wel erg naar een 'ervaringen'-discussie wat beter in het andere topic past... het heeft weinig met echt 'nieuws' meer te maken...
Interessante nieuwsberichten over de demonstratie van Havok op de GPU via OpenCL tijdens het Game Developers Conference (ja het werkt nu al ondanks dat de OpenCL specificatie pas een paar maanden vast ligt!) en de dual power-plane functies van de RV790 (van core & memory controller) worden hierdoor helemaal ondergesneeuwd.... laat staan dat er over gediscussieerd wordt.... Beetje jammer.
Interessante nieuwsberichten over de demonstratie van Havok op de GPU via OpenCL tijdens het Game Developers Conference (ja het werkt nu al ondanks dat de OpenCL specificatie pas een paar maanden vast ligt!) en de dual power-plane functies van de RV790 (van core & memory controller) worden hierdoor helemaal ondergesneeuwd.... laat staan dat er over gediscussieerd wordt.... Beetje jammer.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 134818
Volgens mij kwam die discussie juist daardoor op gang, over het stroom verbruik
. Trouwens, laat dat aparte memory controller power-plane nu beter toe dat het geheugen op een lagere snelheid gaat draaien?
CJ, ik heb een vraagje over dat Havok FX. Stel nou dat het geactiveerd wordt met Catalyst 9.4, kunnen we dan meteen in alle games die gebruik maken van Havok de GPU gebruiken om dit te berekenen? Of moet daar eerst ondersteuning voor komen (in de vorm van profielen ofzo)?
Dit vraag ik me ook al een tijdje af en probeer het nieuws er rond zoveel mogelijk te volgen maar het wordt me niet duidelijk.Avalaxy schreef op donderdag 26 maart 2009 @ 13:53:
CJ, ik heb een vraagje over dat Havok FX. Stel nou dat het geactiveerd wordt met Catalyst 9.4, kunnen we dan meteen in alle games die gebruik maken van Havok de GPU gebruiken om dit te berekenen? Of moet daar eerst ondersteuning voor komen (in de vorm van profielen ofzo)?
Ook vroeg ik mij af wanneer we als user nu eindelijk eens zelf onze profielen kunnen gaan aanpassen per game. Een voorbeeldje hiervan is The last Remnant. Als ik het spel draai volgens de install krijg ik soms diepe FPS drops (met 4870X2).
Vervang ik de naam van de exe door MassEffect (ipv TLR) , dan loopt het spel als een trein en is er van drops geen sprake meer.

@ Reinman: Het GDDR5 geheugen blijft op maximale snelheid draaien voor zover ik weet. Het 'beinvloed' nu alleen niet meer de corespeed en vice versa, zoals dat bij de RV770 het geval was. Dat dit het geval was merkte je bij de RV770 doordat er artifacts verschenen wanneer je het GDDR5 geheugen te ver omlaag klokte. Het probleem is dat GDDR5 geheugen bij snelheden lager dan 500Mhz over moet schakelen naar een andere operating-mode die meer op GDDR4 lijkt. Dit vereist extra aanpassingen op software gebied en hardwaregebied. Waarom er dan voor gekozen is om het geheugen op 900Mhz te laten draaien en niet op 500Mhz weet ik niet, maar ik neem aan dat er dan weinig verschil was tussen het stroomverbruik op 500Mhz of op 900Mhz en men voor de 'veiligste' weg koos.
Die aanpassingen kosten namelijk tijd en geld, en men had op dat moment andere prioriteiten, zoals er voor zorgen dat een X2 wel bepaalde aanpassingen had omdat er ineens 2 GPUs op 1 PCB zat met 2x zoveel geheugen. De aanpassingen die er voor de X2 gedaan werden, werden wel weer door gevoerd in de HD4870 1GB... en je ziet dan ook in veel tests dat de HD4870 met 1GB GDDR5 zuiniger is dan een HD4870 met 512MB GDDR5.
Doordat er geen scheiding was van power planes kon je de core van de RV770 op 200Mhz klokken zonder dat je ook maar enige verandering zag in het stroomverbruik. 500Mhz werd toen dus gekozen als meest ideale snelheid (behalve dan op mijn HD4870 waar een test-bios op zit met 550Mhz en variabele Vcores voor 2D/3D). Nu (met de RV790) kan men de power naar de core zelfstandig regelen zonder dat dit dus belemmert wordt door de memorycontroller die gaat flippen.
Ik werd laatst herinnert aan een andere reden waarom de Radeons in idle toestand iets meer verbruiken dan een GTX260/280, Behalve dan dat nVidia een aparte NVIO chip heeft die bepaalde 2D functies overneemt waardoor grote delen van de GT200 in idle toestand kunnen worden uitgeschakeld, werkt ATI gewoon erg anders. Vroeger bestond een GPU uit een 2D (VGA) gedeelte en een 3D gedeelte. Vanaf de R600 heeft men de 2D pipeline compleet verwijdert en wordt dit nu geëmuleerd in de 3D pipeline. De command processor van de GPU vertaalt 2D calls naar 3D calls en de 3D engine wordt dan dus gebruikt.
Die aanpassingen kosten namelijk tijd en geld, en men had op dat moment andere prioriteiten, zoals er voor zorgen dat een X2 wel bepaalde aanpassingen had omdat er ineens 2 GPUs op 1 PCB zat met 2x zoveel geheugen. De aanpassingen die er voor de X2 gedaan werden, werden wel weer door gevoerd in de HD4870 1GB... en je ziet dan ook in veel tests dat de HD4870 met 1GB GDDR5 zuiniger is dan een HD4870 met 512MB GDDR5.
Doordat er geen scheiding was van power planes kon je de core van de RV770 op 200Mhz klokken zonder dat je ook maar enige verandering zag in het stroomverbruik. 500Mhz werd toen dus gekozen als meest ideale snelheid (behalve dan op mijn HD4870 waar een test-bios op zit met 550Mhz en variabele Vcores voor 2D/3D). Nu (met de RV790) kan men de power naar de core zelfstandig regelen zonder dat dit dus belemmert wordt door de memorycontroller die gaat flippen.
Ik werd laatst herinnert aan een andere reden waarom de Radeons in idle toestand iets meer verbruiken dan een GTX260/280, Behalve dan dat nVidia een aparte NVIO chip heeft die bepaalde 2D functies overneemt waardoor grote delen van de GT200 in idle toestand kunnen worden uitgeschakeld, werkt ATI gewoon erg anders. Vroeger bestond een GPU uit een 2D (VGA) gedeelte en een 3D gedeelte. Vanaf de R600 heeft men de 2D pipeline compleet verwijdert en wordt dit nu geëmuleerd in de 3D pipeline. De command processor van de GPU vertaalt 2D calls naar 3D calls en de 3D engine wordt dan dus gebruikt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Even wat misverstanden uit de wereld helpen...Avalaxy schreef op donderdag 26 maart 2009 @ 13:53:
CJ, ik heb een vraagje over dat Havok FX. Stel nou dat het geactiveerd wordt met Catalyst 9.4, kunnen we dan meteen in alle games die gebruik maken van Havok de GPU gebruiken om dit te berekenen? Of moet daar eerst ondersteuning voor komen (in de vorm van profielen ofzo)?
Het is niet Havok FX dat gebruikt wordt. Havok FX was de eerste GPU physics implementatie van Havok die op zowel nVidia als ATI GPUs werkte. En toen Intel Havok overnam werd dit project in de koelkast gezet.
Havok ondersteuning wordt niet 'geactiveerd' via de Catalyst drivers. De Catalyst drivers hebben sinds Catalyst 8.12 ondersteuning voor ATI Stream Acceleration. Hierdoor kunnen applicaties (zoals PowerDirector 7 en Avivo Videoconverter) rechtstreeks de kracht van de GPU aanspreken. ATI Stream is immers een set van software en hardware technologieen die er voor zorgen dat de GPU samen kan werken met de CPU om zo tot een uitgebalanceerde workload te komen. Elke Radeon vanaf de HD2x00 serie ondersteunt ATI Stream automatisch via de drivers en kan dus aangesproken worden mits applicaties daarvoor geprogrammeerd zijn.
Havok zal dus zelf de GPU moeten aanspreken. Dit gebeurt via OpenCL (of Computeshaders in DX11) wat dus ook in de recente demo's (zie mijn posts hiervoor met links) gebeurd is. In deze demo's wordt bv de rode jurk via OpenCL op zowel de CPU als GPU berekent om een zo realistisch mogelijk effect te creeeren met de meest ideale workload.
AMD zet zich in om zo snel mogelijk OpenCL ondersteuning toe te voegen aan de drivers. Dit doen ze door zich volledig achter de standaard te scharen en een compiler en runtime in de gratis ATI Stream SDK te integreren die volledig aan die standaard voldoet.
AMD's plan na de ondergang van Havok FX was het onderscheppen van Havok CPU calls, dit in realtime te analyseren en wanneer de conclusie was dat de GPU beter geschikt was voor de berekeningen, dit te offloaden naar de GPU. Zoals het er nu voor staat gaat het dus anders. Havok gaat op dezelfde manier werken als PhysX, maar dan met OpenCL ipv CUDA. Games zullen dus aangepast moeten worden voor Havok GPU ondersteuning. De verwachting is dat dit echter slechts een kleine aanpassing vereist en dat games die gebruik maken van de Havok engine (bv een HL2) via een patch dus gebruik zullen kunnen maken van GPU physics. Aangezien er wat grote games aan komen die Havok ondersteunen is het nog een grote vraag of die GPU Havok gaan ondersteunen (denk bv aan Starcraft 2, Diablo 3).
Dit lijkt dus niet veel anders dan een PhysX oplossing en dat is het ook niet... Maar het grote verschil is natuurlijk dat OpenCL dus echt een open standaard is die ondersteunt wordt door iedereen (inclusief Intel, AMD, S3, nVidia en grote gamedevelopers als EA en Activision Blizzard) en CUDA dus een gesloten standaard die slechts werkt op nVidia GPUs. Persoonlijk ben ik voor open standaarden en daarom hoop ik dat nVidia PhysX aanpast zodat CUDA niet meer nodig is maar dit gewoon via OpenCL kan gebeuren en dus ook op Radeons zou kunnen werken.
De ATI Radeons zijn op dit moment dus al geschikt om aangesproken te worden door applicaties voor andere doeleinden dan het renderen van beelden. Het is alleen wachten op de applicaties. Er ligt dus nog vele Flops onaangetapt vermogen in de huidige serie Radeons.
Dit komt nog. AMD had een paar drivers terug een implementatie in de beta drivers geintegreerd waarmee eindgebruikers zelf profielen konden creeeren. Dit leverde echter wat onvoorziene problemen op en men is terug gegaan naar de tekentafel om een nieuwe user-friendly profielensysteem op te zetten die op dit moment weer getest wordt. Het lijkt een simpel probleem om op te lossen, maar de hardware zit toch dusdanig ingewikkeld in elkaar dat dit toch nog even op zich laat wachten. Je kan namelijk beter gelijk met een goed werkend product lanceren dan dat je de support afdeling onder hoge stress zet wanneer een product bij launch het niet goed doet.sleepwalkerbe schreef op donderdag 26 maart 2009 @ 14:06:
[...]
Ook vroeg ik mij af wanneer we als user nu eindelijk eens zelf onze profielen kunnen gaan aanpassen per game. Een voorbeeldje hiervan is The last Remnant. Als ik het spel draai volgens de install krijg ik soms diepe FPS drops (met 4870X2).
Vervang ik de naam van de exe door MassEffect (ipv TLR) , dan loopt het spel als een trein en is er van drops geen sprake meer.
[ Voor 8% gewijzigd door CJ op 26-03-2009 14:50 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Was deze benchmark al langs gekomen?
Vantage benchmark GTX285/HD4890
Vantage benchmark GTX285/HD4890
Ze hebben 'm geloof ik nu ofwel offline gehaald of beveiligd zodat je je moet registreren. 
Maar ook Gibbo laat dus zien dat zijn HD4890 die hij zo maar willekeurig van het schap heeft gepakt met gemak 990Mhz haalt op de core en 1150Mhz op het geheugen. Dat is voor de core dus zo'n beetje de max van Overdrive die default gaat tot 1000Mhz, maar er dan nog 10Mhz onder gaat zitten bij max OC (dus 990Mhz).
Overigens heeft AMD voor de techies onder ons een erg interessant document online gezet... De R700 Family Instruction Set Architecture waarin men erg diep in gaat op de hele R700 architectuur:
http://developer.amd.com/...tion_Set_Architecture.pdf
Edit: Voor degenen die de post van Gibbo gemist hebben:
System 1 Specification
Intel Kentsfield Quad Core at 3.20GHz (8x400FSB)
Abit IP35 Pro Mainboard
3GB 800MHz DDR2 Memory (5-5-5-15)
4x Samsung SSD 32GB SLC (RAID 0)
Windows 7 64-Bit BETA (Catalyst 9.3 Drivers) / Windows Vista Ultimate 64-Bit (Supplied Drivers)
ATi Radeon 4870 512MB @ 750MHz / 3600MHz (Windows 7 - Catalyst 9.3)
3DM06
HD4870 512: 15550
HD4890: 16098
HD4890 OC 990/1150: 16898
Vantage
HD4870 512: P9358
HD4890: P10211
HD4890 OC: P11413
System 2: Core I7 System Specification
Intel Core I7 920 @ 3800MHz
Asus Rampage 2 Extreme Mainboard
Corsair Dominator 1600MHz 6GB Triple Channel Kit
PowerColor ATI Radeon 4890 1024MB / Asus NVIDIA GeForce GTX 285 1024MB
Windows Vista 64-Bit Ultimate
Both cards using supplied drivers
3DM06
GTX 285: 20275
HD4890: 19321
HD4890 @ 990/1150: 21203
HD4890 OC CFX: 24538
Vantage with PhysX
GTX 285: P14699 (CPU - 50551, GPU - 11889)
HD4890: P11160 (CPU - 17378, GPU - 9960)
HD4890 OC: P12645 (CPU - 17405, GPU - 11574)
HD4890 OC CFX: P17874 (CPU - 17358, GPU - 18053)
Maar ook Gibbo laat dus zien dat zijn HD4890 die hij zo maar willekeurig van het schap heeft gepakt met gemak 990Mhz haalt op de core en 1150Mhz op het geheugen. Dat is voor de core dus zo'n beetje de max van Overdrive die default gaat tot 1000Mhz, maar er dan nog 10Mhz onder gaat zitten bij max OC (dus 990Mhz).
Overigens heeft AMD voor de techies onder ons een erg interessant document online gezet... De R700 Family Instruction Set Architecture waarin men erg diep in gaat op de hele R700 architectuur:
http://developer.amd.com/...tion_Set_Architecture.pdf
Edit: Voor degenen die de post van Gibbo gemist hebben:
System 1 Specification
Intel Kentsfield Quad Core at 3.20GHz (8x400FSB)
Abit IP35 Pro Mainboard
3GB 800MHz DDR2 Memory (5-5-5-15)
4x Samsung SSD 32GB SLC (RAID 0)
Windows 7 64-Bit BETA (Catalyst 9.3 Drivers) / Windows Vista Ultimate 64-Bit (Supplied Drivers)
ATi Radeon 4870 512MB @ 750MHz / 3600MHz (Windows 7 - Catalyst 9.3)
3DM06
HD4870 512: 15550
HD4890: 16098
HD4890 OC 990/1150: 16898
Vantage
HD4870 512: P9358
HD4890: P10211
HD4890 OC: P11413
System 2: Core I7 System Specification
Intel Core I7 920 @ 3800MHz
Asus Rampage 2 Extreme Mainboard
Corsair Dominator 1600MHz 6GB Triple Channel Kit
PowerColor ATI Radeon 4890 1024MB / Asus NVIDIA GeForce GTX 285 1024MB
Windows Vista 64-Bit Ultimate
Both cards using supplied drivers
3DM06
GTX 285: 20275
HD4890: 19321
HD4890 @ 990/1150: 21203
HD4890 OC CFX: 24538
Vantage with PhysX
GTX 285: P14699 (CPU - 50551, GPU - 11889)
HD4890: P11160 (CPU - 17378, GPU - 9960)
HD4890 OC: P12645 (CPU - 17405, GPU - 11574)
HD4890 OC CFX: P17874 (CPU - 17358, GPU - 18053)
[ Voor 45% gewijzigd door CJ op 26-03-2009 17:47 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Newsflash: Havok en AMD kondigen officieel GPU physics aan
Dit plaatje zegt meer dan genoeg:

En dit persbericht gaat er nog verder op in:
Overigens is Havok volledig compatible met nVidia GPUs dus wanneer nVidia er voor zorgt dat hun OpenCL ondersteuning goed is, dan is het geen enkel probleem om Havok GPU physics op GeForces te draaien. Nu zie ik mensen denken dat GeForce bezitters dan meteen in het voordeel zijn omdat ze zowel PhysX als Havok op de GPU kunnen draaien. Yep, dat klopt helemaal. Maar bekijk het nu eens van de kant van nVidia en gamedevelopers (die het liefst voor de grootste gemene deler gaan),
Voor de mensen die het nog niet gezien hebben:
Havok Cloth met OpenCL op GPU/CPU:
Havok Destruction met OpenCL op GPU/CPU:
Dit plaatje zegt meer dan genoeg:

En dit persbericht gaat er nog verder op in:
Bron: http://www.amd.com/us-en/..._543_15944~130759,00.htmlSAN FRANCISCO, Calif. — March 26, 2009— Advanced Micro Devices, Inc. (NYSE: AMD) and Havok, the premier provider of interactive software for physics simulation and content development, are presenting new, optimized executions of Havok’s physics middleware on AMD platforms at the 2009 Game Developers Conference. The demonstrations include the first OpenCL supported execution of Havok Cloth™.toon volledige bericht
Havok offers a complete modular suite of products that help visual and interactive content developers create more realistic games and cinematic special effects. As the latest software developer to take advantage of ATI Stream technology to leverage multi-core architectures and accelerate execution of highly parallel functions, like real-time cloth simulation, Havok will enable game developers to offer improved performance and interactivity across a broad range of OpenCL capable PCs. AMD has recently introduced optimized platform technologies, such as “Dragon” desktop platform technology, which balance performance between the CPU and GPU with ATI Stream technology to deliver outstanding value.
“Havok is committed to delivering highly optimized cross-platform solutions to our game customers and we are pleased to be working with AMD to ensure that gamers enjoy a great user experience when running Havok-powered games on AMD platforms.,” said David Coghlan, vice president of development for Havok. “Unlocking the parallel processing capability of AMD’s hardware provides real advantages to our customers, and the greater the total computing resources available, the better the gaming experience developers can deliver.”
"Havok’s awesome toolset has allowed us to deliver astonishing physics interactions in our games, including detailed real-time destruction and complex ragdoll models, and we are excited about using ATI Stream technology to pursue more astounding in-game accomplishments,” said Andrey Iones, chief operating officer of Saber Interactive. “We are excited that AMD and Havok are working together and leveraging an open standard like OpenCL.”
Overigens is Havok volledig compatible met nVidia GPUs dus wanneer nVidia er voor zorgt dat hun OpenCL ondersteuning goed is, dan is het geen enkel probleem om Havok GPU physics op GeForces te draaien. Nu zie ik mensen denken dat GeForce bezitters dan meteen in het voordeel zijn omdat ze zowel PhysX als Havok op de GPU kunnen draaien. Yep, dat klopt helemaal. Maar bekijk het nu eens van de kant van nVidia en gamedevelopers (die het liefst voor de grootste gemene deler gaan),
Voor de mensen die het nog niet gezien hebben:
Havok Cloth met OpenCL op GPU/CPU:
Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTubeHavok-Demo Cloth
Havok Destruction met OpenCL op GPU/CPU:
Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTubeHavok-Demo Bridge Destruction
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Is het ook mogelijk om havok physics te runnen op een 2e videokaart? Dus hetzelfde idee als met het physx systeem van nvidia?
Een reviewtje van gisteren, de MSI 4870 1GB; ik vond dit wel opvallend: MSI krijgt het verbruik echt wel lager dan de reference AMD kaart. Verder is het wel een geinige review omdat de insteek net iets anders is dan bij de meeste andere testen; ze focussen zich op de highest playable resolutions

En wel zo grappig dat zo'n simpel koelertje toch beslist beter is dan het referentie model.

En wel zo grappig dat zo'n simpel koelertje toch beslist beter is dan het referentie model.

[ Voor 17% gewijzigd door Illidan op 26-03-2009 19:14 ]
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Ziet er beslist erg gaaf uit.CJ schreef op donderdag 26 maart 2009 @ 18:12:
Newsflash: Havok en AMD kondigen officieel GPU physics aan
Maar is dit nu dus de GAMEPLAY physics, en niet de eye-candy physics variant alla Mirrors Edge? (de term GPU physics brengt me even in verwarring hier
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Zo te zien is dat ook geen reference pcb design van die MSI, hier kunnen dus net zo goed besparingen uit voort komen als drivers of een bios.
De jurk is nog steeds effectsphysics, want het voegt geen andere elementen toe aan het spel anders dan optische. De trein zou een voorbeeld van gameplay physics kunnen zijn.Illidan schreef op donderdag 26 maart 2009 @ 19:26:
[...]
Ziet er beslist erg gaaf uit.
Maar is dit nu dus de GAMEPLAY physics, en niet de eye-candy physics variant alla Mirrors Edge? (de term GPU physics brengt me even in verwarring hier)
Het verschil zit hem in het effect op de gameplay. In Mirror's Edge zag het er leuk uit, maar het voegde geen gameplay elementen toe. Dat kan ook niet, omdat het spel dan afhankelijk wordt van de fanbase met Physx hardware.
Hoe physics geimplementeerd worden in een game (gameplay of effects) is geheel afhankelijk van de makers. Onder physx is de kans dat men gameplay physics ontwikkelt zeer beperkt, omdat je dan alleen de game zou kunnen spelen met NV hardware. Onder Havok is die kans een stuk groter, omdat zowel NV als AMD OpenCL kunnen ondersteunen. Op deze manier kunnen dus gameplay physics worden geimplementeerd die zowel het NV als het AMD kamp kunnen draaien.
Nu is er nog wel een horde te nemen: de gebruikers van oude videokaarten van een generatie die nog niet met deze techniek om kunnen gaan. Die sterven echter vanzelf uit.
Die Eerste demo Press releases zijn net zo vaag als de eerste nV PhysX berichten.Deagle schreef op donderdag 26 maart 2009 @ 18:35:
Is het ook mogelijk om havok physics te runnen op een 2e videokaart? Dus hetzelfde idee als met het physx systeem van nvidia?
Dat wordt pas duidelijk als de eerste Havok GPU supportende game uit is. En het breed geannaliseerd is door reviewers van gerenomeerde sites.
Met de tijd wordt het dus duidelijker.
Denk dat ATI niet veel van nV zal verschillen kwa opties wat er mogelijk is kwa CF Havok en MultiGPU Havok, wordt dus afwachten of ATI ook zo flex gaat worden.
De dev's bepalen of het Gameplay of effect Physics wordt. De SDK bied een feature rijkere game genre onafhankelijde functie libary aan.Illidan schreef op donderdag 26 maart 2009 @ 19:26:
Ziet er beslist erg gaaf uit.
Maar is dit nu dus de GAMEPLAY physics, en niet de eye-candy physics variant alla Mirrors Edge? (de term GPU physics brengt me even in verwarring hier)
Gameplay Physics is
1 ) Speler interactie.
2 ) Effect heeft gevolgen voor Speler en of NPC
Gameplay houd bijvoorbeeld in dat het resultaat van een effect wordt door berekend.
Voorbeeld collision van debri. Resultaat wordt alleen visueel gebruikt, 'n gave explosie. Leuke effect physics. Resultaat word doorbereken? Een debri collisien zorgt voor damage. Dezelfde Effect physics wordt dan gameplay Physics.
Een Dev keuze dus.
---------------------------------------------------------------
Daarnaast als ik dat zo aan hoor
Onderscheid zich Havok GPU door standaard shader programmeer taaltje te ondersteunen.
OpenCL vs Cuda. Dat vind ik uiteraard beter. GPU merk onafhankelijk. Uiteraard een voordeel voor dev's.
PhysX heeft van gamer point of view zeker een voordeel.
Als gamer doet elke Havok game het op welke GPU maar ook. Dev's kunnen dan gretiger met gameplay Physics omspringen en hardware minimum Physics eisen hoger dan CPU verlangen.
Maar als je als gamer een PhysX game gaat spelen heb je meer aan nV spul erin. Dit is toch een voordeel voor nV. Gezien de dilemma van dev.s zal dit voornamelijk in effect Physics schelen. Wil je de gameplay gelijk houden op ATI en nV systemen.
Daarnaast zie ik niet in dat je voor Havok te gebruiken deze met OpenCL moet aanspreken?
De PhysX SDK maakt CPU GPU PPU uiteraard abstract. Bij initialisatie kies je om PPU of GPU of welke combi optioneel te kunnen gebruiken. De SDK functie libs spreken de CPU GPU aan dmv de juiste compiler en dus machine taal. Dus Cuda is een nV middle ware software engenering thing. Niks cuda gewoon plain C++ voor x86 spreek je Physx call aan die Cuda gebruiken. Dat is wat ik verwacht van een SDK.
Als je Havok gebruikt en OpenCL dan bypass je just de SDK? Leuk als je AI dingen ook op de GPU wilt draaien. Of Missing features wilt toevoegen. Als dit toch zo is, dan is Havok heel anders dan PhysX en daarmee niet eenvoudig als je de GPU direct aanspreekt. En veel zelf moet doen. De reden van middle ware is juist om de dev te onzien van veel low level werk.
Nu lees ik dus dat het oorspronkelijke idee was dat ATI de Havok CPU call onderscheppen en na analyse eventueel GPU call's van maken. Leek mij een te verwachten mogelijkheid om van HavokGPU eenvoudig toe te kunnen passen. Maar raar dat Havok niet native GPU aanspreek. Net zoals PhysX. Blijkbaar wilt iNtel dat niet.
De press releases zijn er niet zo duidelijk over. Dit zal ook met de tijd duidelijker worden. Als er voor de hobbiïsten ook Havok GPU tutorials komen. Ben benieuwed.
[ Voor 4% gewijzigd door SG op 26-03-2009 19:56 ]
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Even een belangrijke sidenote voor de mensen die zich graag blindstaren op synthetische benches als Futuremark's Vantage:CJ schreef op donderdag 26 maart 2009 @ 17:07:
Vantage with PhysX
GTX 285: P14699 (CPU - 50551, GPU - 11889)
HD4890: P11160 (CPU - 17378, GPU - 9960)
HD4890 OC: P12645 (CPU - 17405, GPU - 11574)
HD4890 OC CFX: P17874 (CPU - 17358, GPU - 18053)
Kijk even naar de CPU-score van de GTX285, 3x zo hoog als de HD4890. Oftewel: de nVidia ''cheat'' GPU-accelerated CPU-physics is nog steeds geactiveerd. Dit was dus een verboden tactiek, zoals gezegd door mr. Futuremark, maar is duidelijk nog steeds aan het werk. Vrij vertekende score dus.
Dat is meer een cheat omdat het niks met FPS en 3D performance te maken heeft. Niet 3D mark en cijferspel waardig.
Als ze het als extra apparte physics_mark waarde gerbuikten is het geen cheat.
De vraag alleen hoe ze aan die waarde komen.
Ik zie het zo. ATI score is Mirroredge kaal.
nV score is Mirror edge met enhanced physics.
Daarbij kan de nV gamer dus 'n mooiere game hebben maar met minder FPS.
Dus die score zegt eigenlijk niks behalve dat die sneller zou zijn in 3D wat dus niet zo is. Het kan juist meer physics leveren.
Als ze het als extra apparte physics_mark waarde gerbuikten is het geen cheat.
De vraag alleen hoe ze aan die waarde komen.
Ik zie het zo. ATI score is Mirroredge kaal.
nV score is Mirror edge met enhanced physics.
Daarbij kan de nV gamer dus 'n mooiere game hebben maar met minder FPS.
Dus die score zegt eigenlijk niks behalve dat die sneller zou zijn in 3D wat dus niet zo is. Het kan juist meer physics leveren.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Mis. Compleet foute vergelijking. nVidia gebruikt in die specifieke CPU-test (vol met physics) de GPU om de boel uit te rekenen. Waar CPU's goed zijn in veel verschillende taken op een wat lage snelheid (zie de slideshow), zijn GPU's belachelijk goed in één ding op ongelofelijk hoge snelheid.
Combineer die twee met elkaar en je houd een belachelijk hoge score over die de totaalscore ook flink mee omhoog trekt.
Combineer die twee met elkaar en je houd een belachelijk hoge score over die de totaalscore ook flink mee omhoog trekt.
Die filmjes lijken verdacht veel op de nV PhysX filmpjes. Soortgelijke bewegingen e.d.CJ schreef op donderdag 26 maart 2009 @ 18:12:
Voor de mensen die het nog niet gezien hebben:
Havok Cloth met OpenCL op GPU/CPU:
[video]
Havok Destruction met OpenCL op GPU/CPU:
[video]
Het zal mij benieuwen of, en vooral wanneer, de Havok physics op een schaal gebruikt gaan worden dat we er echt iets aan hebben.
[ Voor 3% gewijzigd door Format-C op 26-03-2009 20:35 . Reden: foudtje ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
GAMEPLAY / EFFECT physics is een dev keuze: het opblazen vd brug zou dus heel goed een gameplay physics kunnen zijn.... (speler moet nu omlopen, of naar beneden klauteren oid, door deze omweg beleeft hij andere avonturen) en aangezien Havok op zowel nV als ATi kaarten draait, kunnen we dus beslist gameplay physics verwachten, correct? Of is dat te kort door de bocht?
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
gameplay physics bestaan al sinds 1997 toen total annihilation uitkwam.
volgens mij zijn gameplay physics meer dingen zoals de zwaartekracht op de pijl/kogel die je net hebt afgevuurt en die daarna vertraagd wordt door water.... of als je bv een stuk moet raken van een wapperende vlag (of jurk, zie hierboven). Dan kan het zo natuurgetrouw mogelijk zijn van de effecten een grote rol spelen op hoe je gaat mikken ed
persoonlijk vind ik de mogelijkheden om bepaalde wetenschappelijke dingen te versnellen erg interessant. Of het nu gaat om game elementen, het versnellen van coderen/decoderen of andere rekenintensieve taken, ik zal deze ontwikkeling wat meer beginnen volgen.
persoonlijk vind ik de mogelijkheden om bepaalde wetenschappelijke dingen te versnellen erg interessant. Of het nu gaat om game elementen, het versnellen van coderen/decoderen of andere rekenintensieve taken, ik zal deze ontwikkeling wat meer beginnen volgen.
Natuurlijk bestaan gameplay physics al lang, maar tot nu toe waren dat altijd door de CPU uitgerekende physics. De GPU is daar vele malen beter voor geschikt, zodat er nu ook gebruik gemaakt kan worden van complexe physics berekeningen in spellen. Een ontwikkeling die bij mijn weten voor het eerst in 2996 door Ati gedemonstreerd werd.tomcatha schreef op donderdag 26 maart 2009 @ 20:50:
gameplay physics bestaan al sinds 1997 toen total annihilation uitkwam.
Er wordt idd een hoop gedemonstreerd.
Alleen zien we er helaas verdomd weinig van terug in games.
Alleen zien we er helaas verdomd weinig van terug in games.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Met een merk-onafhankelijke engine zoals Havok in combinatie met OpenCL, is de kans dat het terug te vinden is in games aanzienlijk groter aan het worden. Met PhysX zouden game-ontwikkelaars zichzelf gewoon teveel in de vingers snijden als ze het GPU-rendered zouden maken. Je veegt in een enkele beweging de helft van je potentiele klanten weg.RappieRappie schreef op donderdag 26 maart 2009 @ 21:03:
Er wordt idd een hoop gedemonstreerd.
Alleen zien we er helaas verdomd weinig van terug in games.
Laten we hopen dat Havok de ontwikkeling van GPU-rendered gameplay physics in een stroomversnelling brengt, waarna nVidia waarschijnlijk 2 opties heeft, namelijk PhysX geheel laten varen, of Cuda Opensource maken danwel OpenCL toe gaan passen voor PhysX.
Uhhh daar willen we toch juist naartoe? Simpele taken niet meer door de CPU te laten uitrekenen, maar door de GPU? Want die doet dat vele malen beter/sneller/efficiënter? Dus als een benchmark zo knullig is om een CPU test op te nemen met een simpele rekentaak, kijk er dan niet vreemd van op als de GPU die taak grotendeels uitvoert ipv de CPU... correct me if i'm wrong maar dat doet nV juist goed in deze...Jejking schreef op donderdag 26 maart 2009 @ 20:12:
Mis. Compleet foute vergelijking. nVidia gebruikt in die specifieke CPU-test (vol met physics) de GPU om de boel uit te rekenen. Waar CPU's goed zijn in veel verschillende taken op een wat lage snelheid (zie de slideshow), zijn GPU's belachelijk goed in één ding op ongelofelijk hoge snelheid.
Combineer die twee met elkaar en je houd een belachelijk hoge score over die de totaalscore ook flink mee omhoog trekt.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Kan wel zijn dat nVidia het goed doet, ik vind ook dat een GPU moet kunnen acceleren wat ie kan.
Echter gaat dat voorbij aan het feit dat deze test bedoeld is om de kracht van de CPU te meten.
Door de GPU te gebruiken (in dit geval via Physx) voor een CPU-test geeft de test een vertekend beeld van de kracht van de CPU en dus van de totale score van de test.
Was het een physics-test dan was er van deze vertekening geen sprake, aangezien het daarbij niet uitmaakt of de CPU of de GPU het afhandelt. Maar goed, het is geen physics-test. Daar is immers nog geen standaardplatform voor
Echter gaat dat voorbij aan het feit dat deze test bedoeld is om de kracht van de CPU te meten.
Door de GPU te gebruiken (in dit geval via Physx) voor een CPU-test geeft de test een vertekend beeld van de kracht van de CPU en dus van de totale score van de test.
Was het een physics-test dan was er van deze vertekening geen sprake, aangezien het daarbij niet uitmaakt of de CPU of de GPU het afhandelt. Maar goed, het is geen physics-test. Daar is immers nog geen standaardplatform voor
[ Voor 27% gewijzigd door Grozno op 26-03-2009 21:45 ]
Advocatus ineptias | Free Speech Online
Het is inderdaad waar we naar toe willen, maar waar we nog niet zijn. 3D Mark is een testsuite die test hoe huidige hardware werkt met de huidige technieken gebruikt in game-ontwikkeling. Daar valt GPU-berekende physics dus nog niet onder.Illidan schreef op donderdag 26 maart 2009 @ 21:30:
[...]
Uhhh daar willen we toch juist naartoe? Simpele taken niet meer door de CPU te laten uitrekenen, maar door de GPU? Want die doet dat vele malen beter/sneller/efficiënter? Dus als een benchmark zo knullig is om een CPU test op te nemen met een simpele rekentaak, kijk er dan niet vreemd van op als de GPU die taak grotendeels uitvoert ipv de CPU... correct me if i'm wrong maar dat doet nV juist goed in deze...
Los daarvan, wordt de GPU volledig gebruikt bij deze physics test, terwijl in een werkelijke omstandigheid, het gros van de GPU te druk bezig is om physics erbij te doen. Feitenlijk zul je slechts een (klein) deel van je GPU de physics laten doen. Er is dus vanuit dat oogpunt ook een vervalsing van de werkelijkheid gaande. De videokaart kan niet 2 dingen voor 100% vermogen tegelijkertijd doen.
Ja, maar jongens, dat is niet de fout van nVidia in deze, maar van die knullige CPU test die de rekentaak veel te veel versimpeld... die benchmark moet dus worden aangepast, en niet de nV GPU die nu opeens een taak moet laten voorbijschieten terwijl het veel efficiënter is die zelf op te pakken...
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Klopt, dat zeg ik ook. Maar zolang de benchmark niet wordt aangepast geeft het offloaden van de CPU-taak naar de GPU een vertekend beeld.
Zoals ik net heb uitgelegd.
Zoals ik net heb uitgelegd.
[ Voor 83% gewijzigd door Grozno op 26-03-2009 22:07 . Reden: slechte formulering weggehaald... ]
Advocatus ineptias | Free Speech Online
dat geldt voor de gehele benchmark en iedere benchmark suite dan. er is geen interactie en er hoeven geen dingen worden berekend die nog niet vaststaan. het enige wat er gebeuren moet is renderen en dat is in een game ook niet zo. dingen als ai etc. moeten ook berekend worden.
gelukkig is er een losse gpu en cpu score dus we hoeven ons helemaal niet druk te maken. feit is wel dat de gtx285 dan nog steeds sneller is.....
wel leuke scores voor de overgeclockte kaart. wel erg jammer dat hij standaar maar op 850mhz draait, had wat mij betreft best 925-950 mogen zijn als toch iedere kaart dat gegarandeerd halen kan.
gelukkig is er een losse gpu en cpu score dus we hoeven ons helemaal niet druk te maken. feit is wel dat de gtx285 dan nog steeds sneller is.....
wel leuke scores voor de overgeclockte kaart. wel erg jammer dat hij standaar maar op 850mhz draait, had wat mij betreft best 925-950 mogen zijn als toch iedere kaart dat gegarandeerd halen kan.
De test is gebasseerd op DX10(.1). Daarin zit geen GPU-ondersteunde physics. Dat nVidia het wel mogelijk maakt via zijn drivers gaat dus ook in tegen de afspraken. Dit is in het verleden al vaker gebeurd (ook ATI deed dit soort dingen wel) om een hogere score te kunnen halen, puur voor de marketing en de tabelletjes om mensen op het verkeerde been te zetten.
Straks wanneer DX11 uit komt en daarbij waarschijnlijk een nieuwe 3D Mark, zal er waarschijnlijk wel een GPU-gebasseerde physics test zijn, simpelweg omdat DX11 er ondersteuning voor biedt. Of ze de CPU-physics test er vervolgens ook uitslopen, is dan natuurlijk de vraag, maar zo niet, dan zou het voor Futuremark verstandig zijn om te zorgen dat de calls niet omgeleid kunnen worden naar de GPU om feitenlijk valse cijfers te creeren.
Straks wanneer DX11 uit komt en daarbij waarschijnlijk een nieuwe 3D Mark, zal er waarschijnlijk wel een GPU-gebasseerde physics test zijn, simpelweg omdat DX11 er ondersteuning voor biedt. Of ze de CPU-physics test er vervolgens ook uitslopen, is dan natuurlijk de vraag, maar zo niet, dan zou het voor Futuremark verstandig zijn om te zorgen dat de calls niet omgeleid kunnen worden naar de GPU om feitenlijk valse cijfers te creeren.
Dude. Die specifieke test is om de CPU-kracht te testen. Waarom daar een GPU voor inzetten? Dat klopt niet, daarmee raakt alles uit z'n verband. GPU-benches om GPU's te testen, CPU-tests om CPU's te benchen.Illidan schreef op donderdag 26 maart 2009 @ 21:57:
Ja, maar jongens, dat is niet de fout van nVidia in deze, maar van die knullige CPU test die de rekentaak veel te veel versimpeld... die benchmark moet dus worden aangepast, en niet de nV GPU die nu opeens een taak moet laten voorbijschieten terwijl het veel efficiënter is die zelf op te pakken...
Edit: ben ik de enige die zeer benieuwd is naar de idle verbruiksnummers van de HD4890? Ik zeg laat maar komen!
[ Voor 8% gewijzigd door Jejking op 26-03-2009 22:17 ]
Hmm volgens mij heeft het niet eens zo zeer te maken met de label physics, maar met de vraag of de berekening uitgevoerd kan worden door de GPU. Zo ja, dan doet de GPU dat....wat voor label er vervolgens aan hangt is punt 2.
Wat voor afspraken schend nV in deze? Een afspraak als in: "in deze test zitten berekeningen die jullie GPU's met gemak veeel beter aankunnen dan de CPU, maar aub toch niet uitvoeren".
Tja, je moet je dan toch sterk afvragen wat dan nog überhaupt het nut is van zo'n benchmark.
Maar volgens mij dwalen we heel erg af
Wat voor afspraken schend nV in deze? Een afspraak als in: "in deze test zitten berekeningen die jullie GPU's met gemak veeel beter aankunnen dan de CPU, maar aub toch niet uitvoeren".
Tja, je moet je dan toch sterk afvragen wat dan nog überhaupt het nut is van zo'n benchmark.
Maar volgens mij dwalen we heel erg af
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Het testen hoe sterk/goed een processor is in het veel gebruikte cpu-gerenderde physics.Illidan schreef op donderdag 26 maart 2009 @ 22:19:
Tja, je moet je dan toch sterk afvragen wat dan nog überhaupt het nut is van zo'n benchmark.
Maar volgens mij dwalen we heel erg af![]()
Maar daarmee dwalen we inderdaad af. AMD heeft ondertussen getoond dat ze via OpenCL Havok over de GPU kunnen draaien. Twee vragen die resten. Zal nVidia zijn best doen om te tonen dat ook zij hun OpenCL support op orde hebben en Havok ook over de GPU kunnen draaien en zullen gamedevelopers hierdoor iets meer open gaan staan voor echte gameplay physics die over de GPU gaan (dus uitgebreidere gameplay physics dan we tot nog toe hebben mogen aanschouwen).
Welk merk de betere (synthetische) prestaties zal kunnen neerzetten op GPU physics, zullen we in ieder geval in de toekomst vast wel kunnen zien met een nieuwe 3D Mark.
Je zit er erg dichtbij.Illidan schreef op donderdag 26 maart 2009 @ 22:19:
Wat voor afspraken schend nV in deze? Een afspraak als in: "in deze test zitten berekeningen die jullie GPU's met gemak veeel beter aankunnen dan de CPU, maar aub toch niet uitvoeren".
Tja, je moet je dan toch sterk afvragen wat dan nog überhaupt het nut is van zo'n benchmark.
Deze discussie over Vantage en wat voor afspraken nVidia schend, hebben we vorig jaar rond Juni/Juli ook uitgebreid (en erg verhit) gevoerd. En uiteindelijk heeft Futuremark er voor gekozen om alle scores waar nVidia de GPU gebruikt om de CPU te ontlasten bij de CPU-test te schrappen uit de ORB en als ongeldig te verklaren.
CPU test 2 van Vantage is namelijk ontworpen om, de naam zegt het eigenlijk al, CPU physics berekening te meten en in de regels/statuten van Vantage staat duidelijk dat een GPU of driver het eindresultaat niet significant mag beinvloeden. Een CPU score die ineens verdrie- of verviervoudigd wordt is valt dus wel degelijk onder 'significant beinvloeden'.
Uit de Vantage policy:
Bron: http://www.futuremark.com...pproval_Policy_v101R2.pdfBased on the specification and design of the CPU tests, GPU make, type or driver version may not have a significant effect on the results of either of the CPU tests as indicated in Section 7.3 of the 3DMark Vantage specification and whitepaper.
Vantage is bedoeld als algemene richtlijn voor de performance in games op je PC. Door het beinvloeden van de CPU test wordt de eindscore kunstmatig hoog gehouden en wordt de illusie gewekt dat systemen met een CUDA/PhysX capable videokaart (lees: GeForce 8500 of hoger) altijd sneller is dan een systeem met een Radeon, terwijl er slechts een handjevol games zijn die GPU PhysX gebruiken.
Met de overname van Ageia door nVidia en de daaropvolgende verandering dat PhysX op GPUs zou kunnen draaien, had men bij Futuremark geen rekening gehouden. Vantage ondersteunt namelijk wel PhysX PPUs, maar dat zijn de standalone PPU kaarten die de CPU ontlasten, terwijl de videokaart ook voor 100% vrij is om z'n eigen ding (rendering) te doen. Sinds kort is het echter mogelijk om een aparte videokaart in te stellen als PhysX kaart, terwijl een ander zich richt op rendering. Dit zou op zich dan wel weer toegestaan kunnen worden. Maar Vantage begint nu wel weer 'verouderd' te raken en er zijn inmiddels weer zo veel verandering. Het wachten is dus op de nieuwe 3DMark met DX11.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Idd, eeen open physics API zal het eea verspoedigen en krijgen we misschien eindelijk eens echte damage control in gamesdahakon schreef op donderdag 26 maart 2009 @ 21:19:
[...]
Met een merk-onafhankelijke engine zoals Havok in combinatie met OpenCL, is de kans dat het terug te vinden is in games aanzienlijk groter aan het worden. Met PhysX zouden game-ontwikkelaars zichzelf gewoon teveel in de vingers snijden als ze het GPU-rendered zouden maken. Je veegt in een enkele beweging de helft van je potentiele klanten weg.
Laten we hopen dat Havok de ontwikkeling van GPU-rendered gameplay physics in een stroomversnelling brengt, waarna nVidia waarschijnlijk 2 opties heeft, namelijk PhysX geheel laten varen, of Cuda Opensource maken danwel OpenCL toe gaan passen voor PhysX.
Niet op voorraad.
PC Perspective heeft een wat uitgebreidere uitleg over het samenwerkingsverband tussen Havok en AMD. Als je dit artikel leest dan wordt vrij duidelijk dat Havok dus echt veranderingen in z'n eigen physics API heeft gemaakt. Ze hebben Havok Cloth en Havok Destruction genomen en deze subsets van hun physics API geport naar OpenCL. Hiermee wordt het dus mogelijk om Havok Cloth en Havok Destruction op elke OpenCL ondersteunende processor te laten draaien, ongeacht of het een CPU of GPU is (en onafhankelijk van herkomst: Intel/AMD/NV). In dit geval zijn de OpenCL ondersteunende processors dus AMD CPUs en ATI Radeons (dankzij de ingebakken ATI Stream ondersteuning in de drivers).
On-the-fly was het mogelijk om de physicsberekeningen van de CPU naar de GPU te verplaatsen (en weer terug) door middel van een druk op de knop. AMD is al in een vergevorderd stadium met ondersteuning voor OpenCL in hun drivers (zowel voor CPU als GPU) en wat nu op GDC gebruikt wordt is dus een voorproefje op wat komen gaat.
Het interessantste gedeelte vind ik zelf de loadbalancing en het effects physics versus gameplay physics gedeelte. De OpenCL variant van Havok staat het developers toe om hun game naar je systeem te kijken en te analyseren hoeveel processingpower het tot z'n beschikking heeft. Elke game zal een bepaalde standaard hebben die omschrijft wat het minimum processingpower is dat nodig is voor een bepaalde hoeveelheid effecten (net zoals je nu bv 1GB geheugen nodig hebt om in bepaalde games om alle textures te kunnen laden op hoge resoluties).
Havok zal de physics algoritmes aanpassen aan de hand van de totale processingpower van CPU en GPU die je voor handen hebt. Heb je een langzame CPU maar een snelle GPU, dan zal Havok er voor kunnen zorgen dat het aantal physics models (dus bv effecten) toeneemt. Heb je echter een snelle CPU, maar een langzame GPU, dan worden dezelfde algoritmes gebruikt als bij het vorige systeem, maar zal het waarschijnlijk dus een lagere fps opleveren of meer waarschijnlijker, dan zullen de effecten in kwaliteit omlaag gaan.
Lees het artikel hier: http://www.pcper.com/comments.php?nid=6954
Klinkt veelbelovend toch? Nu de resultaten nog in daadwerkelijke games.
Maar ik denk dat we met een open standaard als OpenCL en Havok die gebruik gaat maken van die open standaard wat op alle videokaarten en CPUs werkt al een stuk meer in de goede richting gaan dan PhysX en de gesloten CUDA standaard die alleen op nVidia GeForces werkt.
On-the-fly was het mogelijk om de physicsberekeningen van de CPU naar de GPU te verplaatsen (en weer terug) door middel van een druk op de knop. AMD is al in een vergevorderd stadium met ondersteuning voor OpenCL in hun drivers (zowel voor CPU als GPU) en wat nu op GDC gebruikt wordt is dus een voorproefje op wat komen gaat.
Het interessantste gedeelte vind ik zelf de loadbalancing en het effects physics versus gameplay physics gedeelte. De OpenCL variant van Havok staat het developers toe om hun game naar je systeem te kijken en te analyseren hoeveel processingpower het tot z'n beschikking heeft. Elke game zal een bepaalde standaard hebben die omschrijft wat het minimum processingpower is dat nodig is voor een bepaalde hoeveelheid effecten (net zoals je nu bv 1GB geheugen nodig hebt om in bepaalde games om alle textures te kunnen laden op hoge resoluties).
Havok zal de physics algoritmes aanpassen aan de hand van de totale processingpower van CPU en GPU die je voor handen hebt. Heb je een langzame CPU maar een snelle GPU, dan zal Havok er voor kunnen zorgen dat het aantal physics models (dus bv effecten) toeneemt. Heb je echter een snelle CPU, maar een langzame GPU, dan worden dezelfde algoritmes gebruikt als bij het vorige systeem, maar zal het waarschijnlijk dus een lagere fps opleveren of meer waarschijnlijker, dan zullen de effecten in kwaliteit omlaag gaan.
Lees het artikel hier: http://www.pcper.com/comments.php?nid=6954
Klinkt veelbelovend toch? Nu de resultaten nog in daadwerkelijke games.
[ Voor 11% gewijzigd door CJ op 27-03-2009 05:34 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zoals algemeen bekend is, ondersteunen alleen Nvidia kaarten van de 8000-serie en hoger PhysX.
Hoe zit dat bij Havok GPU-physics, welke kaarten kunnen dat allemaal wel/niet draaien (van beide kampen)?
Hoe zit dat bij Havok GPU-physics, welke kaarten kunnen dat allemaal wel/niet draaien (van beide kampen)?
Dude, anders lees je even 
Alle kaarten die overweg kunnen met OpenCL kunnen overweg met Havok.
Bij ATi is dat vanaf de HD2000 serie en bij nVidia vanaf de 8000 serie.
Alle kaarten die overweg kunnen met OpenCL kunnen overweg met Havok.
Bij ATi is dat vanaf de HD2000 serie en bij nVidia vanaf de 8000 serie.
Advocatus ineptias | Free Speech Online
ATI's HD 4770 consumes 80 Watts
Barely needs a PCIe power connector
ATI's HD 4770 has a maximum board power consumption of 80W and that's by 5 Watts more than the PCI-Express slot can deliver.
The cards current clocks are 750MHz for the core, and 800MHz for GDDR5 memory. As you all know this RV740 card will be ATI's first 40nm desktop product that will hit retail. The clocks aren't final yet so we guess that some things might change.
AMD is still pretty much silent about the rumored HD 4750 that should have a RV740 GPU paired up with GDDR3 memory, and we guess that this one could end up without the PCI-Express power connector, but we couldn't confirm that at this point since the HD 4770 is scheduled to release in the first week of May, probably on the week of May 4th..
AMD wants this card to compete with Geforce 9800 GT and we guess that AMD is much better in this game, as it plans to sell this card for US $99.
ja ja, ik weet het. Het is fudzilla
Barely needs a PCIe power connector
ATI's HD 4770 has a maximum board power consumption of 80W and that's by 5 Watts more than the PCI-Express slot can deliver.
The cards current clocks are 750MHz for the core, and 800MHz for GDDR5 memory. As you all know this RV740 card will be ATI's first 40nm desktop product that will hit retail. The clocks aren't final yet so we guess that some things might change.
AMD is still pretty much silent about the rumored HD 4750 that should have a RV740 GPU paired up with GDDR3 memory, and we guess that this one could end up without the PCI-Express power connector, but we couldn't confirm that at this point since the HD 4770 is scheduled to release in the first week of May, probably on the week of May 4th..
AMD wants this card to compete with Geforce 9800 GT and we guess that AMD is much better in this game, as it plans to sell this card for US $99.
ja ja, ik weet het. Het is fudzilla
Heb ik het nu mis of kan de pci-e slot 2.0 150w leveren?Blastpe schreef op vrijdag 27 maart 2009 @ 13:55:toon volledige bericht
ATI's HD 4770 consumes 80 Watts
Barely needs a PCIe power connector
ATI's HD 4770 has a maximum board power consumption of 80W and that's by 5 Watts more than the PCI-Express slot can deliver.
The cards current clocks are 750MHz for the core, and 800MHz for GDDR5 memory. As you all know this RV740 card will be ATI's first 40nm desktop product that will hit retail. The clocks aren't final yet so we guess that some things might change.
AMD is still pretty much silent about the rumored HD 4750 that should have a RV740 GPU paired up with GDDR3 memory, and we guess that this one could end up without the PCI-Express power connector, but we couldn't confirm that at this point since the HD 4770 is scheduled to release in the first week of May, probably on the week of May 4th..
AMD wants this card to compete with Geforce 9800 GT and we guess that AMD is much better in this game, as it plans to sell this card for US $99.
ja ja, ik weet het. Het is fudzilla
Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.
Klopt, echter een PCI-E 2.0 grafische kaart moet backwards compatible zijn met PCI-E 1.XWillemAtHome schreef op vrijdag 27 maart 2009 @ 14:01:
[...]
Heb ik het nu mis of kan de pci-e slot 2.0 150w leveren?
link
Edit:
Klopt dus niet
[ Voor 17% gewijzigd door Blastpe op 27-03-2009 15:28 ]
Dan vraag ik mij af, zou je in een PC Express 2.0 slot dan dus geen PCIe Power plug in hoeven te steken?
Niet dat het echt uitmaakt, maar het zou wel een leuk gegeven zijn.
Niet dat het echt uitmaakt, maar het zou wel een leuk gegeven zijn.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Volgens mij zijn de circuits die stroom ontrekken van het PCI-E slot en de PCI-E connector van elkaar gescheiden (er kan namelijk een 2e externe voeding gebruikt worden voor de PCI-E powerconnector).Correct me if i'm wrongUltraman schreef op vrijdag 27 maart 2009 @ 14:09:
Dan vraag ik mij af, zou je in een PC Express 2.0 slot dan dus geen PCIe Power plug in hoeven te steken?
Niet dat het echt uitmaakt, maar het zou wel een leuk gegeven zijn.
Wat ik me dan af vraag is: Is het 150 watt per slot of voor alle sloten samen ? Lijkt me niet lekker om 3x 150 watt door die twee moederbord connectors te gaan trekken. Ik denk dat je voeding + het moederbord dit niet gaat waarderen. De meeste heb gescheiden 12v lijnen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik moet mijzelf corrigeren
Een PCI-E 2.0 16x slot leverd max 75 watt
A single x16 card may draw up to
PCI-E 1.0: 150 W of power (75 W from the slot itself, 75 W from a 6-pin PEG connector).
PCI-E 1.1: 225 W of power (75 W from the slot itself, 75 W each from 2 6-pin PEG connectors)
PCI-E 2.0: 300 W of power (75 W from the slot itself, 150 W from an 8-pin PEG connector, 75 W from a second PEG connector)
Een PCI-E 2.0 16x slot leverd max 75 watt
A single x16 card may draw up to
PCI-E 1.0: 150 W of power (75 W from the slot itself, 75 W from a 6-pin PEG connector).
PCI-E 1.1: 225 W of power (75 W from the slot itself, 75 W each from 2 6-pin PEG connectors)
PCI-E 2.0: 300 W of power (75 W from the slot itself, 150 W from an 8-pin PEG connector, 75 W from a second PEG connector)
[ Voor 23% gewijzigd door Blastpe op 27-03-2009 15:31 ]
Dit topic is gesloten.
Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!