[Algemeen] ATi Nieuwsdiscussie Topic - Deel 98 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 37.346 views

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 02-08 13:02

Edmin

Crew Council

get on my horse!

mdcobra schreef op woensdag 25 maart 2009 @ 20:22:
[...]


Inderdaad, we zullen zien hoe betrouwbaar CJ is in dit opzicht,
Wellicht dat je deze uitspraak nog even op wilt eten? CJ is al tijden een zeer betrouwbare bron van vroege informatie en technische uitleg gebleken. Hij hoeft zich hier echt niet meer te bewijzen. Je opmerking is wat dat betreft absoluut misplaatst.

Acties:
  • 0 Henk 'm!

Verwijderd

Cj is betrouwbaar en geeft altijd goede uitleg. Zo heeft hij een tijd geleden (vorige deel dacht ik) uitgelegd dat de hoge power consumption niet aan de chip ligt maar aan het ddr5 geheugen.

Ik zie ook niet wat dit alles met CJ's betrouwbaarheid te maken heeft.

[ Voor 17% gewijzigd door Verwijderd op 25-03-2009 20:39 ]


Acties:
  • 0 Henk 'm!

Verwijderd

meljor schreef op woensdag 25 maart 2009 @ 20:03:
niks bullshit: alle 4870's hebben volgens mij nog steeds geen echte powerplay functies zoals duidelijk voor de launch beloofd.....

mijn laptop met oude 9700mobile kan dat veel beter dan mijn 4870. (maar het is ze vergeven want ik vind de prijs/performance geweldig. ook toen ik hem kocht voor 229euro...)
Echt wel bullshit. De eerste drivers bij de HD4870 werkte power play niet. Daarna wel en er was een besparing. Dus bullshit. Wacht maar eerst een de drivers af die het echt ondersteunen.

Edit: Bedenk maar wat CJ zei over de power circuits. Deze zijn heel anders en het lijkt me dat daar toch aparte instellingen voor moeten zijn.

[ Voor 10% gewijzigd door Verwijderd op 25-03-2009 20:52 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Graka-orakelisme ten top! :)

Ben trouwens benieuwd of Salland ook werkelijk gaat uitleveren. Volgens mij is het bedrijf, of de leverancier dan strafbaar.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
over de verwachte kracht van de hd5xxxx series:

vergeet niet dat de gtx280 niet aan de 1 teraflop komt maar toch sneller is in games dan de hd4870.

Acties:
  • 0 Henk 'm!

  • Powrskin
  • Registratie: November 2005
  • Niet online
Hm ik wacht rustig af. Heb eigenlijk wel weer trek in een nieuwe videokaart, vooral de voltage regulators spreken me aan omdat je dan misschien ook via de bios gemakkelijk het voltage kan modden. Lager is een vereiste, maar hoger is ook leuk :P

Nukezone FTW


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 30-07 17:14
Powrskin schreef op woensdag 25 maart 2009 @ 22:31:
Hm ik wacht rustig af. Heb eigenlijk wel weer trek in een nieuwe videokaart, vooral de voltage regulators spreken me aan omdat je dan misschien ook via de bios gemakkelijk het voltage kan modden. Lager is een vereiste, maar hoger is ook leuk :P
Je kan nu al de videokaarten met digital PWM's softwarematig voltmodden hoor :)
O.A. de HD4870, HD4870X2 & GTX260,GTX280.

Acties:
  • 0 Henk 'm!
Wat een gezeik over Powerplay weer. In dit topic stond al vrij vroeg na de launch in de Frequently Asked Questions lijst een uitleg over Powerplay en welke kaarten wat ondersteunen en waarom. Powerplay doet het gewoon in de RV770. Als je het tegen vindt vallen, dan is dat je eigen mening en wil dat nog niet zeggen dat Powerplay defect is of niet doet wat het moet doen. Dat maakt AMD alsnog zelf wel uit.

Om maar een voorbeeld te geven van dezelfde Powerplay in actie maar op verschillende kaarten:

VideokaartIdleLoad
HD4870 512MB @ Launch206W370W
HD4870 1GB216W356W
MSI R4870 1GB204W347W
GTX260 Core 216180W343W

Bron: MSI R4870 Review @ HardOCP van 25 Maart 2009

Je ziet dat het uitmaakt aan wat voor cooler de RV770 gekoppeld wordt, wat voor bios er in je videokaart zit en wat voor geheugen er gebruikt wordt (de RV770 met GDDR3 in de HD4850 verbruikt veel minder). Ook zie je dat AMD blijkbaar het een en ander verbeterd heeft omdat de 1GB versie al minder verbruikt dan de 512MB versie. Ook de Catalyst drivers kunnen het een en ander verbeterd hebben omdat de GPUs nu een aparte chip hebben die Powerplay kan 'herprogrammeren'. De kans is dus groot dat wanneer men een HD4870 pakt en die vergelijkt met de launchdrivers en de meest recente drivers dat het stroomverbruik ineens een stuk is afgenomen zoals je hier ook al ziet.
This discrepancy might be due to BIOS voltage and power management tweaking on the Radeon HD 4870 1GB and the MSI R4870 MD1G, since the 512MB Radeon HD 4870 we have is one of the earliest launch samples. This shows power management has been improved since the 4870’s launch.
Dan over de HD4890 en het stroomverbruik en warmte afgifte en mijn 'betrouwbaarheid'. Als straks in sommige reviews blijkt dat de RV790 meer verbruikt dan de RV770 in idle toestand dan is er echt iets mis met de drivers dan wel bios. De chip is zo ontworpen dat dit een stuk lager zou moeten liggen dan de RV770. En ik heb exemplaren gezien waar het inderdaad gewoon goed werkt. :)

Aangezien veel mensen nu al voorbarige conclusies trekken aan de hand van wat gelekte benchmarks... zou ik zeggen... wacht op de echte reviews met launchdriver. Er zijn een aantal dingen verandert waardoor het verbruik zou moeten zijn afgenomen in idle toestand met de launchdrivers. Ik zou dit eigenlijk niet moeten doen, maar voila..... hier een klein overzicht van veranderingen wat je kan verwachten op het gebied van stroomverbruik:

1) De coresnelheid draait nu op 240Mhz ipv 500/550Mhz (was bekend).
2) De cooler heeft nu 3 heatpipes ipv 2 bij de HD4870. Dit komt vooral ten goede bij de hogere kloksnelheden om de boel koeler te houden, maar ook in 2D zou dit een verbetering moeten zijn tov de HD4870
3) De chip heeft een flinke fine-tuning ondergaan waardoor de clockloops nu veel strakker zijn en waardoor de stroomverdeling een stuk beter te regelen is.
4) De RV790 heeft 2 gescheiden stroom niveaus daar waar bij RV770 alles 1 geheel was. Dit kon je eigenlijk ook al wel zien aan de veranderingen op het PCB. Niveau 1 is de core, niveau 2 is de memorycontroller. Hierdoor is het mogelijk om voltages nauwkeuriger te regelen waardoor elke chip gemakkelijk z'n volle potentieel kan bereiken. Bij de RV770 is het zo dat als 1 niveau z'n max had bereikt, je gelijk ook op je top zat. Nu kan je afzonderlijk de niveaus regelen en van elk niveau dus z'n max bepalen.

Punt nummer 4 is dus een van de grote veranderingen binnen de RV790 tov de RV770. Het zorgt er ook voor dat het overklokpotentieel veel hoger ligt dan bij de RV770, maar ook dat het stroomverbruik in idle toestand lager is omdat er meer voltage control is over de verschillende delen binnen de GPU. Maar wel mits de drivers dit goed ondersteunen en van wat ik tot nu toe gezien heb in de 'gelekte' benchmarks zijn er voornamelijk drivers gebruikt die ofwel niet geschikt zijn voor de HD4890 of waar de dual powerplane optie niet is geactiveerd.

Punt nummer 4 is dus ook waarom er nu zo veel meldingen zijn van HD4890 kaarten die 1Ghz halen met de reference cooling. Volgens mijn bronnen zouden bijna alle RV790s de 1Ghz moeten kunnen halen. 950Mhz is gegarandeerd. 1000Mhz moet te doen zijn zonder al te veel moeite.

Edit: Nog meer gelekte benchmarks op een nog te releasen flagship CPU van Intel (i7 975) met drivers van de CD (dus niet de launchdrivers). Beide videokaarten zijn op hetzelfde systeem getest en de OC was met reference cooler en Overdrive bereikt:

3DM06
HD4870 1GB: 14583
HD4890 1GB: 17586
HD4890 1GB OC: 18427

Vantage
HD4870 1GB: P9332
HD4890 1GB: P11385
HD4890 1GB OC: P12467
http://forums.overclocker...p?p=13755233#post13755233

Edit 2: Als je de cijfers van die ene chinese site er bij pakt en het verschil bekijkt tussen de HD4870 en HD4890 dan is dit het verschil in percentages:

1680x1050
Far Cry 9.4%
Crysis 7.5%
Stalker 10.5%
FEAR 13.3%
Grid 4.7%
Call of Duty 2.4%
Vantage 12.6%

1920x1080 met 4x dan wel 8xAA
Far Cry 10.9%
Crysis 9.5%
Stalker 18.3%
FEAR 13.5%
Grid 10.8%
Call of Duty 9.6%
Vantage 15.4%

Dat is dus op reference snelheden... nu nog effe testen met Overdrive aan... Die percentages komen aardig dicht in de buurt bij wat er al een tijd in de first post staat. :7

Edit 3: Nieuwe GPU-Z met RV740 (HD4750/HD4770) en RV790 (HD4890) support: http://www.techpowerup.co...PowerUp_GPU-Z_v0.3.3.html

[ Voor 9% gewijzigd door CJ op 26-03-2009 01:37 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Het ziet er wel netjes uit. Ik ben benieuwd naar de echte reviews. Dit zijn erg leuke oc kaartjes. Zeker als je straks met wat bios mods het een en ander zelf kan veranderen :P

Ik heb zelf wat tests gedaan met CPU's en coolers. Maar als een CPU 10c warmer wordt gaat het verbruik ook met 8-10 watt omhoog. Ik was hier echt verbaast over. Dus goed coolen scheelt ook weer in het verbruik. Ik weet niet of dit ook geld bij de RV770 chips. Maar hoe warmer een chip wordt hoe hoger de weerstand wordt. Nu kun je hier vast wel dingen aan doen. En dat zal AMD ook wel gedaan hebben want die RV770 is ontworpen voor hoge temps.

[ Voor 55% gewijzigd door Astennu op 26-03-2009 07:40 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Ja, als je bedoelt dat je gpu warmer wordt DOORDAT je hem hoger clockt, dan gaat het stroomverbruik wel omhoog maar niet door de warmte. Misschien heb ik het fout, misschien is er wel hogere leakage op een hoge temp maar ik dacht het niet.

Normaal gesproken is het zo dat ati kaarten wat slechter scoren in 3dmark maar vervolgens weer iets beter in gaming. Nu de score in vantage 15% hoger is, is de kans groot dat straks veel games ook 15% (of dus meer) beter scoren. Ik denk dat dit echt is vanwege de beta drivers. Kijk naar Grid en cod, die spellen scoren gewoon te weinig en dit komt gewoon door de drivers.

En als CJ zegt dat hij hd490's heeft gezien die minder verbruiken dan een hd4870 geloof ik hem graag.

En dan nog die ongelooflijke overclockbaarheid. Ik vraag me af of er ook factory oc versies komen die standaard al op 1 ghz geclockt is. Vergeet niet de hd4890 is maar 13.33% hoger geclockt dan de hd 4870. als hij op 1ghz draait maarliefst 33.33%. Nou als hij dan niet bij de gtx 285 in de buurt komt. Zo'n overclock redt je nooit met de gtx 275. En vergeet het ddr3 geheugen niet. Dat zal hem wel gaan bottlenecken op de hoge resolutie.

[ Voor 23% gewijzigd door Verwijderd op 26-03-2009 08:23 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Verwijderd schreef op donderdag 26 maart 2009 @ 08:15:
Ja, als je bedoelt dat je gpu warmer wordt DOORDAT je hem hoger clockt, dan gaat het stroomverbruik wel omhoog maar niet door de warmte. Misschien heb ik het fout, misschien is er wel hogere leakage op een hoge temp maar ik dacht het niet.

Normaal gesproken is het zo dat ati kaarten wat slechter scoren in 3dmark maar vervolgens weer iets beter in gaming. Nu de score in vantage 15% hoger is, is de kans groot dat straks veel games ook 15% (of dus meer) beter scoren. Ik denk dat dit echt is vanwege de beta drivers. Kijk naar Grid en cod, die spellen scoren gewoon te weinig en dit komt gewoon door de drivers.

En als CJ zegt dat hij hd490's heeft gezien die minder verbruiken dan een hd4870 geloof ik hem graag.

En dan nog die ongelooflijke overclockbaarheid. Ik vraag me af of er ook factory oc versies komen die standaard al op 1 ghz geclockt is. Vergeet niet de hd4890 is maar 13.33% hoger geclockt dan de hd 4870. als hij op 1ghz draait maarliefst 33.33%. Nou als hij dan niet bij de gtx 285 in de buurt komt. Zo'n overclock redt je nooit met de gtx 275. En vergeet het ddr3 geheugen niet. Dat zal hem wel gaan bottlenecken op de hoge resolutie.
Dat dacht ik eerst ook. Maar echt alleen temperatuur scheelde ook al. CPU was gewoon op 3.0 geclockt en ik zette de fan uit. Dan zag je dat elke 10 C die de cpu temp steeg het verbruik ook met 8-10 watt omhoog gegaan was. Je zag het gewoon oplopen op de meter.

Hogere clocks verhogen het verbruik wel ietsjes. Maar de grootste boosdoener is toch het voltage. Zodra die omhoog gaat zie je de grootste stijging.

Maar goed op deze manier zou je CPU's al eigenlijk met dezelfde coolers moeten testen om het eerlijk te houden. Want als een CPU een betere cooler heeft kan het verbruik daardoor al 10-20c lager zijn.

Misschien is dit ook de rede dat sommige non refferenced Radeon kaarten 10 watt zuiniger zijn. Omdat de niet stock cooler de load temp gewoon wat lager houd en er dus minder weerstand optreed in de chip.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 30-07 17:14
Astennu schreef op donderdag 26 maart 2009 @ 08:30:
[...]


Dat dacht ik eerst ook. Maar echt alleen temperatuur scheelde ook al. CPU was gewoon op 3.0 geclockt en ik zette de fan uit. Dan zag je dat elke 10 C die de cpu temp steeg het verbruik ook met 8-10 watt omhoog gegaan was. Je zag het gewoon oplopen op de meter.

Hogere clocks verhogen het verbruik wel ietsjes. Maar de grootste boosdoener is toch het voltage. Zodra die omhoog gaat zie je de grootste stijging.

Maar goed op deze manier zou je CPU's al eigenlijk met dezelfde coolers moeten testen om het eerlijk te houden. Want als een CPU een betere cooler heeft kan het verbruik daardoor al 10-20c lager zijn.

Misschien is dit ook de rede dat sommige non refferenced Radeon kaarten 10 watt zuiniger zijn. Omdat de niet stock cooler de load temp gewoon wat lager houd en er dus minder weerstand optreed in de chip.
Hoe warmer de chip hoe meer verbruik is heel logisch hoor :)
Hoe warmer de chip hoe groter de weerstand wordt. Nemen we de wet van Ohm erbij U = I * R
Als in spanning = stroom * weerstand. Dan zien we dat als de weerstand toeneemt, de spanning ook toeneemt en daardoor de energie door het circuit ook. Deze berekenen we namelijk met P(power/energie) = U*I.

edit: Astennu ik heb eerder een soort poging gedaan hier iets over uit te leggen, maar toen werd ik nogal brutaal afgesnauwd door Dhr. Reinman. Hierop heb ik vervolgens niet meer gereageerd, for the love of the topic.
Maar miss kun jij hem nu wel uit zijn hoofd praten dat hij niet geen gelijk heeft, met jouw praktijkvoorbeeld. Even een quote uit zijn post:
Verwijderd schreef op woensdag 18 maart 2009 @ 13:22:
[...]


Dus als ik er een dikke koeler op zet en mijn temperatuur naar beneden gaat, verbruik ik ook minder stroom?(ik hoop dat jij ook aanvoelt dat het onzin is). Dus jij moet niet zo blaten. Ik weet wel wat ik zeg.

[ Voor 20% gewijzigd door Gurneyhck op 26-03-2009 10:37 ]


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 17:44
Gurneyhck schreef op donderdag 26 maart 2009 @ 10:32:
[...]


Hoe warmer de chip hoe meer verbruik is heel logisch hoor :)
Hoe warmer de chip hoe groter de weerstand wordt. Nemen we de wet van Ohm erbij U = I * R
Als in spanning = stroom * weerstand. Dan zien we dat als de weerstand toeneemt, de spanning ook toeneemt en daardoor de energie door het circuit ook. Deze berekenen we namelijk met P(power/energie) = U*I.

edit: Astennu ik heb eerder een soort poging gedaan hier iets over uit te leggen, maar toen werd ik nogal brutaal afgesnauwd door Dhr. Reinman. Hierop heb ik vervolgens niet meer gereageerd, for the love of the topic.
Maar miss kun jij hem nu wel uit zijn hoofd praten dat hij niet geen gelijk heeft, met jouw praktijkvoorbeeld. Even een quote uit zijn post:


[...]
Afbeeldingslocatie: http://www.xbitlabs.com/images/video/ati-powercons/x800pro_power_extreme_core.gif
At 550MHz and 560MHz frequencies, the core voltage remained the same, but I installed a water-cooling system. The power consumption then went down somewhat.

Curiously enough, the power consumption of the card at the nominal frequencies turns to be lower with the water-cooling system than with the standard air cooler. Evidently, the water leads to a lower GPU temperature, thus positively affecting the power consumption. This is probably due to the reduction of various leakage currents and other effects when the die temperature is low – specialists in semiconductors may have something to add on the topic. I can only show you a diagram from the report on extreme overclocking of the RADEON X800 Pro – it contains the die temperature and the ambient temperature:
link

[ Voor 20% gewijzigd door Blastpe op 26-03-2009 11:07 ]


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 02-08 11:50
CJ schreef op donderdag 26 maart 2009 @ 01:11:
Wat een gezeik over Powerplay weer. ...... Dat maakt AMD alsnog zelf wel uit.
.............
Dan over de HD4890 en het stroomverbruik en warmte afgifte en mijn 'betrouwbaarheid'. Als straks in sommige reviews blijkt dat de RV790 meer verbruikt dan de RV770 in idle toestand dan is er echt iets mis met de drivers dan wel bios. De chip is zo ontworpen dat dit een stuk lager zou moeten liggen dan de RV770. En ik heb exemplaren gezien waar het inderdaad gewoon goed werkt. :)
Bedankt voor je uitgebreide antwoord _/-\o_
Mijn excuses voor het gezeik, ik heb het dan over de betrouwbaarheid/PR (waar jij ook deel van uitmaakt) van Ati, m.i. kan het toch niet zo zijn dat als zowel BIOS en de Drivers hopelijk meewerken dat het dan pas werkt! Laten we wel wezen als je zo'n kaart koopt heb je geen idee wat voor bios erin zit en zit je mogelijk met een niet goed werkende PowerPlay.

Als het resultaat uiteindelijk is dat het idle gebruik hoog is noem ik het gewoon defect (ook al werkt misschien 90% wel), dat is dan voor mij niet van belang ;)

Fudzilla geeft je ook gelijk:
http://www.fudzilla.com/i...k=view&id=12832&Itemid=34

We zullen het de komende tijd zien.

Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 02-08 12:30

Cheezus

Luiaard

Gurneyhck schreef op donderdag 26 maart 2009 @ 10:32:
Hoe warmer de chip hoe meer verbruik is heel logisch hoor :)
Hoe warmer de chip hoe groter de weerstand wordt. Nemen we de wet van Ohm erbij U = I * R
Als in spanning = stroom * weerstand. Dan zien we dat als de weerstand toeneemt, de spanning ook toeneemt en daardoor de energie door het circuit ook. Deze berekenen we namelijk met P(power/energie) = U*I.
Euh, dat klopt niet helemaal. Chips werken op een bepaalde (vaste) spanning, als de weerstand ervan toe zou nemen door de temperatuur zou de spanning niet toenemen maar de stroom (en daarmee het opgenomen vermogen) afnemen.
De verklaring van de post twee posts boven mij (meer lekstromen bij een hogere temperatuur) lijkt mij dan ook een stuk aannemelijker.

Acties:
  • 0 Henk 'm!

Verwijderd

Gurneyhck schreef op donderdag 26 maart 2009 @ 10:32:
[...]
edit: Astennu ik heb eerder een soort poging gedaan hier iets over uit te leggen, maar toen werd ik nogal brutaal afgesnauwd door Dhr. Reinman. Hierop heb ik vervolgens niet meer gereageerd, for the love of the topic.
Maar miss kun jij hem nu wel uit zijn hoofd praten dat hij niet geen gelijk heeft, met jouw praktijkvoorbeeld. Even een quote uit zijn post:
Ik hoop dat je de koeling ook mee rekent in je verbruik? ik namelijk wel, ik meet altijd total system power consumption :> . Zoals je ziet bij blastpe is het verschil nominaal. Zeker als je zo lekker selectief quoten, waar het uit eindelijk om ging.

Ik zal je nog laten lezen waar het om ging:
Het gaat om de koeler in dit geval(hij miept over temperatuur, maar geeft daar het verbruik de schuld van, terwijl het verbruik van de kaart niet buitensporig is, alleen de koeler zo is ingesteld om op een laag pitje te draaien)
Als in, de temperatuur is hier niet zo hoog door het verbruik, als meer het gebruik van de koeler.

Edit: Trouwens ik reageerde op jouw zoals jij reageerde. Vervelend he. :>

[ Voor 3% gewijzigd door Verwijderd op 26-03-2009 11:23 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Verwijderd schreef op donderdag 26 maart 2009 @ 11:20:
[...]

Ik hoop dat je de koeling ook mee rekent in je verbruik? ik namelijk wel, ik meet altijd total system power consumption :> . Zoals je ziet bij blastpe is het verschil nominaal. Zeker als je zo lekker selectief quoten, waar het uit eindelijk om ging.

Ik zal je nog laten lezen waar het om ging:

[...]

Als in, de temperatuur is hier niet zo hoog door het verbruik, als meer het gebruik van de koeler.

Edit: Trouwens ik reageerde op jouw zoals jij reageerde. Vervelend he. :>
Maar goed een cpu fan waar het in mijn voorbeeld over ging. Gebruik 1-2 watt max. En ik ging 30c omhoog en toen ook bijna 20-25 watt in verbruik (ik had niet verwacht dat het zo veel kon zijn). Maar het kan natuurlijk per chip schelen. Maar Temp speelt wel degelijk een rol. Ga je bv een water cooling gebruiken heb je weer het verbruik van je pomp er bij. Maar een betere air cooler zal amper meer verbruiken als het over de fan gaat. Maar kan je wel aardig wat stroom besparen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Sja, dat ligt er aan hoe veel beter je koeling is. Ik praatte daar vooral over een dikke koeler, ala deze:
http://www.dvhardware.net...ccelero_xtreme_gtx280.jpg

En als je een push pull maakt op een Mugen (al dan niet 2) of TRUE komt daar ook weer extra verbruik bij. Zakt de temperatuur genoeg om dat verschil goed te maken om minder lekstroom te hebben.

Eigenlijk is het heel simpel. Iemand hier met een stock koeler en een watt meter. Meet je wattage op 90 graden en fan op langzaam 30% en meet het op ~50 graden op 80% fanspeed.

[ Voor 56% gewijzigd door Verwijderd op 26-03-2009 12:31 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Verwijderd schreef op donderdag 26 maart 2009 @ 12:27:
Sja, dat ligt er aan hoe veel beter je koeling is. Ik praatte daar vooral over een dikke koeler, ala deze:
http://www.dvhardware.net...ccelero_xtreme_gtx280.jpg

En als je een push pull maakt op een Mugen (al dan niet 2) of TRUE komt daar ook weer extra verbruik bij. Zakt de temperatuur genoeg om dat verschil goed te maken om minder lekstroom te hebben.

Eigenlijk is het heel simpel. Iemand hier met een stock koeler en een watt meter. Meet je wattage op 90 graden en fan op langzaam 30% en meet het op ~50 graden op 80% fanspeed.
Push pull is van wat ik tot nu toe gezien heb nutteloos. Temp zakt maar iets van 2c. En dan krijg je de winst er niet echt uit. Met zo'n accelero denk ik wel (afhankelijk van de chip) Die cooler laat de temp naar 40-50 zakken waar hij nu 90-100 is (in het geval van een HD4870 X2) Dus ik denk dat je die 5 watt aan fans er daar wel uit haalt. + hij zal een stuk stiller zijn.

Ik heb toen het volgende getest. Fan max. En toen fan uit. Verschil was 1 watt temp nog gelijk maar toen ging de temp omhoog en zag je het verbruik stijgen. Ik weet helaas niet exact meer hoeveel dit was want dit is al 5 weken geleden of zo. Maar ik zal het binnenkort nog eens meten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Uit is niet het zelfde natuurlijk als langzaam draaien.

Acties:
  • 0 Henk 'm!

  • Powrskin
  • Registratie: November 2005
  • Niet online
Gurneyhck schreef op woensdag 25 maart 2009 @ 22:42:
[...]


Je kan nu al de videokaarten met digital PWM's softwarematig voltmodden hoor :)
O.A. de HD4870, HD4870X2 & GTX260,GTX280.
Daar was ik van op de hoogte :P Heb nu een 4850 waarbij dat niet kan namelijk, anders zat die nu ook al wel op 900mhz

Nou wie doet er even zijn vinger tussen de 47XX fan en kijkt met gpu-z naar oplopende temps en de wattmeter?
Ik heb hem op waterkoeling, waaraan niet alleen de gpu, zal zo de boel alsnog even uitzetten om verschil te ontdekken.

[ Voor 23% gewijzigd door Powrskin op 26-03-2009 13:30 ]

Nukezone FTW


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Verwijderd schreef op donderdag 26 maart 2009 @ 13:18:
Uit is niet het zelfde natuurlijk als langzaam draaien.
Ja dus ? het verschil tussen uit en aan was 1 watt voor die cooler.
Powrskin schreef op donderdag 26 maart 2009 @ 13:23:
[...]


Daar was ik van op de hoogte :P Heb nu een 4850 waarbij dat niet kan namelijk, anders zat die nu ook al wel op 900mhz
Ik heb die van mij hardmodded. Maar dat PWM gedeelte wordt dan wel erg warm. Heb ze mod nu ook gewoon los gehaald scheelt mij maar 10-15 MHz.

[ Voor 44% gewijzigd door Astennu op 26-03-2009 13:30 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

En? Dat moet je dus nog steeds mee nemen.

Acties:
  • 0 Henk 'm!
De discussie neigt hier nu wel erg naar een 'ervaringen'-discussie wat beter in het andere topic past... het heeft weinig met echt 'nieuws' meer te maken... }:O

Interessante nieuwsberichten over de demonstratie van Havok op de GPU via OpenCL tijdens het Game Developers Conference (ja het werkt nu al ondanks dat de OpenCL specificatie pas een paar maanden vast ligt!) en de dual power-plane functies van de RV790 (van core & memory controller) worden hierdoor helemaal ondergesneeuwd.... laat staan dat er over gediscussieerd wordt.... Beetje jammer. }:|

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Volgens mij kwam die discussie juist daardoor op gang, over het stroom verbruik :P. Trouwens, laat dat aparte memory controller power-plane nu beter toe dat het geheugen op een lagere snelheid gaat draaien?

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 01-08 17:02
CJ, ik heb een vraagje over dat Havok FX. Stel nou dat het geactiveerd wordt met Catalyst 9.4, kunnen we dan meteen in alle games die gebruik maken van Havok de GPU gebruiken om dit te berekenen? Of moet daar eerst ondersteuning voor komen (in de vorm van profielen ofzo)?

Acties:
  • 0 Henk 'm!

  • sleepwalkerbe
  • Registratie: Januari 2009
  • Nu online
Avalaxy schreef op donderdag 26 maart 2009 @ 13:53:
CJ, ik heb een vraagje over dat Havok FX. Stel nou dat het geactiveerd wordt met Catalyst 9.4, kunnen we dan meteen in alle games die gebruik maken van Havok de GPU gebruiken om dit te berekenen? Of moet daar eerst ondersteuning voor komen (in de vorm van profielen ofzo)?
Dit vraag ik me ook al een tijdje af en probeer het nieuws er rond zoveel mogelijk te volgen maar het wordt me niet duidelijk.

Ook vroeg ik mij af wanneer we als user nu eindelijk eens zelf onze profielen kunnen gaan aanpassen per game. Een voorbeeldje hiervan is The last Remnant. Als ik het spel draai volgens de install krijg ik soms diepe FPS drops (met 4870X2).
Vervang ik de naam van de exe door MassEffect (ipv TLR) , dan loopt het spel als een trein en is er van drops geen sprake meer. 8)7

<SG> Sleepwalkerbe - Diablo 3


Acties:
  • 0 Henk 'm!
@ Reinman: Het GDDR5 geheugen blijft op maximale snelheid draaien voor zover ik weet. Het 'beinvloed' nu alleen niet meer de corespeed en vice versa, zoals dat bij de RV770 het geval was. Dat dit het geval was merkte je bij de RV770 doordat er artifacts verschenen wanneer je het GDDR5 geheugen te ver omlaag klokte. Het probleem is dat GDDR5 geheugen bij snelheden lager dan 500Mhz over moet schakelen naar een andere operating-mode die meer op GDDR4 lijkt. Dit vereist extra aanpassingen op software gebied en hardwaregebied. Waarom er dan voor gekozen is om het geheugen op 900Mhz te laten draaien en niet op 500Mhz weet ik niet, maar ik neem aan dat er dan weinig verschil was tussen het stroomverbruik op 500Mhz of op 900Mhz en men voor de 'veiligste' weg koos.

Die aanpassingen kosten namelijk tijd en geld, en men had op dat moment andere prioriteiten, zoals er voor zorgen dat een X2 wel bepaalde aanpassingen had omdat er ineens 2 GPUs op 1 PCB zat met 2x zoveel geheugen. De aanpassingen die er voor de X2 gedaan werden, werden wel weer door gevoerd in de HD4870 1GB... en je ziet dan ook in veel tests dat de HD4870 met 1GB GDDR5 zuiniger is dan een HD4870 met 512MB GDDR5.

Doordat er geen scheiding was van power planes kon je de core van de RV770 op 200Mhz klokken zonder dat je ook maar enige verandering zag in het stroomverbruik. 500Mhz werd toen dus gekozen als meest ideale snelheid (behalve dan op mijn HD4870 waar een test-bios op zit met 550Mhz en variabele Vcores voor 2D/3D). Nu (met de RV790) kan men de power naar de core zelfstandig regelen zonder dat dit dus belemmert wordt door de memorycontroller die gaat flippen.

Ik werd laatst herinnert aan een andere reden waarom de Radeons in idle toestand iets meer verbruiken dan een GTX260/280, Behalve dan dat nVidia een aparte NVIO chip heeft die bepaalde 2D functies overneemt waardoor grote delen van de GT200 in idle toestand kunnen worden uitgeschakeld, werkt ATI gewoon erg anders. Vroeger bestond een GPU uit een 2D (VGA) gedeelte en een 3D gedeelte. Vanaf de R600 heeft men de 2D pipeline compleet verwijdert en wordt dit nu geëmuleerd in de 3D pipeline. De command processor van de GPU vertaalt 2D calls naar 3D calls en de 3D engine wordt dan dus gebruikt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!
Avalaxy schreef op donderdag 26 maart 2009 @ 13:53:
CJ, ik heb een vraagje over dat Havok FX. Stel nou dat het geactiveerd wordt met Catalyst 9.4, kunnen we dan meteen in alle games die gebruik maken van Havok de GPU gebruiken om dit te berekenen? Of moet daar eerst ondersteuning voor komen (in de vorm van profielen ofzo)?
Even wat misverstanden uit de wereld helpen...

Het is niet Havok FX dat gebruikt wordt. Havok FX was de eerste GPU physics implementatie van Havok die op zowel nVidia als ATI GPUs werkte. En toen Intel Havok overnam werd dit project in de koelkast gezet.

Havok ondersteuning wordt niet 'geactiveerd' via de Catalyst drivers. De Catalyst drivers hebben sinds Catalyst 8.12 ondersteuning voor ATI Stream Acceleration. Hierdoor kunnen applicaties (zoals PowerDirector 7 en Avivo Videoconverter) rechtstreeks de kracht van de GPU aanspreken. ATI Stream is immers een set van software en hardware technologieen die er voor zorgen dat de GPU samen kan werken met de CPU om zo tot een uitgebalanceerde workload te komen. Elke Radeon vanaf de HD2x00 serie ondersteunt ATI Stream automatisch via de drivers en kan dus aangesproken worden mits applicaties daarvoor geprogrammeerd zijn.

Havok zal dus zelf de GPU moeten aanspreken. Dit gebeurt via OpenCL (of Computeshaders in DX11) wat dus ook in de recente demo's (zie mijn posts hiervoor met links) gebeurd is. In deze demo's wordt bv de rode jurk via OpenCL op zowel de CPU als GPU berekent om een zo realistisch mogelijk effect te creeeren met de meest ideale workload.

AMD zet zich in om zo snel mogelijk OpenCL ondersteuning toe te voegen aan de drivers. Dit doen ze door zich volledig achter de standaard te scharen en een compiler en runtime in de gratis ATI Stream SDK te integreren die volledig aan die standaard voldoet.

AMD's plan na de ondergang van Havok FX was het onderscheppen van Havok CPU calls, dit in realtime te analyseren en wanneer de conclusie was dat de GPU beter geschikt was voor de berekeningen, dit te offloaden naar de GPU. Zoals het er nu voor staat gaat het dus anders. Havok gaat op dezelfde manier werken als PhysX, maar dan met OpenCL ipv CUDA. Games zullen dus aangepast moeten worden voor Havok GPU ondersteuning. De verwachting is dat dit echter slechts een kleine aanpassing vereist en dat games die gebruik maken van de Havok engine (bv een HL2) via een patch dus gebruik zullen kunnen maken van GPU physics. Aangezien er wat grote games aan komen die Havok ondersteunen is het nog een grote vraag of die GPU Havok gaan ondersteunen (denk bv aan Starcraft 2, Diablo 3).

Dit lijkt dus niet veel anders dan een PhysX oplossing en dat is het ook niet... Maar het grote verschil is natuurlijk dat OpenCL dus echt een open standaard is die ondersteunt wordt door iedereen (inclusief Intel, AMD, S3, nVidia en grote gamedevelopers als EA en Activision Blizzard) en CUDA dus een gesloten standaard die slechts werkt op nVidia GPUs. Persoonlijk ben ik voor open standaarden en daarom hoop ik dat nVidia PhysX aanpast zodat CUDA niet meer nodig is maar dit gewoon via OpenCL kan gebeuren en dus ook op Radeons zou kunnen werken.

De ATI Radeons zijn op dit moment dus al geschikt om aangesproken te worden door applicaties voor andere doeleinden dan het renderen van beelden. Het is alleen wachten op de applicaties. Er ligt dus nog vele Flops onaangetapt vermogen in de huidige serie Radeons.
sleepwalkerbe schreef op donderdag 26 maart 2009 @ 14:06:
[...]
Ook vroeg ik mij af wanneer we als user nu eindelijk eens zelf onze profielen kunnen gaan aanpassen per game. Een voorbeeldje hiervan is The last Remnant. Als ik het spel draai volgens de install krijg ik soms diepe FPS drops (met 4870X2).
Vervang ik de naam van de exe door MassEffect (ipv TLR) , dan loopt het spel als een trein en is er van drops geen sprake meer. 8)7
Dit komt nog. AMD had een paar drivers terug een implementatie in de beta drivers geintegreerd waarmee eindgebruikers zelf profielen konden creeeren. Dit leverde echter wat onvoorziene problemen op en men is terug gegaan naar de tekentafel om een nieuwe user-friendly profielensysteem op te zetten die op dit moment weer getest wordt. Het lijkt een simpel probleem om op te lossen, maar de hardware zit toch dusdanig ingewikkeld in elkaar dat dit toch nog even op zich laat wachten. Je kan namelijk beter gelijk met een goed werkend product lanceren dan dat je de support afdeling onder hoge stress zet wanneer een product bij launch het niet goed doet.

[ Voor 8% gewijzigd door CJ op 26-03-2009 14:50 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 17:44
Was deze benchmark al langs gekomen?
Vantage benchmark GTX285/HD4890

Acties:
  • 0 Henk 'm!
Ze hebben 'm geloof ik nu ofwel offline gehaald of beveiligd zodat je je moet registreren. :+

Maar ook Gibbo laat dus zien dat zijn HD4890 die hij zo maar willekeurig van het schap heeft gepakt met gemak 990Mhz haalt op de core en 1150Mhz op het geheugen. Dat is voor de core dus zo'n beetje de max van Overdrive die default gaat tot 1000Mhz, maar er dan nog 10Mhz onder gaat zitten bij max OC (dus 990Mhz).

Overigens heeft AMD voor de techies onder ons een erg interessant document online gezet... De R700 Family Instruction Set Architecture waarin men erg diep in gaat op de hele R700 architectuur:

http://developer.amd.com/...tion_Set_Architecture.pdf

Edit: Voor degenen die de post van Gibbo gemist hebben:


System 1 Specification
Intel Kentsfield Quad Core at 3.20GHz (8x400FSB)
Abit IP35 Pro Mainboard
3GB 800MHz DDR2 Memory (5-5-5-15)
4x Samsung SSD 32GB SLC (RAID 0)
Windows 7 64-Bit BETA (Catalyst 9.3 Drivers) / Windows Vista Ultimate 64-Bit (Supplied Drivers)

ATi Radeon 4870 512MB @ 750MHz / 3600MHz (Windows 7 - Catalyst 9.3)
3DM06
HD4870 512: 15550
HD4890: 16098
HD4890 OC 990/1150: 16898

Vantage
HD4870 512: P9358
HD4890: P10211
HD4890 OC: P11413

System 2: Core I7 System Specification
Intel Core I7 920 @ 3800MHz
Asus Rampage 2 Extreme Mainboard
Corsair Dominator 1600MHz 6GB Triple Channel Kit
PowerColor ATI Radeon 4890 1024MB / Asus NVIDIA GeForce GTX 285 1024MB
Windows Vista 64-Bit Ultimate
Both cards using supplied drivers

3DM06
GTX 285: 20275
HD4890: 19321
HD4890 @ 990/1150: 21203
HD4890 OC CFX: 24538

Vantage with PhysX
GTX 285: P14699 (CPU - 50551, GPU - 11889)
HD4890: P11160 (CPU - 17378, GPU - 9960)
HD4890 OC: P12645 (CPU - 17405, GPU - 11574)
HD4890 OC CFX: P17874 (CPU - 17358, GPU - 18053)

[ Voor 45% gewijzigd door CJ op 26-03-2009 17:47 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!
Newsflash: Havok en AMD kondigen officieel GPU physics aan

Dit plaatje zegt meer dan genoeg:

Afbeeldingslocatie: http://img165.imageshack.us/img165/8554/amdhavokgpuphysicsv.jpg

En dit persbericht gaat er nog verder op in:
SAN FRANCISCO, Calif. — March 26, 2009— Advanced Micro Devices, Inc. (NYSE: AMD) and Havok, the premier provider of interactive software for physics simulation and content development, are presenting new, optimized executions of Havok’s physics middleware on AMD platforms at the 2009 Game Developers Conference. The demonstrations include the first OpenCL supported execution of Havok Cloth™.
Havok offers a complete modular suite of products that help visual and interactive content developers create more realistic games and cinematic special effects. As the latest software developer to take advantage of ATI Stream technology to leverage multi-core architectures and accelerate execution of highly parallel functions, like real-time cloth simulation, Havok will enable game developers to offer improved performance and interactivity across a broad range of OpenCL capable PCs. AMD has recently introduced optimized platform technologies, such as “Dragon” desktop platform technology, which balance performance between the CPU and GPU with ATI Stream technology to deliver outstanding value.

“Havok is committed to delivering highly optimized cross-platform solutions to our game customers and we are pleased to be working with AMD to ensure that gamers enjoy a great user experience when running Havok-powered games on AMD platforms.,” said David Coghlan, vice president of development for Havok. “Unlocking the parallel processing capability of AMD’s hardware provides real advantages to our customers, and the greater the total computing resources available, the better the gaming experience developers can deliver.”

"Havok’s awesome toolset has allowed us to deliver astonishing physics interactions in our games, including detailed real-time destruction and complex ragdoll models, and we are excited about using ATI Stream technology to pursue more astounding in-game accomplishments,” said Andrey Iones, chief operating officer of Saber Interactive. “We are excited that AMD and Havok are working together and leveraging an open standard like OpenCL.”
Bron: http://www.amd.com/us-en/..._543_15944~130759,00.html

Overigens is Havok volledig compatible met nVidia GPUs dus wanneer nVidia er voor zorgt dat hun OpenCL ondersteuning goed is, dan is het geen enkel probleem om Havok GPU physics op GeForces te draaien. Nu zie ik mensen denken dat GeForce bezitters dan meteen in het voordeel zijn omdat ze zowel PhysX als Havok op de GPU kunnen draaien. Yep, dat klopt helemaal. Maar bekijk het nu eens van de kant van nVidia en gamedevelopers (die het liefst voor de grootste gemene deler gaan), ;)

Voor de mensen die het nog niet gezien hebben:

Havok Cloth met OpenCL op GPU/CPU:


Havok Destruction met OpenCL op GPU/CPU:

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Deagle
  • Registratie: November 2007
  • Laatst online: 21:00
Is het ook mogelijk om havok physics te runnen op een 2e videokaart? Dus hetzelfde idee als met het physx systeem van nvidia?

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Een reviewtje van gisteren, de MSI 4870 1GB; ik vond dit wel opvallend: MSI krijgt het verbruik echt wel lager dan de reference AMD kaart. Verder is het wel een geinige review omdat de insteek net iets anders is dan bij de meeste andere testen; ze focussen zich op de highest playable resolutions


Afbeeldingslocatie: http://enthusiast.hardocp.com/images/articles/123794042685Kvu9Ogqi_11_1.gif


En wel zo grappig dat zo'n simpel koelertje toch beslist beter is dan het referentie model.

Afbeeldingslocatie: http://enthusiast.hardocp.com/images/articles/123794042685Kvu9Ogqi_1_1.jpg

[ Voor 17% gewijzigd door Illidan op 26-03-2009 19:14 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
CJ schreef op donderdag 26 maart 2009 @ 18:12:
Newsflash: Havok en AMD kondigen officieel GPU physics aan
Ziet er beslist erg gaaf uit.

Maar is dit nu dus de GAMEPLAY physics, en niet de eye-candy physics variant alla Mirrors Edge? (de term GPU physics brengt me even in verwarring hier :S )

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 02-08 11:50
Zo te zien is dat ook geen reference pcb design van die MSI, hier kunnen dus net zo goed besparingen uit voort komen als drivers of een bios.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 02-08 13:02

Edmin

Crew Council

get on my horse!

Illidan schreef op donderdag 26 maart 2009 @ 19:26:
[...]


Ziet er beslist erg gaaf uit.

Maar is dit nu dus de GAMEPLAY physics, en niet de eye-candy physics variant alla Mirrors Edge? (de term GPU physics brengt me even in verwarring hier :S )
De jurk is nog steeds effectsphysics, want het voegt geen andere elementen toe aan het spel anders dan optische. De trein zou een voorbeeld van gameplay physics kunnen zijn.

Het verschil zit hem in het effect op de gameplay. In Mirror's Edge zag het er leuk uit, maar het voegde geen gameplay elementen toe. Dat kan ook niet, omdat het spel dan afhankelijk wordt van de fanbase met Physx hardware.
Hoe physics geimplementeerd worden in een game (gameplay of effects) is geheel afhankelijk van de makers. Onder physx is de kans dat men gameplay physics ontwikkelt zeer beperkt, omdat je dan alleen de game zou kunnen spelen met NV hardware. Onder Havok is die kans een stuk groter, omdat zowel NV als AMD OpenCL kunnen ondersteunen. Op deze manier kunnen dus gameplay physics worden geimplementeerd die zowel het NV als het AMD kamp kunnen draaien.
Nu is er nog wel een horde te nemen: de gebruikers van oude videokaarten van een generatie die nog niet met deze techniek om kunnen gaan. Die sterven echter vanzelf uit. ;)

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 26-07 21:33

SG

SG surft naar info hardewaren

Deagle schreef op donderdag 26 maart 2009 @ 18:35:
Is het ook mogelijk om havok physics te runnen op een 2e videokaart? Dus hetzelfde idee als met het physx systeem van nvidia?
Die Eerste demo Press releases zijn net zo vaag als de eerste nV PhysX berichten.
Dat wordt pas duidelijk als de eerste Havok GPU supportende game uit is. En het breed geannaliseerd is door reviewers van gerenomeerde sites.

Met de tijd wordt het dus duidelijker.

Denk dat ATI niet veel van nV zal verschillen kwa opties wat er mogelijk is kwa CF Havok en MultiGPU Havok, wordt dus afwachten of ATI ook zo flex gaat worden.
Illidan schreef op donderdag 26 maart 2009 @ 19:26:
Ziet er beslist erg gaaf uit.

Maar is dit nu dus de GAMEPLAY physics, en niet de eye-candy physics variant alla Mirrors Edge? (de term GPU physics brengt me even in verwarring hier :S )
De dev's bepalen of het Gameplay of effect Physics wordt. De SDK bied een feature rijkere game genre onafhankelijde functie libary aan.
Gameplay Physics is
1 ) Speler interactie.
2 ) Effect heeft gevolgen voor Speler en of NPC

Gameplay houd bijvoorbeeld in dat het resultaat van een effect wordt door berekend.
Voorbeeld collision van debri. Resultaat wordt alleen visueel gebruikt, 'n gave explosie. Leuke effect physics. Resultaat word doorbereken? Een debri collisien zorgt voor damage. Dezelfde Effect physics wordt dan gameplay Physics.
Een Dev keuze dus.

---------------------------------------------------------------

Daarnaast als ik dat zo aan hoor
Onderscheid zich Havok GPU door standaard shader programmeer taaltje te ondersteunen.
OpenCL vs Cuda. Dat vind ik uiteraard beter. GPU merk onafhankelijk. Uiteraard een voordeel voor dev's.

PhysX heeft van gamer point of view zeker een voordeel.
Als gamer doet elke Havok game het op welke GPU maar ook. Dev's kunnen dan gretiger met gameplay Physics omspringen en hardware minimum Physics eisen hoger dan CPU verlangen.
Maar als je als gamer een PhysX game gaat spelen heb je meer aan nV spul erin. Dit is toch een voordeel voor nV. Gezien de dilemma van dev.s zal dit voornamelijk in effect Physics schelen. Wil je de gameplay gelijk houden op ATI en nV systemen.


Daarnaast zie ik niet in dat je voor Havok te gebruiken deze met OpenCL moet aanspreken?

De PhysX SDK maakt CPU GPU PPU uiteraard abstract. Bij initialisatie kies je om PPU of GPU of welke combi optioneel te kunnen gebruiken. De SDK functie libs spreken de CPU GPU aan dmv de juiste compiler en dus machine taal. Dus Cuda is een nV middle ware software engenering thing. Niks cuda gewoon plain C++ voor x86 spreek je Physx call aan die Cuda gebruiken. Dat is wat ik verwacht van een SDK.

Als je Havok gebruikt en OpenCL dan bypass je just de SDK? Leuk als je AI dingen ook op de GPU wilt draaien. Of Missing features wilt toevoegen. Als dit toch zo is, dan is Havok heel anders dan PhysX en daarmee niet eenvoudig als je de GPU direct aanspreekt. En veel zelf moet doen. De reden van middle ware is juist om de dev te onzien van veel low level werk.

Nu lees ik dus dat het oorspronkelijke idee was dat ATI de Havok CPU call onderscheppen en na analyse eventueel GPU call's van maken. Leek mij een te verwachten mogelijkheid om van HavokGPU eenvoudig toe te kunnen passen. Maar raar dat Havok niet native GPU aanspreek. Net zoals PhysX. Blijkbaar wilt iNtel dat niet.

De press releases zijn er niet zo duidelijk over. Dit zal ook met de tijd duidelijker worden. Als er voor de hobbiïsten ook Havok GPU tutorials komen. Ben benieuwed.

[ Voor 4% gewijzigd door SG op 26-03-2009 19:56 ]

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

CJ schreef op donderdag 26 maart 2009 @ 17:07:
Vantage with PhysX
GTX 285: P14699 (CPU - 50551, GPU - 11889)
HD4890: P11160 (CPU - 17378, GPU - 9960)
HD4890 OC: P12645 (CPU - 17405, GPU - 11574)
HD4890 OC CFX: P17874 (CPU - 17358, GPU - 18053)
Even een belangrijke sidenote voor de mensen die zich graag blindstaren op synthetische benches als Futuremark's Vantage:

Kijk even naar de CPU-score van de GTX285, 3x zo hoog als de HD4890. Oftewel: de nVidia ''cheat'' GPU-accelerated CPU-physics is nog steeds geactiveerd. Dit was dus een verboden tactiek, zoals gezegd door mr. Futuremark, maar is duidelijk nog steeds aan het werk. Vrij vertekende score dus.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 26-07 21:33

SG

SG surft naar info hardewaren

Dat is meer een cheat omdat het niks met FPS en 3D performance te maken heeft. Niet 3D mark en cijferspel waardig.
Als ze het als extra apparte physics_mark waarde gerbuikten is het geen cheat.
De vraag alleen hoe ze aan die waarde komen.

Ik zie het zo. ATI score is Mirroredge kaal.
nV score is Mirror edge met enhanced physics.

Daarbij kan de nV gamer dus 'n mooiere game hebben maar met minder FPS.

Dus die score zegt eigenlijk niks behalve dat die sneller zou zijn in 3D wat dus niet zo is. Het kan juist meer physics leveren.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Mis. Compleet foute vergelijking. nVidia gebruikt in die specifieke CPU-test (vol met physics) de GPU om de boel uit te rekenen. Waar CPU's goed zijn in veel verschillende taken op een wat lage snelheid (zie de slideshow), zijn GPU's belachelijk goed in één ding op ongelofelijk hoge snelheid.

Combineer die twee met elkaar en je houd een belachelijk hoge score over die de totaalscore ook flink mee omhoog trekt.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 01-08 21:10

Format-C

Tracing Rays

CJ schreef op donderdag 26 maart 2009 @ 18:12:


Voor de mensen die het nog niet gezien hebben:

Havok Cloth met OpenCL op GPU/CPU:
[video]

Havok Destruction met OpenCL op GPU/CPU:
[video]
Die filmjes lijken verdacht veel op de nV PhysX filmpjes. Soortgelijke bewegingen e.d.

Het zal mij benieuwen of, en vooral wanneer, de Havok physics op een schaal gebruikt gaan worden dat we er echt iets aan hebben. :)

[ Voor 3% gewijzigd door Format-C op 26-03-2009 20:35 . Reden: foudtje ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
GAMEPLAY / EFFECT physics is een dev keuze: het opblazen vd brug zou dus heel goed een gameplay physics kunnen zijn.... (speler moet nu omlopen, of naar beneden klauteren oid, door deze omweg beleeft hij andere avonturen) en aangezien Havok op zowel nV als ATi kaarten draait, kunnen we dus beslist gameplay physics verwachten, correct? Of is dat te kort door de bocht?

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
gameplay physics bestaan al sinds 1997 toen total annihilation uitkwam.

Acties:
  • 0 Henk 'm!

Verwijderd

Dacht dat die physics hype al overgewaaid was... :z

Acties:
  • 0 Henk 'm!

  • apatat
  • Registratie: Juni 2008
  • Laatst online: 18-07-2019
volgens mij zijn gameplay physics meer dingen zoals de zwaartekracht op de pijl/kogel die je net hebt afgevuurt en die daarna vertraagd wordt door water.... of als je bv een stuk moet raken van een wapperende vlag (of jurk, zie hierboven). Dan kan het zo natuurgetrouw mogelijk zijn van de effecten een grote rol spelen op hoe je gaat mikken ed

persoonlijk vind ik de mogelijkheden om bepaalde wetenschappelijke dingen te versnellen erg interessant. Of het nu gaat om game elementen, het versnellen van coderen/decoderen of andere rekenintensieve taken, ik zal deze ontwikkeling wat meer beginnen volgen.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 02-08 13:02

Edmin

Crew Council

get on my horse!

tomcatha schreef op donderdag 26 maart 2009 @ 20:50:
gameplay physics bestaan al sinds 1997 toen total annihilation uitkwam.
Natuurlijk bestaan gameplay physics al lang, maar tot nu toe waren dat altijd door de CPU uitgerekende physics. De GPU is daar vele malen beter voor geschikt, zodat er nu ook gebruik gemaakt kan worden van complexe physics berekeningen in spellen. Een ontwikkeling die bij mijn weten voor het eerst in 2996 door Ati gedemonstreerd werd.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 01-08 21:10

Format-C

Tracing Rays

Er wordt idd een hoop gedemonstreerd.

Alleen zien we er helaas verdomd weinig van terug in games. :(

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
RappieRappie schreef op donderdag 26 maart 2009 @ 21:03:
Er wordt idd een hoop gedemonstreerd.

Alleen zien we er helaas verdomd weinig van terug in games. :(
Met een merk-onafhankelijke engine zoals Havok in combinatie met OpenCL, is de kans dat het terug te vinden is in games aanzienlijk groter aan het worden. Met PhysX zouden game-ontwikkelaars zichzelf gewoon teveel in de vingers snijden als ze het GPU-rendered zouden maken. Je veegt in een enkele beweging de helft van je potentiele klanten weg.

Laten we hopen dat Havok de ontwikkeling van GPU-rendered gameplay physics in een stroomversnelling brengt, waarna nVidia waarschijnlijk 2 opties heeft, namelijk PhysX geheel laten varen, of Cuda Opensource maken danwel OpenCL toe gaan passen voor PhysX.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Jejking schreef op donderdag 26 maart 2009 @ 20:12:
Mis. Compleet foute vergelijking. nVidia gebruikt in die specifieke CPU-test (vol met physics) de GPU om de boel uit te rekenen. Waar CPU's goed zijn in veel verschillende taken op een wat lage snelheid (zie de slideshow), zijn GPU's belachelijk goed in één ding op ongelofelijk hoge snelheid.

Combineer die twee met elkaar en je houd een belachelijk hoge score over die de totaalscore ook flink mee omhoog trekt.
Uhhh daar willen we toch juist naartoe? Simpele taken niet meer door de CPU te laten uitrekenen, maar door de GPU? Want die doet dat vele malen beter/sneller/efficiënter? Dus als een benchmark zo knullig is om een CPU test op te nemen met een simpele rekentaak, kijk er dan niet vreemd van op als de GPU die taak grotendeels uitvoert ipv de CPU... correct me if i'm wrong maar dat doet nV juist goed in deze...

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

Verwijderd

Kan wel zijn dat nVidia het goed doet, ik vind ook dat een GPU moet kunnen acceleren wat ie kan.
Echter gaat dat voorbij aan het feit dat deze test bedoeld is om de kracht van de CPU te meten.
Door de GPU te gebruiken (in dit geval via Physx) voor een CPU-test geeft de test een vertekend beeld van de kracht van de CPU en dus van de totale score van de test.
Was het een physics-test dan was er van deze vertekening geen sprake, aangezien het daarbij niet uitmaakt of de CPU of de GPU het afhandelt. Maar goed, het is geen physics-test. Daar is immers nog geen standaardplatform voor :+

[ Voor 27% gewijzigd door Verwijderd op 26-03-2009 21:45 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Illidan schreef op donderdag 26 maart 2009 @ 21:30:
[...]


Uhhh daar willen we toch juist naartoe? Simpele taken niet meer door de CPU te laten uitrekenen, maar door de GPU? Want die doet dat vele malen beter/sneller/efficiënter? Dus als een benchmark zo knullig is om een CPU test op te nemen met een simpele rekentaak, kijk er dan niet vreemd van op als de GPU die taak grotendeels uitvoert ipv de CPU... correct me if i'm wrong maar dat doet nV juist goed in deze...
Het is inderdaad waar we naar toe willen, maar waar we nog niet zijn. 3D Mark is een testsuite die test hoe huidige hardware werkt met de huidige technieken gebruikt in game-ontwikkeling. Daar valt GPU-berekende physics dus nog niet onder.

Los daarvan, wordt de GPU volledig gebruikt bij deze physics test, terwijl in een werkelijke omstandigheid, het gros van de GPU te druk bezig is om physics erbij te doen. Feitenlijk zul je slechts een (klein) deel van je GPU de physics laten doen. Er is dus vanuit dat oogpunt ook een vervalsing van de werkelijkheid gaande. De videokaart kan niet 2 dingen voor 100% vermogen tegelijkertijd doen.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Ja, maar jongens, dat is niet de fout van nVidia in deze, maar van die knullige CPU test die de rekentaak veel te veel versimpeld... die benchmark moet dus worden aangepast, en niet de nV GPU die nu opeens een taak moet laten voorbijschieten terwijl het veel efficiënter is die zelf op te pakken...

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

Verwijderd

Klopt, dat zeg ik ook. Maar zolang de benchmark niet wordt aangepast geeft het offloaden van de CPU-taak naar de GPU een vertekend beeld.
Zoals ik net heb uitgelegd.

[ Voor 83% gewijzigd door Verwijderd op 26-03-2009 22:07 . Reden: slechte formulering weggehaald... ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 02-08 10:57
dat geldt voor de gehele benchmark en iedere benchmark suite dan. er is geen interactie en er hoeven geen dingen worden berekend die nog niet vaststaan. het enige wat er gebeuren moet is renderen en dat is in een game ook niet zo. dingen als ai etc. moeten ook berekend worden.

gelukkig is er een losse gpu en cpu score dus we hoeven ons helemaal niet druk te maken. feit is wel dat de gtx285 dan nog steeds sneller is.....

wel leuke scores voor de overgeclockte kaart. wel erg jammer dat hij standaar maar op 850mhz draait, had wat mij betreft best 925-950 mogen zijn als toch iedere kaart dat gegarandeerd halen kan.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De test is gebasseerd op DX10(.1). Daarin zit geen GPU-ondersteunde physics. Dat nVidia het wel mogelijk maakt via zijn drivers gaat dus ook in tegen de afspraken. Dit is in het verleden al vaker gebeurd (ook ATI deed dit soort dingen wel) om een hogere score te kunnen halen, puur voor de marketing en de tabelletjes om mensen op het verkeerde been te zetten.

Straks wanneer DX11 uit komt en daarbij waarschijnlijk een nieuwe 3D Mark, zal er waarschijnlijk wel een GPU-gebasseerde physics test zijn, simpelweg omdat DX11 er ondersteuning voor biedt. Of ze de CPU-physics test er vervolgens ook uitslopen, is dan natuurlijk de vraag, maar zo niet, dan zou het voor Futuremark verstandig zijn om te zorgen dat de calls niet omgeleid kunnen worden naar de GPU om feitenlijk valse cijfers te creeren.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Illidan schreef op donderdag 26 maart 2009 @ 21:57:
Ja, maar jongens, dat is niet de fout van nVidia in deze, maar van die knullige CPU test die de rekentaak veel te veel versimpeld... die benchmark moet dus worden aangepast, en niet de nV GPU die nu opeens een taak moet laten voorbijschieten terwijl het veel efficiënter is die zelf op te pakken...
Dude. Die specifieke test is om de CPU-kracht te testen. Waarom daar een GPU voor inzetten? Dat klopt niet, daarmee raakt alles uit z'n verband. GPU-benches om GPU's te testen, CPU-tests om CPU's te benchen.

Edit: ben ik de enige die zeer benieuwd is naar de idle verbruiksnummers van de HD4890? Ik zeg laat maar komen!

[ Voor 8% gewijzigd door Jejking op 26-03-2009 22:17 ]


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Hmm volgens mij heeft het niet eens zo zeer te maken met de label physics, maar met de vraag of de berekening uitgevoerd kan worden door de GPU. Zo ja, dan doet de GPU dat....wat voor label er vervolgens aan hangt is punt 2.
Wat voor afspraken schend nV in deze? Een afspraak als in: "in deze test zitten berekeningen die jullie GPU's met gemak veeel beter aankunnen dan de CPU, maar aub toch niet uitvoeren".
Tja, je moet je dan toch sterk afvragen wat dan nog überhaupt het nut is van zo'n benchmark.

Maar volgens mij dwalen we heel erg af ;)

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Illidan schreef op donderdag 26 maart 2009 @ 22:19:
Tja, je moet je dan toch sterk afvragen wat dan nog überhaupt het nut is van zo'n benchmark.

Maar volgens mij dwalen we heel erg af ;)
Het testen hoe sterk/goed een processor is in het veel gebruikte cpu-gerenderde physics.


Maar daarmee dwalen we inderdaad af. AMD heeft ondertussen getoond dat ze via OpenCL Havok over de GPU kunnen draaien. Twee vragen die resten. Zal nVidia zijn best doen om te tonen dat ook zij hun OpenCL support op orde hebben en Havok ook over de GPU kunnen draaien en zullen gamedevelopers hierdoor iets meer open gaan staan voor echte gameplay physics die over de GPU gaan (dus uitgebreidere gameplay physics dan we tot nog toe hebben mogen aanschouwen).

Welk merk de betere (synthetische) prestaties zal kunnen neerzetten op GPU physics, zullen we in ieder geval in de toekomst vast wel kunnen zien met een nieuwe 3D Mark.

Acties:
  • 0 Henk 'm!
Illidan schreef op donderdag 26 maart 2009 @ 22:19:
Wat voor afspraken schend nV in deze? Een afspraak als in: "in deze test zitten berekeningen die jullie GPU's met gemak veeel beter aankunnen dan de CPU, maar aub toch niet uitvoeren".
Tja, je moet je dan toch sterk afvragen wat dan nog überhaupt het nut is van zo'n benchmark.
Je zit er erg dichtbij. ;)

Deze discussie over Vantage en wat voor afspraken nVidia schend, hebben we vorig jaar rond Juni/Juli ook uitgebreid (en erg verhit) gevoerd. En uiteindelijk heeft Futuremark er voor gekozen om alle scores waar nVidia de GPU gebruikt om de CPU te ontlasten bij de CPU-test te schrappen uit de ORB en als ongeldig te verklaren.

CPU test 2 van Vantage is namelijk ontworpen om, de naam zegt het eigenlijk al, CPU physics berekening te meten en in de regels/statuten van Vantage staat duidelijk dat een GPU of driver het eindresultaat niet significant mag beinvloeden. Een CPU score die ineens verdrie- of verviervoudigd wordt is valt dus wel degelijk onder 'significant beinvloeden'.

Uit de Vantage policy:
Based on the specification and design of the CPU tests, GPU make, type or driver version may not have a significant effect on the results of either of the CPU tests as indicated in Section 7.3 of the 3DMark Vantage specification and whitepaper.
Bron: http://www.futuremark.com...pproval_Policy_v101R2.pdf

Vantage is bedoeld als algemene richtlijn voor de performance in games op je PC. Door het beinvloeden van de CPU test wordt de eindscore kunstmatig hoog gehouden en wordt de illusie gewekt dat systemen met een CUDA/PhysX capable videokaart (lees: GeForce 8500 of hoger) altijd sneller is dan een systeem met een Radeon, terwijl er slechts een handjevol games zijn die GPU PhysX gebruiken.

Met de overname van Ageia door nVidia en de daaropvolgende verandering dat PhysX op GPUs zou kunnen draaien, had men bij Futuremark geen rekening gehouden. Vantage ondersteunt namelijk wel PhysX PPUs, maar dat zijn de standalone PPU kaarten die de CPU ontlasten, terwijl de videokaart ook voor 100% vrij is om z'n eigen ding (rendering) te doen. Sinds kort is het echter mogelijk om een aparte videokaart in te stellen als PhysX kaart, terwijl een ander zich richt op rendering. Dit zou op zich dan wel weer toegestaan kunnen worden. Maar Vantage begint nu wel weer 'verouderd' te raken en er zijn inmiddels weer zo veel verandering. Het wachten is dus op de nieuwe 3DMark met DX11.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

dahakon schreef op donderdag 26 maart 2009 @ 21:19:
[...]

Met een merk-onafhankelijke engine zoals Havok in combinatie met OpenCL, is de kans dat het terug te vinden is in games aanzienlijk groter aan het worden. Met PhysX zouden game-ontwikkelaars zichzelf gewoon teveel in de vingers snijden als ze het GPU-rendered zouden maken. Je veegt in een enkele beweging de helft van je potentiele klanten weg.

Laten we hopen dat Havok de ontwikkeling van GPU-rendered gameplay physics in een stroomversnelling brengt, waarna nVidia waarschijnlijk 2 opties heeft, namelijk PhysX geheel laten varen, of Cuda Opensource maken danwel OpenCL toe gaan passen voor PhysX.
Idd, eeen open physics API zal het eea verspoedigen en krijgen we misschien eindelijk eens echte damage control in games :) In COD6 (virtueel) een stad in puin schieten? Deadmacthes die eindigen op een hoop puin :D

Niet op voorraad.


Acties:
  • 0 Henk 'm!
PC Perspective heeft een wat uitgebreidere uitleg over het samenwerkingsverband tussen Havok en AMD. Als je dit artikel leest dan wordt vrij duidelijk dat Havok dus echt veranderingen in z'n eigen physics API heeft gemaakt. Ze hebben Havok Cloth en Havok Destruction genomen en deze subsets van hun physics API geport naar OpenCL. Hiermee wordt het dus mogelijk om Havok Cloth en Havok Destruction op elke OpenCL ondersteunende processor te laten draaien, ongeacht of het een CPU of GPU is (en onafhankelijk van herkomst: Intel/AMD/NV). In dit geval zijn de OpenCL ondersteunende processors dus AMD CPUs en ATI Radeons (dankzij de ingebakken ATI Stream ondersteuning in de drivers).

On-the-fly was het mogelijk om de physicsberekeningen van de CPU naar de GPU te verplaatsen (en weer terug) door middel van een druk op de knop. AMD is al in een vergevorderd stadium met ondersteuning voor OpenCL in hun drivers (zowel voor CPU als GPU) en wat nu op GDC gebruikt wordt is dus een voorproefje op wat komen gaat.

Het interessantste gedeelte vind ik zelf de loadbalancing en het effects physics versus gameplay physics gedeelte. De OpenCL variant van Havok staat het developers toe om hun game naar je systeem te kijken en te analyseren hoeveel processingpower het tot z'n beschikking heeft. Elke game zal een bepaalde standaard hebben die omschrijft wat het minimum processingpower is dat nodig is voor een bepaalde hoeveelheid effecten (net zoals je nu bv 1GB geheugen nodig hebt om in bepaalde games om alle textures te kunnen laden op hoge resoluties).

Havok zal de physics algoritmes aanpassen aan de hand van de totale processingpower van CPU en GPU die je voor handen hebt. Heb je een langzame CPU maar een snelle GPU, dan zal Havok er voor kunnen zorgen dat het aantal physics models (dus bv effecten) toeneemt. Heb je echter een snelle CPU, maar een langzame GPU, dan worden dezelfde algoritmes gebruikt als bij het vorige systeem, maar zal het waarschijnlijk dus een lagere fps opleveren of meer waarschijnlijker, dan zullen de effecten in kwaliteit omlaag gaan.

Lees het artikel hier: http://www.pcper.com/comments.php?nid=6954

Klinkt veelbelovend toch? Nu de resultaten nog in daadwerkelijke games. (8> Maar ik denk dat we met een open standaard als OpenCL en Havok die gebruik gaat maken van die open standaard wat op alle videokaarten en CPUs werkt al een stuk meer in de goede richting gaan dan PhysX en de gesloten CUDA standaard die alleen op nVidia GeForces werkt.

[ Voor 11% gewijzigd door CJ op 27-03-2009 05:34 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 01-08 12:20
Zoals algemeen bekend is, ondersteunen alleen Nvidia kaarten van de 8000-serie en hoger PhysX.
Hoe zit dat bij Havok GPU-physics, welke kaarten kunnen dat allemaal wel/niet draaien (van beide kampen)?

Acties:
  • 0 Henk 'm!

Verwijderd

Dude, anders lees je even :P

Alle kaarten die overweg kunnen met OpenCL kunnen overweg met Havok.
Bij ATi is dat vanaf de HD2000 serie en bij nVidia vanaf de 8000 serie.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 17:44
ATI's HD 4770 consumes 80 Watts

Barely needs a PCIe power connector

ATI's HD 4770 has a maximum board power consumption of 80W and that's by 5 Watts more than the PCI-Express slot can deliver.

The cards current clocks are 750MHz for the core, and 800MHz for GDDR5 memory. As you all know this RV740 card will be ATI's first 40nm desktop product that will hit retail. The clocks aren't final yet so we guess that some things might change.

AMD is still pretty much silent about the rumored HD 4750 that should have a RV740 GPU paired up with GDDR3 memory, and we guess that this one could end up without the PCI-Express power connector, but we couldn't confirm that at this point since the HD 4770 is scheduled to release in the first week of May, probably on the week of May 4th..

AMD wants this card to compete with Geforce 9800 GT and we guess that AMD is much better in this game, as it plans to sell this card for US $99.


ja ja, ik weet het. Het is fudzilla

Acties:
  • 0 Henk 'm!

  • WillemAtHome
  • Registratie: September 2000
  • Laatst online: 30-07-2024

WillemAtHome

Waar geen wil is, is geen weg.

Blastpe schreef op vrijdag 27 maart 2009 @ 13:55:
ATI's HD 4770 consumes 80 Watts

Barely needs a PCIe power connector

ATI's HD 4770 has a maximum board power consumption of 80W and that's by 5 Watts more than the PCI-Express slot can deliver.

The cards current clocks are 750MHz for the core, and 800MHz for GDDR5 memory. As you all know this RV740 card will be ATI's first 40nm desktop product that will hit retail. The clocks aren't final yet so we guess that some things might change.

AMD is still pretty much silent about the rumored HD 4750 that should have a RV740 GPU paired up with GDDR3 memory, and we guess that this one could end up without the PCI-Express power connector, but we couldn't confirm that at this point since the HD 4770 is scheduled to release in the first week of May, probably on the week of May 4th..

AMD wants this card to compete with Geforce 9800 GT and we guess that AMD is much better in this game, as it plans to sell this card for US $99.


ja ja, ik weet het. Het is fudzilla
Heb ik het nu mis of kan de pci-e slot 2.0 150w leveren?

Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 17:44
WillemAtHome schreef op vrijdag 27 maart 2009 @ 14:01:
[...]


Heb ik het nu mis of kan de pci-e slot 2.0 150w leveren?
Klopt, echter een PCI-E 2.0 grafische kaart moet backwards compatible zijn met PCI-E 1.X
link

Edit:
Klopt dus niet

[ Voor 17% gewijzigd door Blastpe op 27-03-2009 15:28 ]


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 01-08 11:13

Ultraman

Moderator Harde Waren

Boefje

Dan vraag ik mij af, zou je in een PC Express 2.0 slot dan dus geen PCIe Power plug in hoeven te steken?
Niet dat het echt uitmaakt, maar het zou wel een leuk gegeven zijn.

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 17:44
Ultraman schreef op vrijdag 27 maart 2009 @ 14:09:
Dan vraag ik mij af, zou je in een PC Express 2.0 slot dan dus geen PCIe Power plug in hoeven te steken?
Niet dat het echt uitmaakt, maar het zou wel een leuk gegeven zijn.
Volgens mij zijn de circuits die stroom ontrekken van het PCI-E slot en de PCI-E connector van elkaar gescheiden (er kan namelijk een 2e externe voeding gebruikt worden voor de PCI-E powerconnector).Correct me if i'm wrong

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Wat ik me dan af vraag is: Is het 150 watt per slot of voor alle sloten samen ? Lijkt me niet lekker om 3x 150 watt door die twee moederbord connectors te gaan trekken. Ik denk dat je voeding + het moederbord dit niet gaat waarderen. De meeste heb gescheiden 12v lijnen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 17:44
Ik moet mijzelf corrigeren :o
Een PCI-E 2.0 16x slot leverd max 75 watt

A single x16 card may draw up to
PCI-E 1.0: 150 W of power (75 W from the slot itself, 75 W from a 6-pin PEG connector).
PCI-E 1.1: 225 W of power (75 W from the slot itself, 75 W each from 2 6-pin PEG connectors)
PCI-E 2.0: 300 W of power (75 W from the slot itself, 150 W from an 8-pin PEG connector, 75 W from a second PEG connector)

[ Voor 23% gewijzigd door Blastpe op 27-03-2009 15:31 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Misschien wordt de gtx275 wel een hd 4890-killer op stock De hd 4890 heeft gewoon veel meer overclock-potentieel.

Hij scoort met een 13.3% hoger clock dan de hd 4870 zon 15% beter. Ik denk dat de gtx275 zon 20% beter scoort dan de gtx 260. Factory-oc gaan de hd4890's wel op 950mhz minstens. Dat is dus is dus een 26.6% hogere clock dan de hd4870 en waarschijnlijk dus ook 27% beter (als je de memory ook overclockt). De gtx 275 overclockt denk ik naar zon 720 mhz. Dat is 83 mhz hoger. Uiteindelijk wordt een gtx 275 oc dus ongeveer 35%. Dit is dus sneller dan een hd4890, maar er zijn 2 problemen die langs komen. 1. Het ddr3 geheugen gaat tegen zijn limieten aan lopen op de hoge resolutie. 2. Dit is allemaal factory oc. De hd4890 haalt makkelijk 1ghz en zelfs hoger. op 1,05ghz is de hd4890 is de hd4890 40% hoger geclockt dan de hd 4870. Uiteindelijk zijn het dus gewoon goede concurrenten van elkaar.

Nog meer theory-crafting. Ik stel even dat de gtx 285 35% sneller is dan de hd4870. Op 1ghz zou de hd4890 de gtx285 moeten bijbenen. Een gtx 285 ssc loopt op 702 mhz. Dat is 8.33% sneller dan stock. Dus uiteindelijk 46% sneller dan de hd4870. Om dit bij te houden moet de hd 4890 op 1.1 ghz geclockt worden. Dit lijkt me eigenlijk wel mogelijk. Niet makkelijk maar wel mogelijk.

Ik zeg het nog maar even. Dit is theory-crafting en er hoeft dus ook helemaal niks van waar te zijn.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Vergeet niet dat de bus breedte van de GTX260/GTX275 kaart 448 Bit is. Dus dan is het geheugen wel lager geclockt maar de bandbreedte is toch nog erg netjes. Je moet 2x zo snel geheugen hebben om dit dus te overtreffen op een 256 Bit bus. Maar goed met GDDR5 komt dat dus wel in orde :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Terry Makedon, aka Catalyst Maker, heeft wat interessante cijfers op z'n Twitter gepost over Catalyst in 32-bit en 64-bit vorm. De downloads van Catalyst geven de volgende cijfers aan:

XP 32-bit: 98%
XP 64-bit: 2%

Vista 32-bit: 65%
Vista 64-bit: 35%

Win 7 32-bit: 60%
Win 7 64-bit: 40%

Het lijkt er dus op dat 64-bit steeds populairder wordt en het echt gemeengoed gaat worden met Windows 7.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Ja klopt maar op hoge res komt de hd4870x2 dicht in de buurt van de gtx295. Het is dus toch een probleem. Bovendien heeft de gtx 285 niet voor niets een 512 bit bus. Juist vanwege dit soort dingen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
CJ schreef op vrijdag 27 maart 2009 @ 17:31:
Terry Makedon, aka Catalyst Maker, heeft wat interessante cijfers op z'n Twitter gepost over Catalyst in 32-bit en 64-bit vorm. De downloads van Catalyst geven de volgende cijfers aan:

XP 32-bit: 98%
XP 64-bit: 2%

Vista 32-bit: 65%
Vista 64-bit: 35%

Win 7 32-bit: 60%
Win 7 64-bit: 40%

Het lijkt er dus op dat 64-bit steeds populairder wordt en het echt gemeengoed gaat worden met Windows 7.
Er zijn ook steeds meer systemen die 4gb of meer hebben. Dus dan is het wel handig om 64 Bit te hebben zodat je dat ook kan aanspreken. + als software goed geschreven is voor 64 Bit is 64 Bit ook een stuk sneller. In het geval van games is denk ik 98% nog 32 Bit.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

CJ schreef op vrijdag 27 maart 2009 @ 17:31:
Terry Makedon, aka Catalyst Maker, heeft wat interessante cijfers op z'n Twitter gepost over Catalyst in 32-bit en 64-bit vorm. De downloads van Catalyst geven de volgende cijfers aan:

XP 32-bit: 98%
XP 64-bit: 2%

Vista 32-bit: 65%
Vista 64-bit: 35%

Win 7 32-bit: 60%
Win 7 64-bit: 40%

Het lijkt er dus op dat 64-bit steeds populairder wordt en het echt gemeengoed gaat worden met Windows 7.
Vanaf wanneer lopen deze cijfers? Sinds de eerste builds van Win 7 uitzijn of sinds de introductie van de eerste officiële Win 7-driver? Lijkt me nogal wat verschil te maken.

Acties:
  • 0 Henk 'm!
rough calculations from Feb.

[ Voor 84% gewijzigd door CJ op 27-03-2009 17:43 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 02-06 22:42

SECURITEH

Man of legend.

Het ziet er naar uit dat ik deel uitmaak van een speciale groep van wel 2% groot! :D

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Ik vind het verschil tussen Vista en 7 op zijn minst te zeggen klein. Dan zou je ook kunnen stellen dat 64-bit gemeengoed was onder Vista gebruikers.

Overigens vind ik 35% echt hartstikke hoog! Retailers verkopen bijna alleen 32-bit :/ en echt maar heel weinig mensen bouwen zelf een bak procentueel gezien hier. Vraag me echt af of die cijfers kloppen.

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 31-07 18:51
Cassius schreef op vrijdag 27 maart 2009 @ 17:43:
Ik vind het verschil tussen Vista en 7 op zijn minst te zeggen klein. Dan zou je ook kunnen stellen dat 64-bit gemeengoed was onder Vista gebruikers.

Overigens vind ik 35% echt hartstikke hoog! Retailers verkopen bijna alleen 32-bit :/ en echt maar heel weinig mensen bouwen zelf een bak procentueel gezien hier. Vraag me echt af of die cijfers kloppen.
Houd er ook rekening mee dat win 7 alleen nog beta is he ;)
Misschien dat bij de release er nog meer over stappen naar 64bits.
Overigens zit ik al sinds XP op 64bit dus ben verbaast mij niet zo veel.

Computer says no


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
CJ schreef op vrijdag 27 maart 2009 @ 17:31:
Terry Makedon, aka Catalyst Maker, heeft wat interessante cijfers op z'n Twitter gepost over Catalyst in 32-bit en 64-bit vorm. De downloads van Catalyst geven de volgende cijfers aan:

XP 32-bit: 98%
XP 64-bit: 2%

Vista 32-bit: 65%
Vista 64-bit: 35%

Win 7 32-bit: 60%
Win 7 64-bit: 40%

Het lijkt er dus op dat 64-bit steeds populairder wordt en het echt gemeengoed gaat worden met Windows 7.
En wat zijn de percentages tussen de onderlinge Windows versies? Zo zegt het nog vrij weinig. Als 75% nog XP gebruikt, dan stelt het 64-bit gebeuren niet veel voor. ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Cassius schreef op vrijdag 27 maart 2009 @ 17:43:
Ik vind het verschil tussen Vista en 7 op zijn minst te zeggen klein. Dan zou je ook kunnen stellen dat 64-bit gemeengoed was onder Vista gebruikers.

Overigens vind ik 35% echt hartstikke hoog! Retailers verkopen bijna alleen 32-bit :/ en echt maar heel weinig mensen bouwen zelf een bak procentueel gezien hier. Vraag me echt af of die cijfers kloppen.
Driver downloads. Dat doen ook alleen mensen die er wat van af weten. Gewone mensen die een pc in de winkel kopen. Updaten hun driver nooit. Alleen als hij wordt aangeboden via Windows update.

Dus ik denk dat de groep mensen met 64 Bit windows daarom zo groot lijkt. Ik denk dat 64 Bit voor desktop gebruik maar 5-10% van het totaal is (niet naar servers gekeken want die zijn juist 64 bit)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
CJ schreef op vrijdag 27 maart 2009 @ 17:31:
Terry Makedon, aka Catalyst Maker, heeft wat interessante cijfers op z'n Twitter gepost over Catalyst in 32-bit en 64-bit vorm. De downloads van Catalyst geven de volgende cijfers aan:

XP 32-bit: 98%
XP 64-bit: 2%

Vista 32-bit: 65%
Vista 64-bit: 35%

Win 7 32-bit: 60%
Win 7 64-bit: 40%

Het lijkt er dus op dat 64-bit steeds populairder wordt en het echt gemeengoed gaat worden met Windows 7.
Dat wisten we al een tijdje ;)
nieuws: Microsoft: keerpunt 64bit-adoptie bereikt
Cassius schreef op vrijdag 27 maart 2009 @ 17:43:
Ik vind het verschil tussen Vista en 7 op zijn minst te zeggen klein. Dan zou je ook kunnen stellen dat 64-bit gemeengoed was onder Vista gebruikers.

Overigens vind ik 35% echt hartstikke hoog! Retailers verkopen bijna alleen 32-bit :/ en echt maar heel weinig mensen bouwen zelf een bak procentueel gezien hier. Vraag me echt af of die cijfers kloppen.
Hm nee, op al onze bakken met 4GB geheugen gaat sowieso Windows Vista 64-bit. En ik zie andere winkels dat ook doen. Alleen onze basis systemen met 2GB geheugen hebben nog een 32-bit OS. Al de rest is gewoon 64-bit. Ik weet natuurlijk niet wat grote OEMs doen?

[ Voor 35% gewijzigd door XWB op 27-03-2009 17:59 ]

March of the Eagles


Acties:
  • 0 Henk 'm!
nVidia overweegt PhysX te porten naar OpenCL waardoor Radeons ineens ook GPU PhysX kan draaien zonder CUDA nodig te hebben. Interessante quote van nVidia (waaruit de erg arrogante houding van het bedrijf wel weer eens blijkt):
Commenting on this possibility, Mohammad said that “if we start using OpenCL, then there’s a chance that the features would work on ATI, but I have no idea what the performance would be like. Previously, looking at things like Folding@home, ATI GPU computing performance seems to be behind Nvidia. That probably reflects the fact that their GPU computing solution is probably a couple of generations behind ours.”
http://www.bit-tech.net/n...porting-physx-to-opencl/1

Edit: Nieuw topic komt er hopelijk in de loop van morgen aan.

[ Voor 4% gewijzigd door CJ op 28-03-2009 04:13 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Lol wat een opmerking.

Maar hoe is dit in werkelijkheid ? we weten allemaal dat de GTX285 op dit moment een stuk sneller is in dat soort berekeningen.

Heeft het misschien te maken met het feit dat ze niet alle 800 shaders aan het werk kunnen houden ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

CJ heeft een keer opgemerkt dat de die-size van de nVidia kaarten groter is, onder andere vanwege extra GPGPU-componenten. Als deze componenten crusiaal zijn voor Physx, dan gaan de Radeons daar niet lekker mee werken natuurlijk.
Waarbij een mogelijke conclusie is dat Physx stom is ;)

Zou wel een grap zijn als blijkt dat Radeons in Physx sneller zijn, helemaal na deze uitspraak.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Als je de kaart met OpenCL gaan aanspreken kan het best een ander verhaal zijn. Het kan wel zo zijn dat nVidia de hardware aangepast heeft voor GPGPU in het algemeen.

Volgens mij was dat ook een van de verbeterde punten in het ontwerp van de GT200. Extra performance voor GPGPU taken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

CJ schreef op zaterdag 28 maart 2009 @ 04:12:
nVidia overweegt PhysX te porten naar OpenCL waardoor Radeons ineens ook GPU PhysX kan draaien zonder CUDA nodig te hebben. Interessante quote van nVidia (waaruit de erg arrogante houding van het bedrijf wel weer eens blijkt):


[...]


http://www.bit-tech.net/n...porting-physx-to-opencl/1

Edit: Nieuw topic komt er hopelijk in de loop van morgen aan.
Even een voetnootje hierbij: de puntentelling voor nVidia-kaarten is in F@H allang een flink stuk bijgetrokken. De ATi-kaarten hebben er iets bijgekregen en ook is er net een nieuwe core (1.24 van Core11) die de CPU-belasting flink omlaag brengt.. nVidia heeft dus nog wel de bovenhand, maar zo extreem als voorheen is het niet helemaal meer.

Acties:
  • 0 Henk 'm!

Verwijderd

De wii kan nu ook physx gaan draaien met een ati kaart.
Artikel is een week oud en past misschien beter in het nV nieuwstopic maar vanwege de discussie:
http://www.tomshardware.com/news/Wii-Nvidia-PhysX,7325.html

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 31-07 16:22
Verwijderd schreef op zaterdag 28 maart 2009 @ 10:37:
De wii kan nu ook physx gaan draaien met een ati kaart.
Artikel is een week oud en past misschien beter in het nV nieuwstopic maar vanwege de discussie:
http://www.tomshardware.com/news/Wii-Nvidia-PhysX,7325.html
Dat draait om normale PhysX, heeft niets te maken met het draaien op een grafische kaart. Ik heb nu ook al PhysX-games draaien hier met een 4870, maar dan op mn CPU en niet mn GPU. En dat laatste is nu net waar het om te doen is :)

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 01-08 11:13

Ultraman

Moderator Harde Waren

Boefje

Jejking schreef op zaterdag 28 maart 2009 @ 10:27:
[...]

Even een voetnootje hierbij: de puntentelling voor nVidia-kaarten is in F@H allang een flink stuk bijgetrokken. De ATi-kaarten hebben er iets bijgekregen en ook is er net een nieuwe core (1.24 van Core11) die de CPU-belasting flink omlaag brengt.. nVidia heeft dus nog wel de bovenhand, maar zo extreem als voorheen is het niet helemaal meer.
offtopic:
Nieuwe core? Oe dat betekend dat ik weer kan gaan proberen of dat mijn beestje nu wel wilt vouwen...

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 02-08 13:04
Ultraman schreef op zaterdag 28 maart 2009 @ 10:45:
[...]

offtopic:
Nieuwe core? Oe dat betekend dat ik weer kan gaan proberen of dat mijn beestje nu wel wilt vouwen...
Mijn scores zijn ongeveer 20% hoger met Cat 9.3. Stond ook in de release notes dat er een verbetering inzat... maar we gaan OT :o

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

winwiz schreef op zaterdag 28 maart 2009 @ 10:48:
[...]


Mijn scores zijn ongeveer 20% hoger met Cat 9.3. Stond ook in de release notes dat er een verbetering inzat... maar we gaan OT :o
Driverontwikkeling is ook nieuws :)

[ Voor 7% gewijzigd door edward2 op 28-03-2009 11:54 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!
Pics inclusief wat benchmarks en een CF opstelling: http://www.cyberpowersyst...m_posts.asp?TID=3786&PN=1

Erg jammer dat de retailers zo oneerbiedig met productlaunches omgaan, getuige quotes als dit:
Still, we'll beat the review sites! ;)
En dat alleen maar om meer hits te krijgen in de hoop zo meer te verkopen. :/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op zaterdag 28 maart 2009 @ 12:35:
Pics inclusief wat benchmarks en een CF opstelling: http://www.cyberpowersyst...m_posts.asp?TID=3786&PN=1

Erg jammer dat de retailers zo oneerbiedig met productlaunches omgaan, getuige quotes als dit:


[...]


En dat alleen maar om meer hits te krijgen in de hoop zo meer te verkopen. :/
Als we het toch over nieuws hebben.. Ik heb nieuws voor jou:

Zo zijn mensen, dat zit in de genen. Ikke ikke ikke en de rest kan stikken. Zo is het altijd al geweest, niets om je over te verbazen.

Ontopic: Ati is zoals gewoonlijk weer via hogere kloksnelheden een GPU structuur aan het uitmelken. De 4850 lijkt nog steeds de beste prijs/kwaliteit kaart, aangezien de rest duurder is, meer verbruikt en niet bijster veel meer presteert..

Ben erg benieuwd wat de 5xxx serie gaat doen in de toekomst!

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 02-08 13:02

Edmin

Crew Council

get on my horse!

Verwijderd schreef op zaterdag 28 maart 2009 @ 15:02:
[...]
Ontopic: Ati is zoals gewoonlijk weer via hogere kloksnelheden een GPU structuur aan het uitmelken.
Zoals gewoon is in deze industrie, bedoel je? Er is ook nieuws voor jou! Ik zie het groene kamp exact hetzelfde doen, namelijk. Wat meer is, hetgebeurt ook in de CPU bizz. Niets om dik om te doen dus.

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Verwijderd schreef op zaterdag 28 maart 2009 @ 15:02:
[...]
Ontopic: Ati is zoals gewoonlijk weer via hogere kloksnelheden een GPU structuur aan het uitmelken. De 4850 lijkt nog steeds de beste prijs/kwaliteit kaart, aangezien de rest duurder is, meer verbruikt en niet bijster veel meer presteert..
Ten eerste: over GPU structuur uitmelken gesproken.....ik geloof dat nVidia daar nog iets beter in is. :z
Ten tweede: het is al vaker hier besproken dat de releasedrivers naar verwachting nog een performanceboost zullen geven. Je kunt derhalve niet te veel waarde hechten aan de tot nog toe getoonde HD4890 performance.

Wacht nu maar gewoon de echte revieuws af volgende week, waar wél de juiste (release)drivers zijn gebruikt.

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!
't Nieuwe topic komt er zo aan. De first post is nog kaal aangezien ik de vernieuwde FP die zich op RV740 en RV790 richt nog niet af heb en ik zo dus weg moet. 't Ging hier weer een beetje vlot vol de laatste tijd. :+

Edit: nieuw deel staat hier: [Algemeen] ATi Nieuwsdiscussie Topic - Deel 99

[ Voor 19% gewijzigd door CJ op 28-03-2009 16:38 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 01:47

dion_b

Moderator Harde Waren

say Baah

Oslik blyat! Oslik!

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!