[Algemeen] ATi Nieuwsdiscussie Topic - Deel 97 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 42.260 views

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 10-07 09:49
Als toevoeging op de post van Peakaboo:

Afbeeldingslocatie: http://img228.imageshack.us/img228/6290/4870x2ul7.gif


To good to be true? Zou wel zware overclocks opleveren. Alleen is het de vraag of de mosfets worden meegekoeld, zo op het eerste gezicht lijkt het er niet op.

Dan nog een review op legionhardware van de Asus HD4870X2 TOP met catalyst 9.1 getest:
http://www.legionhardware.com/document.php?id=809

offtopic:
waarom laat ie mijn afbeelding niet zien..
Ben weer debiel bezig geloof ik... Any help?

edit2:
fixed.. sort off

edit3:
Fixed!! :D

[ Voor 81% gewijzigd door Gurneyhck op 18-02-2009 13:14 ]


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Die temps op full load haal ik ook wel als ik mn fan op 100% laat draaien constant :+

Nee maar even zonder gekkigheid, er blijft natuurlijk wel 1 nadeel aan zulke koelers. De videokaart heeft er direct voordeel bij qua temps, en misschien in dit geval ook geluidsproductie. Maar die warme lucht van die videokaart waar blijft die... Zal altijd eerst een stuk door je kast moeten voordat het eruit gezogen wordt (mits je airflow goed is). Dat is en blijft gewoon altijd een nadeel als die lucht niet direct aan de achterkant van je case naar buiten wordt gestuwd...

Over die review van legionhardware:

Interessante resultaten :) Afwisselend... Maar bij die temps dat is altijd een discussieverhaal. Mijn kaart is idle (fanspeed op auto, 27% idle speed) 64 en 50 graden (core 0 en 1), die wat zij testen 70 graden. In welke case testen zij hun stuff, of gewoon los op de tafel? Die factoren spelen allemaal mee. Daarom vind het meteen een groot woord van hun om te roepen tja 400 dollar is VEEL geld voor een kaart die 70 graden idle is.

1. De serie is er op gemaakt om op deze temps te opereren, in ruil voor stilte.
2. Factoren als airflow spelen ook een grote rol.

[ Voor 110% gewijzigd door peakaboo op 18-02-2009 13:46 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Interessante HD4800 Series CrossFire test: http://www.gameplanet.co....-4800-Crossfire-round-up/

Het interessante er aan is dat ze de 3 HD4800 kaarten hebben gepakt en deze ook hebben verdubbeld voor CFX... en zelfs een HD4830 aan een HD4850 gekoppeld hebben om te zien wat er zou gebeuren wat betreft performance.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 286793

Erg jammer dat de RV790 waarschijnlijk toch op 55 nm wordt geproduceerd. Ik had er zo op gehoopt dat dit een energiezuinige kaart zou worden. Nu wordt het een bloedheet monster. Ze hebben nvidia dus nog niet verslagen. Ik heb nog goede hoop dat men een andere manier vindt om de stroomkosten binnen de pieken te houden.

Ze gingen net de goede kant op. De gtx 260 216 versloeg de hd 4870 qua prestatie en stroomkosten. De hd 4870 werd ook nog eens bloedheet. Nu is de hd 4870 geen slechte koop omdat hij erg goedkoop is. De hd 4870 x2 was nog steeds de beste kaart totdat de gtx 295 verscheen. Hier weer hetzelfde verhaal. De gtx 295 versloeg de hd 4870 x2 met gemak. De hd 4870 is goedkoper maar voor die prijs wil je toch wel een degelijke kaart die niet veel herrie maakt en die ook niet al te veel stroom kost.

Nu leek het als of ati eindelijk weer een koele, efficiënte kaart ging leveren die ook nog eens lekker goedkoop ging worden. Het was allemaal mogelijk maar toch besloten ze om het niet te doen. Ik denk zelf vanwege de RV870.

Ati moet dus echt met een goede mechaniek komen om het ding niet te veel stroom te laten verbruiken want dat van de hd 4870 en dan vooral de 4870x2 was gewoon niet meer normaal. Vooral in idle was het ding niet efficiënt.

Ik ben zeker geen ait-hater, eerder een fan. Maar ik had me zo verheugd op de hd 4890. Nu zijn het allemaal maar geruchten. We moeten eerst zelf maar eens zien hoe de hd 4890 presteert en hoeveel hij verbruikt.

Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Anoniem: 286793 schreef op woensdag 18 februari 2009 @ 15:44:
Erg jammer dat de RV790 waarschijnlijk toch op 55 nm wordt geproduceerd. Ik had er zo op gehoopt dat dit een energiezuinige kaart zou worden. Nu wordt het een bloedheet monster. Ze hebben nvidia dus nog niet verslagen. Ik heb nog goede hoop dat men een andere manier vindt om de stroomkosten binnen de pieken te houden.

Ze gingen net de goede kant op. De gtx 260 216 versloeg de hd 4870 qua prestatie en stroomkosten. De hd 4870 werd ook nog eens bloedheet. Nu is de hd 4870 geen slechte koop omdat hij erg goedkoop is. De hd 4870 x2 was nog steeds de beste kaart totdat de gtx 295 verscheen. Hier weer hetzelfde verhaal. De gtx 295 versloeg de hd 4870 x2 met gemak. De hd 4870 is goedkoper maar voor die prijs wil je toch wel een degelijke kaart die niet veel herrie maakt en die ook niet al te veel stroom kost.

Nu leek het als of ati eindelijk weer een koele, efficiënte kaart ging leveren die ook nog eens lekker goedkoop ging worden. Het was allemaal mogelijk maar toch besloten ze om het niet te doen. Ik denk zelf vanwege de RV870.

Ati moet dus echt met een goede mechaniek komen om het ding niet te veel stroom te laten verbruiken want dat van de hd 4870 en dan vooral de 4870x2 was gewoon niet meer normaal. Vooral in idle was het ding niet efficiënt.

Ik ben zeker geen ait-hater, eerder een fan. Maar ik had me zo verheugd op de hd 4890. Nu zijn het allemaal maar geruchten. We moeten eerst zelf maar eens zien hoe de hd 4890 presteert en hoeveel hij verbruikt.
Maar nu roep je zelf ook al iets wat misschien helemaal niet zo is. Bloedheet? Wie zegt dat...

Ik begrijp je punt wat betreft de warmte van de GPU vergeleken met andere kaarten op de markt, maar dit is zo ontworpen en ze kunnen er tegen. Sommige mensen moeten misschien eens iets aan hun airflow doen als ik sommige cases zie (let op cablemanagement :X bijv.) Ik bedoel mijn X2 is gewoon stock en ik kom nergens aan, geen apart fanprofiel erin en ik hoor dat kaartje amper. Misschien dat ie 1x opspint als ik uuuuurenlang heb gegamed voor de rest hoor ik dat ding bijna niet.

Wat betreft stroomverbruik ben ik het helemaal met je eens, ze moeten die kaarten idle gewoon flink terugschroeven, waarom zoveel watt verstoken voor 2D? Is echt niet nodig... Het kan, maar nu moet het nog gedaan worden.

Ho ho met gemak zeg jij? Pak voor de gein die review van Gurneyhck er eens bij, dan zie je wel wat anders. Dat verschil dat valt reuze mee en lang niet in alle games is ie sneller. Ik vind het nogal tegenvallen die 295, aangezien ie een paar maanden na de 4870x2 uit is gekomen en slechts marginaal sneller is.

Je kunt je ook afvragen, 80 fps gemiddeld of 120, wie ziet het verschil? Tuurlijk hardcore benchers zien dat :P Maar voor (mij) gamers maakt dat geen drol uit, als het eenmaal soepel draait kan het eigenlijk niet veel beter. Beter bespaar je wat geld en spendeer je dat aan iets anders, als je toch al over die max. drempel zit.

Nja just my thoughts...

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De HD4870 was 'bloedheet by design'. Dat wil zeggen dat AMD de kaart de wereld in bracht op referencebord met referencecooler om stil en koel genoeg te zijn. Dit is tot in den treure herhaaldelijk behandeld omdat er keer op keer weer mensen waren die dachten dat deze kaarten op ontploffen stonden. De meeste fabrikanten hebben ondertussen al hun eigen versies op de markt gebracht met koelers die de temperatuur ver naar beneden halen en het geluid allessinds beperkt houden. Dit zal waarschijnlijk niet veel anders zijn met de RV790.

Waar het op prestaties aankomt, heeft peakaboo ook gelijk. In dit geval laat je je leiden door de nVidia marketing machine die hun 'Big Bang II drivers' overal liepen te pushen voor tamelijk beperkte reviews (met games die sowieso nVidia in het voordeel zouden laten zijn). Later is met iets uitgebreidere reviews en nieuwere Catalyst drivers ondertussen al gebleken dat de GTX260-216 over het algemeen niets sneller is dan de HD4870. Uiteindelijk zal het een beetje uitmaken van welke games je bekijkt welke kaart er beter scoort, maar de een is niet direct superieur aan de ander. Ditzelfde geldt ook voor de GTX295 (die een half jaar na de HD4870X2 eindelijk eens op de markt komt). De eerste reviews waren over het algemeen niet bepaalt objectief in elkaar gezet wanneer je gaat kijken naar drivers en game-lineup. Ondertussen is ook daar wel duidelijk geworden dat het heel erg afhangt van je game, je resolutie, de grafische kwaliteit die je wil en de dingen als AA en AF welke kaart feitenlijk beter presteert. Want uiteindelijk verslaat de HD4870X2 de GTX295 net zo goed in veel settings als andersom, waardoor er weer geen definitiefe winnaar aan te wijzen valt op prestaties. Op prijs wint de HD4870X2 het dan simpelweg in alle gevallen.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Bloedheet wordt-ie sowieso niet... da's een beetje overdreven. Het ligt compleet aan de fan die gebruikt wordt en de desbetreffende fanspeeds hoe heet dat ding wordt. Mijn HD4870 wordt niet warmer dan 45C idle en 55C load op 38% fanspeed. Daarnaast zijn er genoeg customfans die het nog cooler weten te houden met minder geluid. Het ligt dus echt niet alleen aan de GPU, die is in principe vrij zuinig, zie ook de HD4830.. zelfde GPU maar verbruikt een stuk minder. AMD gaat in de toekomst echter standaard gebruik maken van een vapor chamber cooling solution voor de high end mede dankzij een deal die ze hebben gesloten met een ontwikkelaar die ze speciaal met AMD ontwikkeld voor de volgende generatie GPUs.

En waar verslaat de GTX295 de HD4870X2 'met gemak'? De meeste reviews die ik gezien heb lieten bij launch gemiddeld een verschil zien 20-25%, maar met de nieuwste drivers is dit verschil naar 10% terug gelopen... en op de hoogste resoluties met 8xAA en 16xAF wint de X2 het zelfs met 9%.... En waar koop je zo'n high end kaart nou voor? Juist om 'm op hoge resoluties met veel eye candy te kunnen spelen. Tel daarbij op dat de GTX295 een half jaar later uit kwam dan de HD4870X2... daar mag je toch zeker wel van verwachten dat-ie dan ook de X2 'met gemak' zou kunnen verslaan. Dat doet-ie dus helaas niet.

Ik snap Ritsaarts 'verontwaardiging' dan ook niet echt helemaal.

Dat AMD niet stil staat op het gebied van warmte ontwikkeling (zie de samenwerking) en stroomverbruik, is al te merken bij de RV740.... Het valt me op dat niemand hierover begint:
The RV740 cards will be the first series from AMD to feature Triple-Phase power solution for more efficient power design.



Dan iets anders. Stop een echte PhysX PPU naast je HD4870 en hij doet niet veel onder voor een GTX285 in Mirror's Edge:

http://www.computerbase.d...s_physx_ati_mirrors_edge/

[ Voor 6% gewijzigd door CJ op 18-02-2009 16:31 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Q_7
  • Registratie: December 2006
  • Niet online

Q_7

Nou.. mijn HD4870 wordt wel erg warm met de stock-koeler (echt rotzooi!) maar bij mijn GTX280 kon je echt spreken van bloedheet, tegen de 100c en het nadeel is dat de hele kaart zo warm wordt door de koeler. (zit om de hele kaart heen) dit is ook zo bij de GTX260.

Dan vind ik persoonlijk de ATi toch wel de geslaagde, ook al klokt de nVidia veel beter over.

Buiten dat, heeft nVidia een behoorlijke core nodig (die moet je eens zien :D) om nagenoeg dezelfde prestaties neer te zetten als de ATi met een vrij normale core grootte.

Zelf vind ik beidden producten niks, omdat ik het gevoel erbij krijg dat ze gewoon niet af zijn, en hoop dat de opvolgers beter worden.

AMD 9950X3D - X670E-Hero - G.Skill Royal Neo 48GB 6400 CL26 1:1 - RTX 5090 TUF 32GB - 9100Pro 2TB - BeQuit 1500w - Corsair 6500D - LG 3440P 240Hz WOLED


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13-07 13:51

Format-C

Tracing Rays

Q_7 schreef op woensdag 18 februari 2009 @ 16:37:
maar bij mijn GTX280 kon je echt spreken van bloedheet, tegen de 100c en het nadeel is dat de hele kaart zo warm wordt door de koeler. (zit om de hele kaart heen) dit is ook zo bij de GTX260.
Vreemd... Ik heb al 4 GTX280's gehad, en 2 GTX260's, maar die bleven toch wel wat koeler dan de HD4870's die ik gehad heb. Mijn SUPER OC GTX280's worden zo'n 82 graden, de normale GTX280's zo'n 77, en de GTX260's die werden midden 70 (zwaar overklokt)

De HD4870's die ik had waren load +90. De HD4870X2 bleef iets koeler. 85 tot 88C. De HD4870's waren destijds idle zelfs 88 tot 90C.

[ Voor 3% gewijzigd door Format-C op 18-02-2009 16:50 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Ik zei al, airflow is ook iets heel belangrijks daarbij... Iemand met een antec 900 zal betere idle en load temps hebben dan iemand met een case die 1 intake en 1 outtake heeft... Verschilt enorm.

Acties:
  • 0 Henk 'm!

  • Kiwitje
  • Registratie: Mei 2005
  • Laatst online: 23-02 20:47
Modbreak:Topicwaarschuwing lezen is niet moeilijk. Zo lang is hij niet, gewoon doen dus!

[ Voor 86% gewijzigd door Ultraman op 18-02-2009 20:52 ]

Specs


Acties:
  • 0 Henk 'm!

Anoniem: 286793

Met gemak is idd een beetje overdreven. Maar we moeten ook niet vergeten dat de gtx 295 minder stroom verbruikt. Hoewel het niet heel veel minder is, is het toch een leuke toevoeging.

De hd4870 is misschien wel ongeveer gelijk aan de gtx 260 216 maar verbruikt wel veel meer stroom. Ik vind het vooral in idle abnormaal.

Dat de kaarten gemaakt zijn om bij die temperatuur te werken is gedeeltelijk waar. Maar als je er bijv. 2 in cf wilt draaien en er daardoor weinig ruimte overblijft tussen de kaarten komen ze wel heel erg dicht bij de grens en kunnen ze zelfs uitvallen. Dit is natuurlijk ook de schuld van de airflow in je kast.

Ik vind het vooral jammer dat de rv790 niet op 40 nm geproduceerd gaat worden omdat dat juist DE voorsprong op nvidia had kunnen geven. Dat had meteen veel problemen met het stroomverbruik kunnen verhelpen. Zoals het er nu naar uit ziet wordt de hd4890 nog onzuiniger dan de hd4870. Als de stroomkosten in idle nog hoger oplopen vind ik dat echt absurd. Neem een voorbeeld aan nvidia (op dit gebied). Hun high-end kaarten (vooral de gtx 285) presteren goed en zijn in idle lekker zuinig. Ze kosten veel geld, dat is dan weer een nadeel.

Dat ati veel nadenkt over energiekosten is op dit moment niks van te zien. De rv 740 is niet voor de high-end markt geschikt. En dat is juist waar de energie-besparende technieken moeten worden ingevoerd. Bovendien is de kaart op 40 nm gebakken. Dus hij is van nature al zuinig. Triple-phase power is een leuke extra maar voer die dan ook in voor de hd4890! Misschien gaat dit alsnog gebeuren maar op het moment van schrijven is daar nog niks over bekend.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13-07 13:51

Format-C

Tracing Rays

peakaboo schreef op woensdag 18 februari 2009 @ 17:03:
Ik zei al, airflow is ook iets heel belangrijks daarbij... Iemand met een antec 900 zal betere idle en load temps hebben dan iemand met een case die 1 intake en 1 outtake heeft... Verschilt enorm.
Zelfs met de kast open werden die/mijn HD4870's 90+.

Hoe het kan weet ik niet, maar de koeler van de HD4870X2 werkt beter.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 11-07 16:07
Anoniem: 286793 schreef op woensdag 18 februari 2009 @ 17:14:
Dat ati veel nadenkt over energiekosten is op dit moment niks van te zien. De rv 740 is niet voor de high-end markt geschikt. En dat is juist waar de energie-besparende technieken moeten worden ingevoerd.
Maar de high-end markt beslaat slechts een klein percentage van de gehele markt, de RV740 zal een veel grotere afzetmarkt hebben.
Dus als we dan toch milieubewust gaan doen, kun je ook zo beredeneren:
Wanneer je een product als de RV740 een beetje zuiniger maakt, heeft dit veel meer zin dan een product als de RV790 een stuk zuiniger te maken, omdat er totaal gezien veel meer van verkocht zullen worden.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ritsaart, je neemt nu vanuit niets anders dan je eigen verwachting aan dat de RV790 dus maar veel meer energie gaat gebruiken dan de RV770. Dit ondanks dat er eigenlijk niets concreets bekend is over deze chip. De enige echt zinnige aannames die je kunt maken is dat hij nog op 55nm wordt gemaakt. Waarschijnlijk zal hij ook op hogere frequenties lopen en meer shaderunits hebben.

Wat je echter geheel en compleet buiten beschouwing laat in deze, is dat AMD wellicht ontzettend veel optimalisaties hebben doorgevoerd, waardoor de chip wellicht minder stroom gebruikt en dus minder heet wordt, dat ze powerplay wellicht goed onder handen hebben genomen, waardoor ook idle verbruik misschien wel veel lager kan uitpakken en ga zo maar door.

Je looft (terecht) nVidia dat hun GTX285 zo zuinig is idle, maar vergeet even dat ook de GTX285 op 55nm gemaakt wordt. Dit betekent dus dat technisch gesproken, de veel kleinere chip van AMD op hetzelfde proces, net zo goed zo zuinig zou kunnen zijn met de juiste powerplay optimalisaties.

Een 3-phase power-circuit zal er waarschijnlijk wel niet inzitten voor de RV790, aangezien je toch mag aannemen dat op full load deze kaart wel meer dan 100W gaat trekken, iets wat heel erg normaal is voor high end kaarten. Dan wil je geen risico's nemen met je PWM. Dat zegt echter nog steeds niets over idle verbruik.

Acties:
  • 0 Henk 'm!

  • Aries.Mu
  • Registratie: Maart 2004
  • Laatst online: 22:13
CJ schreef op woensdag 18 februari 2009 @ 15:22:
Interessante HD4800 Series CrossFire test: http://www.gameplanet.co....-4800-Crossfire-round-up/

Het interessante er aan is dat ze de 3 HD4800 kaarten hebben gepakt en deze ook hebben verdubbeld voor CFX... en zelfs een HD4830 aan een HD4850 gekoppeld hebben om te zien wat er zou gebeuren wat betreft performance.
Goed artikel...

Ze hadden wel een 4870X2 en 4850X2 mogen meenemen in de test.
Hier en daar zitten soms wat verschillen tussen de "echte" CF setups en X2's...
;)

iPhone 12 | Switch Lite | Sony 55A89 | Passat Variant GTE | Tesla MY RWD


Acties:
  • 0 Henk 'm!

  • DaMightyWackO
  • Registratie: September 2002
  • Laatst online: 13-07 13:23

DaMightyWackO

-=Think Twice=-

Modbreak:Ook dit heeft niets met ATi Nieuws te maken. Je zit hier niet in een vraag&oplossing topic, zie de waarschuwing

[ Voor 84% gewijzigd door Ultraman op 18-02-2009 20:54 ]

the funniest thing about this particular signature is that by the time you realise it doesn't say anything it's too late to stop reading it


Acties:
  • 0 Henk 'm!

Anoniem: 286793

dahakon schreef op woensdag 18 februari 2009 @ 18:33:
Ritsaart, je neemt nu vanuit niets anders dan je eigen verwachting aan dat de RV790 dus maar veel meer energie gaat gebruiken dan de RV770. Dit ondanks dat er eigenlijk niets concreets bekend is over deze chip. De enige echt zinnige aannames die je kunt maken is dat hij nog op 55nm wordt gemaakt. Waarschijnlijk zal hij ook op hogere frequenties lopen en meer shaderunits hebben.

Wat je echter geheel en compleet buiten beschouwing laat in deze, is dat AMD wellicht ontzettend veel optimalisaties hebben doorgevoerd, waardoor de chip wellicht minder stroom gebruikt en dus minder heet wordt, dat ze powerplay wellicht goed onder handen hebben genomen, waardoor ook idle verbruik misschien wel veel lager kan uitpakken en ga zo maar door.

Je looft (terecht) nVidia dat hun GTX285 zo zuinig is idle, maar vergeet even dat ook de GTX285 op 55nm gemaakt wordt. Dit betekent dus dat technisch gesproken, de veel kleinere chip van AMD op hetzelfde proces, net zo goed zo zuinig zou kunnen zijn met de juiste powerplay optimalisaties.

Een 3-phase power-circuit zal er waarschijnlijk wel niet inzitten voor de RV790, aangezien je toch mag aannemen dat op full load deze kaart wel meer dan 100W gaat trekken, iets wat heel erg normaal is voor high end kaarten. Dan wil je geen risico's nemen met je PWM. Dat zegt echter nog steeds niets over idle verbruik.
Klopt. Daarvoor mijn excuses want het was niet echt objectief. Bovendien gaat het ook maar geruchten. Maar ik ben gewoon teleurgesteld dat de rv790 niet op 40nm wordt gebakken. Dan zou het namelijk al zeker zijn dat het een zuinige kaart zou worden.

Verder hier nog een artikel over hoe groot de impact van de kredietcrisis is op de pc-industrie. Intel verliest het minst maar met een daling van maarliefst 20,9% is het ook zeker niet weinig. AMD verliest maarliefst 23,8% in een jaar. Intel behoudt het grootste marktaandeel. AMD moet het doen met 18,3%

http://www.tomshardware.c...hics-nvidia-amd,6929.html

Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
RappieRappie schreef op woensdag 18 februari 2009 @ 17:18:
[...]

Zelfs met de kast open werden die/mijn HD4870's 90+.

Hoe het kan weet ik niet, maar de koeler van de HD4870X2 werkt beter.
Brak fanprofiel in die kaart van jou denk ik. Had zelf 2 weken voordat ik mijn X2 kocht ook ff een 4870, en die werd onder load echt niet warmer dan 85 graden. zelfde kast en fans wat ik nu nogsteeds heb.

Maargoed, er valt vanalles aan te doen. Je kunt ook gewoon een hotkey assignen dat je je fan iets harder laat draaien. Maar dat heb ik allemaal niet nodig, het werkt perfect uit zichzelf.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13-07 13:51

Format-C

Tracing Rays

peakaboo schreef op woensdag 18 februari 2009 @ 20:00:
[...]


Brak fanprofiel in die kaart van jou denk ik.
Kan idd zijn wat jij zegt.

De HD4870's die ik had waren van de allereerste batch. Misschien is daar later aan gesleuteld. Ik had 2 Sapphires van 512MB.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-07 08:52
CJ schreef op woensdag 18 februari 2009 @ 16:29:
Dan iets anders. Stop een echte PhysX PPU naast je HD4870 en hij doet niet veel onder voor een GTX285 in Mirror's Edge:

http://www.computerbase.d...s_physx_ati_mirrors_edge/
Je zegt dus eigenlijk dat AMD een serieus probleem heeft bij PhysX games.
Zonder PhysX PPU zijn speelbare frame rates ver te zoeken en de PPU wordt niet meer geproduceerd.
:)
Anyway iemand hier naar de Cebit of allemaal krediet crisis?

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Je kan physX ook uit zetten...... Ik vond het bij mirrors edge met physX aan op de CPU nu niet echt zo spectaculair mooier dat ik de moeite zou doen om een physX kaart te kopen dat en tis geen spel voor mij(hou niet van runny jumpy games). Imho zag het er uit dat het met een goeie software implementatie het makkelijk op de CPU had gekund.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op woensdag 18 februari 2009 @ 22:08:
[...]

Je zegt dus eigenlijk dat AMD een serieus probleem heeft bij PhysX games.
Zonder PhysX PPU zijn speelbare frame rates ver te zoeken en de PPU wordt niet meer geproduceerd.
:)
Leuk is dat als mensen woorden in andermans mond proberen te stoppen... ;) Helaas slaag je daar niet echt in.

Een serieus probleem? Waar? De meeste reviews die ik gelezen heb over PhysX in - het overigens met erg tegenvallende verkopen geplaagde PC versie van - Mirror's Edge, zeggen dat je niet echt iets mist. In het begin is het grappig, maar het voegt niets extra's toe aan de gameplay.

Wat ze met de test laten zien is dat mensen die een PPU hebben 'm nog niet op de schroothoop hoeven te gooien. Zelfs als je 'm naast een GeForce kaart prikt kan je de FPS nog wat omhoog pompen. Het laat dus absoluut niet zien dat AMD een serieus probleem heeft met PhysX games.... het gaat nog maar om 1 game en de impact die PhysX heeft op de gameplay is verwaarloosbaar. Als je hardware GPU PhysX uitschakelt, dan blijft de gameplay hetzelfde en presteert een HD4870 netjes tussen een GTX260 en GTX285 in.

AMD gaat pas een probleem krijgen wanneer PhysX gebruikt wordt in erg veel Triple A games om echt de gameplay te veranderen... denk bv aan een lading puin die een doorgang blokkeert die koste wat het kostte opgeruimd moet worden om verder te kunnen komen... Wanneer dit sneller zou gaan wanneer dit berekend wordt door de GPU via GPU PhysX dan dat dit op de CPU gebeurt... ja, dan heeft AMD een probleem, want dit tast dan ook de werkelijke ervaring aan. Maar dat is nu nog niet zo. En dat gaat ook voorlopig nog niet gebeuren. Niet tot er 1 standaard is die door alle IHVs ondersteunt worden.

Ik hoorde dat Intel een developerteam van zo'n 500 man achter LRB heeft gestopt... een groot deel zou aan de drivers werken... en ze willen ook dat Havok goed werkt op de GPU.

Dus PhysX is er nog lang niet, zeker niet wanneer er dit jaar nog veel grote Triple A titels uitkomen die gebruik maken van Havok. Denk aan Diablo 3, Starcraft 2, HaloWars, Indiana Jones, Fable 2. En wie won er dit jaar een Emmy Award? Niet nVidia met PhysX, maar Havok (als independent business unit ondanks dat ze eigendom zijn van Intel)!
Havok received the Emmy for its work on physics models and animation software that have been used to power games such as Halo 3, Assassin's Creed, Guitar Hero III and Age Of Empires III.
Bron: http://www.enn.ie/article/10123682.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • The Source
  • Registratie: April 2000
  • Laatst online: 11-07 08:52
CJ schreef op woensdag 18 februari 2009 @ 22:38:
[...]
Leuk is dat als mensen woorden in andermans mond proberen te stoppen... ;) Helaas slaag je daar niet echt in.
Nee hoor, ik zie AMD zonder PPU zwaar onder de maat presteren. Dus om dat spel met PhysX te spelen heb je een PPU nodig. Daarnaast worden die niet meer gemaakt.
Een serieus probleem? Waar? De meeste reviews die ik gelezen heb over PhysX in - het overigens met erg tegenvallende verkopen geplaagde PC versie van - Mirror's Edge, zeggen dat je niet echt iets mist. In het begin is het grappig, maar het voegt niets extra's toe aan de gameplay.
Dat de game slecht verkoopt ligt niet aan PhysX, elke PC game verkoopt slecht. De console versie van Mirror's Edge verkoopt wel goed.
Wat ze met de test laten zien is dat mensen die een PPU hebben 'm nog niet op de schroothoop hoeven te gooien. Zelfs als je 'm naast een GeForce kaart prikt kan je de FPS nog wat omhoog pompen. Het laat dus absoluut niet zien dat AMD een serieus probleem heeft met PhysX games.... het gaat nog maar om 1 game en de impact die PhysX heeft op de gameplay is verwaarloosbaar. Als je hardware GPU PhysX uitschakelt, dan blijft de gameplay hetzelfde en presteert een HD4870 netjes tussen een GTX260 en GTX285 in.
VGA kaarten zijn tegenwoordig te snel om nog toegevoegde waarde te geven aan 90% van de gamers. Zij kunnen de meeste spelen nagenoeg voluit spelen op de resoluties die hun TFT toelaat. De kwaliteit van de graphics tussen AMD en NV is ook minimaal. Dus om toegevoegde waarde in games te bieden en de beleving van games te verhogen moet er iets anders gebeuren... en dat zijn physics in games.

PhysX maakt het mooier, meer details, rijker. Dit voegt hetzelfde toe als DX functies die beeld / games kwaliteit verhogen zoals bump map shading dus de toevoeging is niet verwaarloosbaar als je het mij vraagt.
AMD gaat pas een probleem krijgen wanneer PhysX gebruikt wordt in erg veel Triple A games om echt de gameplay te veranderen... denk bv aan een lading puin die een doorgang blokkeert die koste wat het kostte opgeruimd moet worden om verder te kunnen komen... Wanneer dit sneller zou gaan wanneer dit berekend wordt door de GPU via GPU PhysX dan dat dit op de CPU gebeurt... ja, dan heeft AMD een probleem, want dit tast dan ook de werkelijke ervaring aan. Maar dat is nu nog niet zo. En dat gaat ook voorlopig nog niet gebeuren. Niet tot er 1 standaard is die door alle IHVs ondersteunt worden.
Gaat AMD nu wel of geen problemen krijgen door PhysX? Ik denk dat je nVidia genoeg kent om te weten dat er meer software zal komen en dat er ook grote titels tussen zullen zitten.
Ik hoorde dat Intel een developerteam van zo'n 500 man achter LRB heeft gestopt... een groot deel zou aan de drivers werken... en ze willen ook dat Havok goed werkt op de GPU.
De vraag is of Havok gaat werken op een AMD GPU. Als dat niet zo is, is het dan ook ineens slecht?
Dus PhysX is er nog lang niet, zeker niet wanneer er dit jaar nog veel grote Triple A titels uitkomen die gebruik maken van Havok. Denk aan Diablo 3, Starcraft 2, HaloWars, Indiana Jones, Fable 2. En wie won er dit jaar een Emmy Award? Niet nVidia met PhysX, maar Havok (als independent business unit ondanks dat ze eigendom zijn van Intel)!
Enerzijds zeg je dat PhysX niets toevoegd en te verwaarlozen is maar daarna loop je wel te zeggen dat Havok beter is? PhysX is er nog lang niet en dat is direct het probleem voor AMD want die lopen nu een stap achter. Dus het is wachten tot Intel zegt, kom AMD we geven onze technology waardoor wij (Intel) een groot Unique Selling Point missen en geen market share kunnen afpakken van jullie.

Ik neem aan dat je gezien hebt dat Intel en nVidia een dispuut over de chipset licentie hebben? Dat doet Intel al jaren en zo hebben ze Sis en Via ook de markt uitgewerkt. Waarom zou het na al deze bedrijven anders zijn bij AMD op de VGA markt?

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op donderdag 19 februari 2009 @ 01:33:
[...]

Nee hoor, ik zie AMD zonder PPU zwaar onder de maat presteren. Dus om dat spel met PhysX te spelen heb je een PPU nodig. Daarnaast worden die niet meer gemaakt.
Jij ziet. Ben blij dat je het zelf ziet... want je probeerde toch echt woorden in mijn mond te stoppen (getuige het eerdere: je zegt dus eigenlijk dat AMD een serieus probleem), terwijl je voor jezelf spreekt. Maar het blijft een feit dat je geen PhysX nodig hebt om de game te spelen zonder dat de gameplay er onder leidt. Maar gezien je verdere reactie lijkt me dat je dat niet helemaal snapt?
Dat de game slecht verkoopt ligt niet aan PhysX, elke PC game verkoopt slecht. De console versie van Mirror's Edge verkoopt wel goed.
Hey.... huppa... ben blij dat je het zelf zegt... Console versie. Xbox360 heeft geen PPU aan boord. PS3 heeft geen PPU aan boord. Deze crossplatform game wordt dus gemaakt met de grootste gemene deler in gedachten en die mensen hebben geen beschikking tot een apparaat die GPU physics kan. Daarom... heeft PhysX geen impact op de gameplay... Daarom zal er nooit een crossplatformgame komen in bv de Battlefield, Splinter Cell, Call of Duty serie waar de verschillen te groot zijn door iets als PhysX wat maar ondersteunt wordt door 1 GPU fabrikant. Het zijn allemaal determinatoren die bepalend kunnen zijn voor het succes van iets als GPU Physics.

Zie ook uit de conclusie van het Tech Report artikel over Mirror's Edge en GPU PhysX. Die zeggen het heel treffend:
PhysX's future is looking better every day, but it seems doubtful that a blockbuster title will ever require the technology. Not only do AMD graphics cards still lack PhysX support, but cross-platform development is par for the course nowadays, and not all current-gen consoles will be able to handle PhysX effects designed to run on desktop GPUs.
Of een andere Tech Report editor die er dit over zegt:
Before I sign off, I'd like to say a word about PhysX. Nvidia showcases Mirror's Edge like an example of PhysX integration done right, but it didn't take me long to turn that feature off. Simply put, it induces a significant frame rate hit, and most of the PhysX additions are barely noticeable—more realistic broken glass after shattering a window, fancier smoke effects, random debris, etc. DICE also added destructible pieces of cloth, tarp, and translucent plastic sheeting throughout the game, but those often look out of place. In one instance, I found a small crawlspace where a pristine plastic sheet was separating a ventilation fan and the switch controlling it. Is that really the best PhysX has to offer?
Zo lang crossplatform-development boventoon voert zal GPU PhysX nooit echt een groot succes kunnen worden, ongeacht hoeveel geld nV er tegen aan smijt. Het zal blijven bij effects physics om de boel er mooier uit te laten zien en niet bij datgene wat ook echt een meerwaarde aan de gameplay kan toevoegen.
VGA kaarten zijn tegenwoordig te snel om nog toegevoegde waarde te geven aan 90% van de gamers. Zij kunnen de meeste spelen nagenoeg voluit spelen op de resoluties die hun TFT toelaat. De kwaliteit van de graphics tussen AMD en NV is ook minimaal. Dus om toegevoegde waarde in games te bieden en de beleving van games te verhogen moet er iets anders gebeuren... en dat zijn physics in games.
Mee eens. Maar alleen wanneer het ook echt een toegevoegde waarde heeft. Effects physics hebben dat niet. Gameplay physics wel. Tot nu toe is PhysX niet meer dan effects physics.
PhysX maakt het mooier, meer details, rijker. Dit voegt hetzelfde toe als DX functies die beeld / games kwaliteit verhogen zoals bump map shading dus de toevoeging is niet verwaarloosbaar als je het mij vraagt.
Lees je eens in in de verschillende vormen van physics. ;)

Korte versie... Je kan physics op dit moment in twee soorten opdelen:
1 - Effects Physics
2 - Gameplay Physics

Het eerste is wat je nu ziet in games als Mirror's Edge. De GPU wordt gebruikt om collision detection, fluid dynamics, hair simulation, cloth simulation te doen... kortom allemaal effecten die de gameplay niet beinvloeden. Ja, het ziet er mooier uit... maar het is niet noodzakelijk voor de gameplay.

Het tweede beinvloed hoe je de game van moment naar moment speelt. Normaal gesproken wordt dit door de CPU gedaan. Denk aan fysieke veranderingen.. zoals in het voorbeeld van die tunneldoorgang in mijn vorige post. Hierdoor zal gameplay physics ook gelijk gekoppeld worden aan de AI... wat in mijn ogen veel interessanter is...

Ik kan me voorstellen dat je het een enorme verrijking vindt voor je spelervaring, maar ik hoop ook dat je je kan voorstellen dat er ook erg veel mensen zijn die 'not impressed' zijn met de manier zoals GPU physics zich op dit moment ontwikkelen.
Gaat AMD nu wel of geen problemen krijgen door PhysX? Ik denk dat je nVidia genoeg kent om te weten dat er meer software zal komen en dat er ook grote titels tussen zullen zitten.
Problemen? Nee... En ja... er komt meer software aan... net zo veel software als dat ze zeiden dat er 1 jaar terug aan zou komen... het aantal AAA PhysX titels die gebruik maakt van de GPU (want onthoudt dat PhysX van huis uit altijd op de CPU draait en veel games die de PhysX SDK gebruiken dus gewoon netjes de software CPU variant gebruiken) wat het afgelopen half jaar is uitgekomen... is op 1 hand te tellen... oh wacht... 1 vinger zelfs?

Overigens is het hele PhysX verhaal een 'moot point' wanneer Windows 7 er is. Mochten mensen met een Radeon echt willen genieten van de effects physics die een aparte PhysX GPU levert dan is er alsnog de optie om een goedkope 9600GT te kopen waarvan gebleken is dat dit de meest efficiente physics GPU is. Ja, meer verkopen voor nV, maar ik denk niet dat dit verder zo'n impact zal hebben wegens gebrek aan grote AAA titels ondersteuning... en ik verwacht dat er voor die tijd nog wel een andere aankondiging is gedaan door een bepaalde IHV.
De vraag is of Havok gaat werken op een AMD GPU. Als dat niet zo is, is het dan ook ineens slecht?
De vraag is niet of het slecht is of niet. De vraag is of het een open standaard is of niet. PhysX is dat niet. Havok ook niet, maar Havok staat wel open voor anderen. Zoals het er op dit moment voor staat is AMD al in staat om Havok physics calls te onderscheppen en dit naar de GPU te leiden wanneer ze dit efficienter lijkt... ze activeren dit pas wanneer het ook echt zinvol is in games... of misschien houden ze wel een bepaalde troef achter de hand voor de toekomst...

Zorgt Intel er straks voor dat Havok ineens niet meer zo onafhankelijk is... en gaan ze nV praktijken uitvoeren... ja... dat is slecht. Maar dat maakt de engine niet per definitie slecht, net zoals de PhysX SDK per definitie niet slecht is.... Het gaat dus meer om het bedrijf er achter... en de manier waarop iets aan de man wordt gebracht.
Enerzijds zeg je dat PhysX niets toevoegd en te verwaarlozen is maar daarna loop je wel te zeggen dat Havok beter is? PhysX is er nog lang niet en dat is direct het probleem voor AMD want die lopen nu een stap achter. Dus het is wachten tot Intel zegt, kom AMD we geven onze technology waardoor wij (Intel) een groot Unique Selling Point missen en geen market share kunnen afpakken van jullie.
Nou doe je het weer... woorden in andermans mond stoppen... Slechte gewoonte. ;)

Ik zeg niet dat Havok beter is. Ik zeg dat Havok wijder verspreid is, het is meer common technology. Het wordt gebruikt in grote films, de afgelopen jaren zijn er honderd keer zo veel games uit gekomen die gebruik maken van een Havok physics-engine dan van PhysX, het wint Emmy awards... dat is allemaal niet voor niets. Dat wil in ieder geval zeggen dat je een grote achterban hebt. In hoeverre heeft nVidia de middelen om er voor te zorgen dat ze net zo'n grote push achter PhysX kan zetten? De afgelopen 2 jaar sinds de overname heb ik daar nog bar weinig van gezien.

AMD loopt niet achter. AMD hoeft geen GPU physics in huis te hebben om mee te kunnen. Dat weet jij net zo goed als ik. AMD heeft een GPU in huis die twee keer zo klein is als het beste wat NV heeft en die in enkele recente GPGPU toepassingen een stuk sneller is gebleken dan nV. Ik durf te wedden dat zich dat straks ook gaat vertalen richting performance in OpenCL/ComputeShaders. Ze ondersteunen Havok, ze ondersteunen OpenCL, ze ondersteunen ComputeShaders in DX11... Alle grote (en open) standaarden worden ondersteunt... dus ook de standaarden waarmee op andere manieren physics naar de GPU kan worden geoffload.

PhysX is geen open standaard. Het is proprietary software waarvoor je eerst nog een andere proprietary standaard moet ondersteunen (CUDA). Het is gewoonweg niet leuk om afhankelijk te zijn van een standaard die gedicteerd wordt door je grote concurrent die zo maar met de komst van één enkele driverupdate er voor kan zorgen dat je Radeon GPUs 20% langzamer draaien dan op hun eigen GeForces. En je kent nVidia goed genoeg om te weten dat ze dit zullen flikken wanneer AMD PhysX zou ondersteunen puur en alleen om hun GPUs beter uit tests te laten komen.

GPU Physics is de next big thing... of dat is het eigenlijk al 2 jaar lang... Maar met de komst van OpenCL en ComputeShaders zal het eindelijk de grote vlucht kunnen nemen die het nodig heeft... en dat werkt op alle GPUs en niet op die van een enkele IHV... (Havok werkt trouwens ook op alle GPUs!).

Los daarvan ben ik op dit moment eigenlijk helemaal niet zo impressed van GPU Physics... tenminste niet in de Effects Physics toestand waar het zich nu bevindt. Give me Gameplay Physics! En wat ik veel interessanter vind is de mogelijkheid om de AI te laten berekenen op de GPU a la de AMD demo Froblins. Met OpenCL en ComputeShaders zal je dit ook vaker gaan zien. Denk aan veel realistischere en vooral slimmere vijanden in RTS games of shooters. Elke unit met een unieke eigen AI zodat elke game die je speelt nooit hetzelfde zal zijn.

Speel de Froblins demo eens voor de gein... en plant ergens een monster of stofwolk en zie de units (met elk hun eigen AI) proberen een vluchtweg te vinden zonder elkaar in de weg te lopen... elke beweging.. elke AI van elke unit... wordt door de GPU berekend... en nooit doet een unit exact hetzelfde wat een andere unit doet... Dat is pas impressive!

Oh om dan maar niet te spreken over het feit dat tegelijkertijd ook nog eens de Tesselator gebruikt wordt om elke unit er realistischer te laten uit zien.
Ik neem aan dat je gezien hebt dat Intel en nVidia een dispuut over de chipset licentie hebben? Dat doet Intel al jaren en zo hebben ze Sis en Via ook de markt uitgewerkt. Waarom zou het na al deze bedrijven anders zijn bij AMD op de VGA markt?
Yep. Gezien. Intel roept nVidia op het matje.. En ongetwijfeld zullen ze het proberen op de VGA markt, maar dan moet LRB wel erg goed zijn. En voor zover ik weet heeft LRB alleen een programmeervoordeel... het performancevoordeel zit nog steevast bij nVidia en AMD. Intel zou zoiets alleen kunnen proberen wanneer hun eigen product dus ook dusdanig presteert om een goed alternatief te vormen. Als hun huidige GMA GPU, waar ze nu een groot marktaandeel mee hebben, competitief was met de huidige HD4800 en GTX serie... reken maar dat ze dit al geflikt hadden.

Maar tot op dit moment is LRB niet meer dan een show van PPT-slides geweest.. tot GDC 09.

[ Voor 15% gewijzigd door CJ op 19-02-2009 03:38 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: Asus showt laptop met Mobility Radeon HD4870X2 aan boord tijdens CES
ASUS chose last month's CES event to announce its flagship gaming notebook, the W90. Usual high-end specifications aside, the most distinct component used in it is the ATI Mobility Radeon HD 4870 X2, AMD's flagship mobile graphics platform, which is on the brink of snatching the performance crown away from NVIDIA for the platform. A North American sales representative for ASUS tells GPU Café that the W90 will be available from February 23, which perhaps makes it the launch-date for the Mobility HD 4870 X2. It is also noted that the Mobility HD 4670 will be out around the same time, while Mobility HD 4850 will arrive a week or two later.
Kinc heeft 'm getest en overgeklokt in 3DM06 en blijkbaar scoort-ie dan zo'n ~20.000 punten. Standaard kloksnelheden voor de Mobility Radeon HD4870X2 zijn 600Mhz core en 900Mhz mem.

http://www.techpowerup.co...m_Clinching_Top_Spot.html




Edit: Tevens de Pricewatch in de first post geupdate. Opvallend is dat de HD4850X2 2GB wel erg goedkoop is (goedkoper dan 2x een 1GB HD4850) en dat er nu ook een 1GB variant verschenen is in de lijst. En de HD4830 duikt flink onder de €100 (als opwarmertje voor de RV740?).

[ Voor 50% gewijzigd door CJ op 19-02-2009 04:17 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Gurneyhck schreef op woensdag 18 februari 2009 @ 13:03:
Als toevoeging op de post van Peakaboo:

[afbeelding]


To good to be true? Zou wel zware overclocks opleveren. Alleen is het de vraag of de mosfets worden meegekoeld, zo op het eerste gezicht lijkt het er niet op.

Dan nog een review op legionhardware van de Asus HD4870X2 TOP met catalyst 9.1 getest:
http://www.legionhardware.com/document.php?id=809

offtopic:
waarom laat ie mijn afbeelding niet zien..
Ben weer debiel bezig geloof ik... Any help?

edit2:
fixed.. sort off

edit3:
Fixed!! :D
Mosfets worden gecooled door heatsinks die er op geplakt worden + de airflow die door de heatsink heen wordt geblazen. Zo doet de twin Turbo dit ook. En dat werkt goed genoeg. Ik hoop dat deze cooler ook op een HD4890 X2 past :P Maar ik denk dat AMD wel dezelfde maten neemt net als ze dat bij de HD4870 en de HD3870 hebben gedaan zodat die coolers blijven passen.

Maar ik heb zo ook mijn vraagtekens bij de RV790 op 55nm. Het past niet helemaal bij de strategie die AMD toepaste op de RV770. (kleine chip veel power) Relatief blijft hij natuurlijk klein. Maar 40nm wat mooier geweest. Aan de andere kant 40nm is wellicht nog niet volwassen genoeg voor zo'n "complexe" chip.

En dan de warmteproductie: Ik gok gezien de wijzigingen dat die wel iets hoger zal liggen. Dus dan zouden ze de cooling van de X2 wel iets mogen tweaken om het zaakje toch nog stil te houden. Of ze hebben hun 55nm ontwerp zo ver getweaked dat hij even veel verbruikt als een RV770. Maar ik vrees dat dat iets te optimistisch is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
CJ schreef op donderdag 19 februari 2009 @ 03:16:
[...]


Hey.... huppa... ben blij dat je het zelf zegt... Console versie. Xbox360 heeft geen PPU aan boord. PS3 heeft geen PPU aan boord. Deze crossplatform game wordt dus gemaakt met de grootste gemene deler in gedachten en die mensen hebben geen beschikking tot een apparaat die GPU physics kan. Daarom... heeft PhysX geen impact op de gameplay... Daarom zal er nooit een crossplatformgame komen in bv de Battlefield, Splinter Cell, Call of Duty serie waar de verschillen te groot zijn door iets als PhysX wat maar ondersteunt wordt door 1 GPU fabrikant. Het zijn allemaal determinatoren die bepalend kunnen zijn voor het succes van iets als GPU Physics.
Hmm, puur kijkend naar je beredenering; die kun je op deze manier ook toepassen op het vraagstuk over de meerwaarde van dx 10.1 t.o.v 10.. grootste gemene deler, 1 gpu fabrikant (met een kleiner marktaandeel dan de concurrent) ondersteunt maar 10.1; ergo: de verschillen tussen 10.1 en 10 kunnen en zullen nooit groot zijn.
(niet dat dit vraagstuk nog echt speelt ivm de komst van dx 11, maar daar gaat 't niet om)

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 12-07 21:12

Edmin

Crew Council

get on my horse!

Met het verschil dat effects physics een game niet onspeelbaar maken op een machine die geen physics ondersteunt. Gelijk als Dx10.1
Gameplay physics daarentegen (en daar doelt CJ op) hebben zo'n ingrijpende invloed op een game, dat zonder physics ondersteuning een game niet zal werken. Dat is het grote verschil met Dx10.1

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Ah oke, helder... en wat dat betreft helemaal mee eens, er zullen niet zo gauw nV-only games of ATI-only games gelanceerd worden... dat zou dan namelijk wel het gevolg zijn van die zogenaamde gameplay phisics met blocking spelmomenten.
Maar dat neemt niet weg dat effects physics alleen maar beter kan worden.... en ik denk dat we het er allemaal over eens zijn dat voor de pc-gamer, grafische pracht en praal vrij belangrijk is, meer nog dan voor de console gamer. Dat het in de allereerste physics game (effects-physic game dan maar) wel meevalt is niet zo verwonderlijk lijkt me.

[ Voor 23% gewijzigd door Illidan op 19-02-2009 09:51 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Anoniem: 286793

Directx 10.1 maakt een grotere kans dan physX. Omdat dx 11 uitkomt en dx 10.1 kaarten er meer compatible mee zijn.

Worden de computeshaders van bijv. een hd 4870 ondersteund in dx 11? Dus kun je gebruik maken van parallel processing op oude dx 10.1 hardware in dx11 applicaties?

[ Voor 3% gewijzigd door Anoniem: 286793 op 19-02-2009 10:04 ]


Anoniem: 264799

@CJ, In Left 4 Dead kan een Tank met auto's en containers gooien door erop te rammen. Is dat geen gameplay physics? De objecten vliegen redelijk natuurgetrouw weg en tegen muren aan enzo...

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 264799 schreef op donderdag 19 februari 2009 @ 11:01:
@CJ, In Left 4 Dead kan een Tank met auto's en containers gooien door erop te rammen. Is dat geen gameplay physics? De objecten vliegen redelijk natuurgetrouw weg en tegen muren aan enzo...
Welke engine gebruiken ze dan in left 4 dead? Met andere woorden, is het relevant in deze discussie? Het is namelijk nergens genoemd, waardoor 1 van de 2 bekende physics engines zeer onwaarschijnlijk is

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 13-07 10:21
L4D = Source engine = Havok physics
link1
link2

[ Voor 66% gewijzigd door Blastpe op 19-02-2009 13:04 ]


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bij de featurelist van de source engine wordt bij de physics-alinea anders met geen woord gesproken over Havok. Het lijkt er meer op dat het een geheel eigen engine-specifieke oplossing is, net zoals het vroeger moest voordat er uberhaupt gespecialiseerde physics-engine ontwikkelaars waren.

In ieder geval, het punt wat ik eigenlijk wilde maken is, dat er weldegelijk gameplay 'physics' bestaan, maar dat deze dus niet specifiek van de PhysX engine gebruik maken en dus gewoonweg via de game-engine ergens berekend worden door de hardware en los van specifieke optimalisaties de ene of de andere kant op, zal het net zo goed werken met een ATI videokaart alswel een Nvidia videokaart. Je Nvidia zal het niet sneller kunnen omdat deze hardwarematig PhysX kan draaien, aangezien dat niet aanwezig is.

@Reinman:
Dank voor de ietwat duidelijkere verklaring aangaande de physics. In ieder geval staat mijn punt daarmee dat je niet afhankelijk bent van 1 merk of het andere.

[ Voor 9% gewijzigd door dahakon op 19-02-2009 13:27 ]


Anoniem: 134818

@Dahkon:
Nee, Source gebruikt een Havok afgeleide:
http://developer.valvesoftware.com/wiki/VPhysics

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Wellicht is VPhysics niet meer dan een laag boven havoc die beter geïntegreerd is in de source engine.

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nog even terugkomend op DX10 vs DX10.1 en de 'grote gemene deler'. Vergeet niet dat DX10 in veel gevallen hetzelfde kan als DX10.1, maar het doet het gewoon minder efficient. DX10.1 is "DX10 done right", zoals het bedoeld was. Wanneer developers het gebruiken zullen ze er voor zorgen dat de IQ vaak gelijk is, maar via het DX10.1 path heb je gewoon minder passes nodig.

Daarnaast is het wel mogelijk om de IQ bij DX10.1 te verhogen in vergelijking tot DX10, simpelweg omdat DX10.1 bepaalde zaken zoals HDR correct AA en AA met deferred rendering engines (zie S.T.A.L.K.E.R.) wel aan kan. Dat nVidia er niet voor kiest om een algemeen erkende standaard API als DX10.1 niet te ondersteunen... tja... wiens schuld is dat? En toch willen ze dat AMD een gesloten API als PhysX ondersteunt. Het zorgt er in ieder geval ook hier voor dat developers niet erg snel DX10.1 zullen gebruiken om betere IQ te krijgen, ondanks dat ze het wel erg graag zouden willen gebruiken. Immers profiteren straks de toekomstige DX11 kaarten van zowel AMD als nVidia er van aangezien die backwards compatible zijn met DX10.1.

@ Dahakon over gameplay physics. Natuurlijk bestaan die. In bijna elke game komt het voor. Het wordt nu alleen op de CPU berekent zowel bij een Havok als bij een PhysX. Havok heeft daar bijvoorbeeld z'n "HydraCore" voor. Die zorgt er voor dat gameplay physics berekend worden op de verschillende kernen en over verschillende threads binnen een (multicore) CPU. Deze techniek is natuurlijk erg crossplatform en zal bijvoorbeeld ook op de PS3 met z'n multicore Cell processor en op de Xbox360 met z'n triplecore IBM CPU enorm goed draaien.

Er zijn in het verleden een aantal erg interessante artikelen online verschenen over de verschillende vormen van physics, dus effects physics (visual physics) en gameplay physics. Tijdens de aankondiging van ATI dat ze ook physics op de GPU zouden kunnen doen, vermeldden ze dat hun X1900XT zo'n 9x sneller was in het berekenen van physics dan een PPU van Ageia. Er zit dus nog erg veel onaangetapte power in de huidige Radeons... als een aparte PPU naast een HD4870 al voor een leuke boost zou zorgen... stel je dan eens voor wanneer het op de Radeon zelf gedaan zou worden... een HD4870 is immers vele malen sterker dan een X1900XT. OpenCL en de ComputeShader zouden hier verandering in kunnen brengen.

Zowel effects als gameplay physics zouden op de GPU kunnen worden berekend. Maar wat developers er van weerhoudt is dat men iedereen graag een gelijke gameplay ervaring wil geven. En wanneer bv de een een 8600GT gebruikt voor de physics en de ander een GTX285... dan zal de gameplay ervaring erg verschillen. Games moeten door iedereen gespeeld kunnen worden.

Aantal artikelen over effects vs gameplay physics:
http://enthusiast.hardocp...5NywxLCxoZW50aHVzaWFzdA==
http://www.xbitlabs.com/n...splay/20051028224421.html
http://www.tomshardware.c...physx-failing,1285-2.html

[ Voor 6% gewijzigd door CJ op 19-02-2009 14:07 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Legit Reviews komt met de mededeling dat de Catalyst 9.2 beschikbaar is.
ATI now has their Catalyst Software Suite 9.2 available for download: http://ati.amd.com/support/driver.html

Here are the feature highlights of the 9.2 driver:

Performance Improvements
Catalyst™ 9.2 brings performance benefits in several cases where framerates are
CPU-limited. Some measured examples are:
Crysis DX10 gains up to 20%
Crysis Warhead DX10 gains up to 20%
• World in Conflict gains up to 5%
Echter bij game.amd is de Catalyst 9.1 nog steeds zichtbaar. Het zal wel in de loop van de avond worden gereleased denk ik.

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Net dus ververst, zie de site.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
X-Bit Labs meldt dat de RV790 niks meer is dan een speedbump van de RV770.

http://www.xbitlabs.com/n...Performance__Sources.html

;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 12-07 10:12

Splinter Cell

Glasvezel MASTER RACE

Eindelijk nieuwe drivers. En ze hebben de drivers pagina ook wat veranderd. Gelukkig hebben ze dat Twitter/CatalystMaker gedoe, eruit gesloopt.

Acties:
  • 0 Henk 'm!

  • Grozno
  • Registratie: Februari 2006
  • Laatst online: 18:12

Grozno

acts without consequence!

Dat zijn wel flinke boosts voor Crysis & Warhead. Ik ben benieuwd, aangezien ik hier wel met een CPU-limit zit.

[ Voor 27% gewijzigd door Grozno op 20-02-2009 19:00 ]

Advocatus ineptias | Free Speech Online


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Splinter Cell schreef op vrijdag 20 februari 2009 @ 18:31:
Eindelijk nieuwe drivers. En ze hebben de drivers pagina ook wat veranderd. Gelukkig hebben ze dat Twitter/CatalystMaker gedoe, eruit gesloopt.
Urhm. Het zit er nog wel op hoor als je via de standaard http://game.amd.com pagina de drivers download. Twitter gaat voortaan door CatalystMaker gebruikt worden om aan te kondigen wanneer de volgende Catalyst gereleased wordt. Daarnaast zijn er erg veel AMD leden lid van Twitter die er hun ongezouten mening geven (met een disclaimer dat hun gedachten van hunzelf zijn en niet van AMD) en tips/truuks geven over bepaalde zaken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

CJ schreef op vrijdag 20 februari 2009 @ 18:23:
X-Bit Labs meldt dat de RV790 niks meer is dan een speedbump van de RV770.

http://www.xbitlabs.com/n...Performance__Sources.html

;)
"This is exactly the same situation as in the case of transition from ATI Radeon 9800 Pro to ATI Radeon 9800 XT back in 2003, performance gain will not be massive," a person wished to remain anonymous said.

9800Pro -> XT was geen verandering qua transistoren. Hier is al over een pinchange gesproken wat betreft het design. Dat plus de ;) hierboven plus zaken als "a person wished to remain anonymous said." doen mijn mening omslaan naar dat het meer is dan een speedbumpje.

Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 18:15
CJ schreef op vrijdag 20 februari 2009 @ 18:23:
X-Bit Labs meldt dat de RV790 niks meer is dan een speedbump van de RV770.

http://www.xbitlabs.com/n...Performance__Sources.html

;)
Ik ben toch wat sceptisch, ze gaan volgens mij die 1GHz niet halen om de 30% performance winst te halen ;)

Acties:
  • 0 Henk 'm!

Anoniem: 73609


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

mdcobra schreef op vrijdag 20 februari 2009 @ 19:23:
[...]


Ik ben toch wat sceptisch, ze gaan volgens mij die 1GHz niet halen om de 30% performance winst te halen ;)
Als het een dieshrink is, dan zijn er meer mogelijkheden om in ieder geval richting de 900+ te komen met eventueel een wat lager stroomverbruik. Al had ik wel begrepen dat 40nm niet helemaal ''up and steaming'' was, wel beschikbaar en wel mee te produceren, maar niet de principiële voordelen van een shrink.
Hee... jij bent wakker. Kijk eens een paar posts boven je.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
40nm liep inderdaad niet helemaal geweldig bij TSMC. Daarnaast is een RV770 op 40nm weer padlimited... en dat was het 'grote probleem' wat AMD al had op 55nm.. mede waardoor we nu een 800 SP/40TMU videokaart hebben ipv een 640/32TMU videokaart....

Een 256-bit memory interface vereist een bepaalde die-size... en ik denk dat RV770 wat betreft logic dan erg padlimited zou worden voor wat betreft een 1 op 1 shrink.. bedenk je wel dat het dan zo'n 30% kleiner wordt... Een RV740 met een 128-bit memory interface zou dat probleem niet hebben... de die-size mag immers kleiner zijn zonder dat men erg veel ruimte over houdt (en dus weer pad-limited is).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Dijkertje
  • Registratie: Juli 2008
  • Laatst online: 09-07 12:55

Dijkertje

F.K.A. 'Sokkiejjj'

Misschien een idee om naar "ons" HD4XXX overklok topic te linken? :+

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Een speedbump zoals daar beschreven gaat misschien maximaal 10% gain geven. Dit vind ik wel teleur stellend als het echt zo is. Dit is de kans om nVidia te pakken met een 20%-30% snellere versie van de RV770. Wat ze in het geval van alleen een clockspeed boost doen is zorgen dat hun X2 net de GTX295 niet kan verslaan en dat is heel erg zonde.

Maar dit kan ook weer een onderdeel zijn van een smokescreen :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Ik geloof niet dat er nog een X2 (RV790) eraankomt om met de GTX295 te concureren, ik bedoel dan heeft ATI 2 kaarten dat concureerd met de GTX295 of hij moet flink wat sneller zijn.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 12-07 21:12

Edmin

Crew Council

get on my horse!

En waarom niet? De RV740 komt ook in het vaarwater van de 4830 en/of 4850. Dat doet mij vermoeden dat de nieuwe generatie de oude gewoon zal vervangen. Bovendien zou het ontbreken van een nieuwe X2 betekenen dat AMD meer dan een jaar lang geen nieuwe high-end kaart uitbrengt. In een marktsegment waar mensen vaker van graka wisselen dan van onderbroek is dat echt niet handig.

edit:
ik lees in de releasenotes van Cat 9.2 niets over multicore zaken. Toch lag de beta al anderhalve maand geleden op het www. Wat is de status hiervan? Vielen de resultaten tegen (zoals bij mij)? Buggy? Zijn ze wel gereed voor maart?

[ Voor 24% gewijzigd door Edmin op 21-02-2009 12:09 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ik denk eerder dat als de RV790 echt een stuk sneller is dan de RV770, ze voor een HD4890 en HD4890X2 gaan, de hele RV770 droppen als cpu en de RV740 de plekken van de HD4830/4850 overneemt en mogenlijk de HD4670.

Op die manier kunnen ze aanzienlijk goedkoper produceren, en misschien komt er nog een HD4860 or zoiets in de vorm van een lager geklokte RV790 al dan niet met GDDR4 of GDDR5.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Ja ok, denk dat ze dit nu wel moeten doen ivm dx11 wat bestemd is voor de HD5xxx series.
Normaal zouden we nu al een HD5xxx zien,maar omdat dx11 opzich laat wachten komt er nog een HD4890 serie.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13-07 14:50
ook iets bekend dat de 9.2 verbeteringen voor gta brengt? en voor farcry2? wordt anders wel een beetje triest dat ze deze grote titels niet optimaliseren.

wel grappig dat ze steeds weer winst kunnen vinden in crysis. een titel die eerst alleen goed draaide op Nvidia en nu wellicht nog beter op de Ati's. Ze moeten zich alleen niet blind gaan staren op alleen die engine.

verder nog de vraag: er zijn geen windows7 drivers maar de vista64 drivers werken hierin toch ook wel?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
ATI staart zich over het algemeen niet blind op titels. Ze richten zich doorgaans op algemene optimalisaties die niet alleen voordelig is voor 1 enkele engine, maar voor meerdere engines voordelen kan brengen. De titels die je in de releasenotes ziet, zijn gewoon de titels uit de default-testsuite van AMD (waar zowel Crysis als ook Far Cry 2 in zit) waar de optimalisaties van deze maand (of eigenlijk beter gezegd, die van 6 weken geleden, aangezien AMD zo ver vooruit werkt) een positieve uitwerking op hadden. Dat wordt dan meegenomen in de releasenotes. Maar dat wil dus niet zeggen dat ze zich blind staren op Crysis. Het zou goed kunnen zijn dat je ook in andere titels een boost ziet, maar dat die games op dat moment niet in de testsuite zaten... dat zie je dan ook niet terug in de releasenotes ondanks dat ze wel sneller zijn geworden.

Natuurlijk gebeurt het ook wel eens dat men wat meer mankracht op een bepaalde titel zet, maar vaak zijn het dus generieke optimalisaties.

Overigens heb ik dit geloof ik ook al eens vaker uit gelegd. :+




Edit: Voor de mensen met een HD4870X2 die nu ineens met Catalyst 9.2 veel hogere idle temperaturen hebben... Het schijnt dat GPU 2 in idle op volle snelheid draait. Je kan met GPU-Z controleren of dit inderdaad zo is (dus check de temp wanneer je op je desktop zit). En wanneer dit zo is, zouden jullie dit dan willen melden bij het Catalyst team via de standaard manier, namelijk het Catalyst Crew Feedback Form?

Meer informatie hierover ook op het AMD Catalyst forum: http://forums.amd.com/game/categories.cfm?catid=279

[ Voor 22% gewijzigd door CJ op 21-02-2009 16:35 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Ja dat klopt, dacht dat het aan RT/ATT lag maar ik heb dus ook dat de 2e gpu op 3d snelheid draait.
Dit is hetzelfde als toendertijd, powerplaybug, gebeurt alleen als je voor het eerst in windows komt, wanneer je een 3d toepassing opstart en weer afsluit , heb je weer je 2d clocks.

Ook een probleem wanneer je moet herstarten na het installeren en je komt in windows, dat ik gewoon zwart beeld hebt.
Na een 2e reset is het weer goed.

Feedback gedaan.

[ Voor 20% gewijzigd door Bullus op 21-02-2009 19:49 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 22:09

Apoca

Array Technology Industry

CJ schreef op zaterdag 21 februari 2009 @ 15:38:
Voor de mensen met een HD4870X2...
Dat heb ik al sinds weet ik welke versie dat mijn 2e HD4850 kaart in CF op full speed loopt in 2D. De temp is 2 graden hoger dan de "idle" kaart op 47% speedfan. Lijkt me nu niet echt een probleem om daar gelijk een melding van te maken. Zijn wel belangrijkere dingen die met voorrang opgelost moeten worden :)

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Het is wel degelijk belangrijk omdat men graag wil dat de levensduur van de GPUs op bv X2 kaarten gelijk op gaat. En niet alleen voor X2 kaarten, maar ook voor gewone CFX opstellingen geldt dit. Daarnaast wordt er op elk forum gigantisch veel melding van gemaakt, en zelfs ook op het ATI Catalyst forum... maar mensen schijnen dit niet te rapporteren via de officiele wegen.. en tja... dan krijgt het geen voorrang op de bugfix lijst.

Aangezien mensen het maar blijven melden op de verschillende internationale fora, lijkt het probleem toch groter dan het is... en zolang mensen niks rapporteren, blijft zich dit opblazen. Vandaar mijn oproep.. heb je er last van, gebruik dan het Catalyst Feedback form zodat we er wat aan kunnen doen. Dit geldt niet alleen voor dit soort problemen, maar voor elk probleem gebruik je dit:

http://support.ati.com/ic...894&surveyID=486&type=web

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Net ook gesubmit dat de Vista package van Cat 9.2 op Windows 7 niet de display driver installeert. Krijg deze melding:

ATI Display Driver
Final Status: Fail
Version of Item: 8.582.0.0000

Error messages
Driver Install: the driver package does not specify a hardware identifier

Jammer, had goede hoop dat ik Cat 9.2 Vista gewoon kon gebruiken, Cat 9.1 Vista installerde namelijk vlekkeloos :)

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Op de Twitter van CatalystMaker had hij afgelopen week al aangekondigd dat Catalyst 9.2 geen verbetering zou brengen voor Windows 7. Dit komt pas in Catalyst 9.3. Hij raadt aan om bij de officiele Windows 7 release te blijven, maar testen met de huidige Catalysts kan geen kwaad. In jou geval dus... helaas...
no there is no Win7 update this month (Cat 9.3 will though)
Houdt z'n Twitter in de gaten, want dan weet je precies wat je kan verwachten of niet. http://twitter.com/catalystmaker

[ Voor 8% gewijzigd door CJ op 22-02-2009 01:18 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Nou ja, denk dat ik van de week de 64-bit beta erop ga zetten. Heb dan ook inmiddels een 4GB systeem.

Maar goed, lijkt me als ik die error zo lees dat ze iets over het hoofd hebben gezien, aangezien Cat 9.1 wel goed werkt en de 64bit versie van Cat 9.2 ook normaal installeert.

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: PC Games Hardware & X-Bit Labs bekijken Catalyst 9.2

Twee sites, dezelfde drivers. De ene site is er wat positiever over dan de andere. In de tests van X-Bit Labs zien ze niet altijd wat er beloofd wordt... soms minder (Crysis), soms meer (F.E.A.R.2 en World In Conflict). PC Games Hardware test helaas alleen maar single GPU opstellingen, maar wel meer games. Zij zien echter wel een boost in Crysis (35%) waarmee deze op gelijke hoogte komt met een veel duurdere GTX285. En ook bij Call of Duty: World At War (wat niet in de releasenotes stond) ziet men een boost van 20%.

PC Games Hardware vergelijkt de drivers met Catalyst 8.12 WHQL waar voor het eerst de DX10 AF bug werd gesignaleerd. Voor degenen die de laatste 2 maanden ergens in een grot hebben geleefd... In DX10 games kon men geen AF forceren via het CCC. Alleen als de DX10 game ingame AF controle had, kon je AF krijgen in deze games. Catalyst 9.2 fixed echter de bug. Daarom kijken ze ook naar de IQ en vergelijken ze of de speedboosts die in Catalyst 9.1 zaten te danken waren aan deze bug of dat het echt een legitieme bug was.

Het antwoord kan ik je vast verklappen. Het was een legitieme bug. IQ is weer back to normal, de snelheidsboosts zitten er nog steeds in dankzij enkele multi-core optimalisaties voor DX10 games en er zitten nieuwe CFX profielen in de drivers (waaronder dus voor F.E.A.R. 2).

Oh en AMD schijnt nu ook weer samen te werken met de developers van GSC Gameworld om meer performance in S.T.A.L.K.E.R. Clear Sky te krijgen:
Etwas unglücklicher ist die Sachlage dagegen in Stalker Clear Sky: Konnte AMD dank den Multicore-Optimierungen mit der Version 1.5.07 noch Performance-Steigerungen erzielen, stagniert die Leistung nach dem Aufspielen der aktuellen Version 1.5.08. AMD arbeitet jedoch bereits zusammen mit Entwickler GSC Gameworld an einem kommenden Patch, welcher die Leistung wieder steigern soll.
http://www.pcgameshardwar...eutlich/Grafikkarte/Test/
http://www.xbitlabs.com/a.../display/catalyst-92.html

[ Voor 14% gewijzigd door CJ op 22-02-2009 01:34 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 286793

Als de rv790 niet meer is dan een speedbump gaan ze niet concurreren met de gtx 285. Terwijl dat een van de doelen was. Ik denk dat ati sowieso een kaart wil maken die gaat concurreren met de gtx 285. Dat de hd4890 in april uitkomt wil ook meteen zeggen dx11 nog wel degelijk even op zich laat wachten (althans bij ati). Dus in die tussentijd is er toch wel een gat in de markt bij kamp ati als de hd 4890 de gtx 285 niet overtreft.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13-07 13:51

Format-C

Tracing Rays

CJ schreef op zaterdag 21 februari 2009 @ 15:38:


Edit: Voor de mensen met een HD4870X2 die nu ineens met Catalyst 9.2 veel hogere idle temperaturen hebben... Het schijnt dat GPU 2 in idle op volle snelheid draait. Je kan met GPU-Z controleren of dit inderdaad zo is (dus check de temp wanneer je op je desktop zit). En wanneer dit zo is
Je kan ook dit doen:


Afbeeldingslocatie: http://i35.tinypic.com/25sydfn_th.jpg

Toen ik een HD4870X2 had, was dit probleem er ook al. Vooral helemaal in het begin was dit tijden lang zo.

Toen was het weg, en nu is het er weer...

Maar goed. Dit is makkelijk zelf te fixen. Gewoon ff een profieltje aanmaken.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 286793 schreef op zondag 22 februari 2009 @ 09:33:
Als de rv790 niet meer is dan een speedbump gaan ze niet concurreren met de gtx 285. Terwijl dat een van de doelen was. Ik denk dat ati sowieso een kaart wil maken die gaat concurreren met de gtx 285. Dat de hd4890 in april uitkomt wil ook meteen zeggen dx11 nog wel degelijk even op zich laat wachten (althans bij ati). Dus in die tussentijd is er toch wel een gat in de markt bij kamp ati als de hd 4890 de gtx 285 niet overtreft.
De RV790 wordt tussen de GTX260 en GTX285 in gepositioneerd. Dus hij concurreert niet rechtstreeks wat betreft performance, maar men concurreert wel degelijk op prijs/prestatie zoals de RV770 dat ook deed met GT200. Vergeet niet dat de RV790 nog altijd een stuk kleiner is dan de GT206/GT200b.

GPUs gaan gemiddeld zo'n 6 maanden mee bij AMD. Dus als rond die tijd dan DX11 uit komt is er niks aan de hand en het klopt ook met het feit dat de eerste DX11 GPU van AMD in Q2 gesampled wordt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 286793

Als de rv790 in april uitkomt dan komt de eerste dx11 gpu (van amd) volgens jou dus uit in oktober?

Dan kunnen ze dus 6 maanden niet qua performance concurreren met nvidia. Er is ook nog een kans dat nvidia de gt300 kaarten eerder uitbrengt dan ati de rv870.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13-07 14:50
mocht het je ontgaan zijn: de huidige 4870 was ook niet op de markt geplaatst om te concurreren met de gtx280. hij zat tussen de oude gtx260 en gtx280 in qua performance. echter qua prijs was het een no-brainer omdat hij sneller was dan de gtx260 en goedkoper, en zelfs soms in de buurt kwam van de gtx280 qua prestaties.

dit heeft Amd geen windeieren gelegd en waarschijnlijk willen ze die zet weer herhalen: zelfde gameplay ervaringen en redelijk concurrerende snelheid, tegen een aantrekkelijkere prijs.

circa 10 tot hooguit 20% langzamer voor circa 50 a 60% van de prijs van de snelste kaart is in mijn ogen een erg goede deal.

natuurlijk willen ze nog liever de allersnelste zijn, maar niet tegen een te hoge kostprijs waardoor je teveel moet vragen voor je kaart en je er weinig verkoopt.

nee, deze strategie is prima, en steld ze bovendien in staat om een zeer snelle x2 kaart op de markt te zetten wederom, voor weer een redelijke prijs. Amd is goed bezig. 8)

Acties:
  • 0 Henk 'm!

  • Weiman
  • Registratie: September 2007
  • Laatst online: 29-05 15:26
Demon_Eyez schreef op zondag 22 februari 2009 @ 00:12:
Net ook gesubmit dat de Vista package van Cat 9.2 op Windows 7 niet de display driver installeert. Krijg deze melding:
Jammer, had goede hoop dat ik Cat 9.2 Vista gewoon kon gebruiken, Cat 9.1 Vista installerde namelijk vlekkeloos :)
Ik draai hier W7 64 7000 met Cat 9.2 vlekkeloos.. Terwijl met de 8.12 W7 versie de driver meerdere keren op z'n nek ging, met soms een BSOD tot gevolg. Ook een leuke FPS boost voor zover ik kan zien :)

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13-07 14:50
9.2 werkt hier niet goed in w7. installatie ging prima en prestaties waren zeer goed. echter, na een restart heeft het systeem zich hersteld en de 8.12 teruggezet (had hiervoor de 9.1, maar ja.)

wel apart, omdat vorige vista64 drivers wel prima werken.

Acties:
  • 0 Henk 'm!

  • viper83
  • Registratie: Maart 2007
  • Laatst online: 07-07 18:33
Ik heb ook aan AMD feedback gegeven over mijn 4870x2. Mijn GPU1 blijft hangen op 3d en niet GPU2... :?
(Ga maar is googlen hoe ik een profiel kan maken...)

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

CJ schreef op zaterdag 21 februari 2009 @ 15:38:
ATI staart zich over het algemeen niet blind op titels. Ze richten zich doorgaans op algemene optimalisaties die niet alleen voordelig is voor 1 enkele engine, maar voor meerdere engines voordelen kan brengen. De titels die je in de releasenotes ziet, zijn gewoon de titels uit de default-testsuite van AMD (waar zowel Crysis als ook Far Cry 2 in zit) waar de optimalisaties van deze maand (of eigenlijk beter gezegd, die van 6 weken geleden, aangezien AMD zo ver vooruit werkt) een positieve uitwerking op hadden. Dat wordt dan meegenomen in de releasenotes. Maar dat wil dus niet zeggen dat ze zich blind staren op Crysis. Het zou goed kunnen zijn dat je ook in andere titels een boost ziet, maar dat die games op dat moment niet in de testsuite zaten... dat zie je dan ook niet terug in de releasenotes ondanks dat ze wel sneller zijn geworden.
Jammer dat ze dat niet in de releasenotes verwerken. Een populaire titel als GTA IV gaat van 43 naar 48 fps bij de upgrade van Catalyst 9.1 naar 9.2! frankknopers in "GTA 4 Performance Topic"

Een bedrijf als nVidia zou een dergelijke winst van de daken schreeuwen, bij AMD is het een generieke prestatiewinst die als bekend wordt verondersteld en dus niet in de releasenotes staat.. Toch jammer dat ze daar geen gebruik van maken, want daardoor ontstaat er (onterecht) het beeld dat drivers van nVidia beter zijn dan die van AMD..

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Goron
  • Registratie: Januari 2007
  • Laatst online: 05-07 13:01
Leuk die 20% boost in Crysis Warhead. Jammer genoeg kan ik het niet uitproberen, met 9.2 loopt warhead bij mij vast bij het loaden :X . (vista 64)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anandtech - MultiGPU Update: Two GPU Options in Depth

[ Voor 51% gewijzigd door Help!!!! op 23-02-2009 14:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 286793

Wat doet de hd 4850x2 het goed zeg! En hij verbruikt niet eens zo veel meer dan de hd 4870 in idle. Dit geeft tegelijkertijd ook aan hoe verschrikkelijk bagger de energiemanagement van de hd 4870 is in idle. Maarja ook wel een beetje hoe geweldig de hd 4850 is.

Ik hoop echt dat ze de hd 4890 zo goed gaan tweaken dat het dicht in de buurt komt van de gtx 285 en gtx 260. Dat moet toch echt mogelijk zijn? Wat zijn jullie verwachtingen?

Ook in load is het stroomverbruik van de gtx 260 minder dan die van de hd 4870. Alleen nu is het wel zo dat de hd 4870 de gtx 260 zowaar ingehaald blijkt te hebben! Zelfs in crysis. De drivers van ati zijn dus wel degelijk goed!

Nu heb je van xfx zo'n prachtige gtx 260 black edition die de prestaties van een gtx 280 haast wel heeft. Denken jullie dat een overgeclockte hd 4870 de gtx 260 black edition inhaalt? En hoeveel stroom gaat dit extra kosten want bij nvidia was dit niet gek veel.

Dit testje gebruikt namelijk nog niet de nieuwe drivers.
http://www.insidehw.com/R....-ATI-HD-4870/Page-3.html

Uiteindelijk toch nog verder opzoek gegaan. Ik kwam op dit testje waar de hd 4870 de black edition haast wel versloeg vooral op hogere resoluties.

http://www.xbitlabs.com/a...sli-core-i7_12.html#sect0

alleen hier gebruiken ze niet de nieuwste drivers.

[ Voor 14% gewijzigd door Anoniem: 286793 op 23-02-2009 18:20 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
XFX komt ook nog met Black Editions van de Radeons... ;) misschien wat eerlijker om die te gebruiken als je GTX 260 Black Edition gaat vergelijken met een Radeon.

En dat de HD4870 de GTX260 al kon bijhouden... ik geloof dat we dat hier al maanden aan het roepen zijn in dit forum... niet alleen roepen... zelfs benchmarks er bij die al tijden het bewijs leveren...

En de geruchtenmachine draait nog steeds op volle toeren omtrend RV790. Volgens deze is het een super super OC RV770 op 950Mhz en 900Mhz GDDR5: http://en.expreview.com/2...er-overclocked-rv770.html

[ Voor 25% gewijzigd door CJ op 23-02-2009 20:58 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 286793

Als je de black edition zwaar wil overclocken wordt de radeon vaak wel te heet en moet je dus met een andere koeling oplossing komen. Ik hoop dat xfx dit doet maar ik denk dat de toxic edition van sapphire toch veel het koelst blijft met vapor chamber.

Wat jij zegt is waar maar met de oude drivers versloeg de black edition een overgeclockte hd 4870. Het is nu pas dat de hd 4870 de gtx 260 begint in te halen.

Ik hoop dat xfx de kaart overclockt met tot boven de 1 ghz en de memory ook rond de 1.1 ghz. Dat zou een mooi kaartje gaan leveren die zeker weten kan gaan concurreren met de gtx 285.

[ Voor 18% gewijzigd door Anoniem: 286793 op 24-02-2009 07:57 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 12-07 21:12

Edmin

Crew Council

get on my horse!

En laat hij daar nou net niet voor bedoeld zjin. Bovendien mag je dat ook niet verwachten van een kaart die zoveel goedkoper is.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Volgens mij snapt Ritsaart de strategie van AMD nog niet helemaal die ze zijn gestart toen ze in 2005 met de ontwikkeling van de RV770 zijn begonnen (en in iets mindere mate een jaartje eerder met RV670).

Dus nogmaals.... AMD wil helemaal geen GPU bouwen die concurreert met de GTX285! De GT200(b) is een enorm grote logge GPU die wat betreft performance erg inefficient is in vergelijking met de RV770. Ze gaan voor klein en snel en richten zich op de midrange. De highend wordt bedient met multi-GPU setups. Lees dit artikel op Anandtech nog eens. The RV770 Story: Documenting ATI's Road To Success. Misschien wordt het dan allemaal wat duidelijker.

Dat ze met hun nieuwe strategie slagen blijkt wel uit het meest recente artikel van Anandtech over Multi-GPU. Ze komen op alle gebieden mee met een veel kleinere chip.

De HD4870 1GB doet niet onder voor de GTX260 Core 216 en verslaat deze redelijk vaak voor iets minder geld.
De HD4850X2 verslaat de GTX280/GTX285 vaak en is een flink stuk goedkoper.
De HD4870X2 is gemiddeld zo'n 25% goedkoper dan de GTX295, maar de performance ligt niet zo ver achter (meestal rond de 10%). Met 8xAA/16xAF is de HD4870X2 volgens recente tests zelfs zo'n 9% sneller.

AMD hoeft dus eigenlijk helemaal niks te doen. Ze hebben een kleine GPU die het logge inefficiente beest van nV bij houdt. Geloof je niet dat-ie inefficient is wat betreft performance?
RV770: 256-bit memory interface vs GT200: 512-bit memory interface
RV770: 40 TMUs vs GT200: 80 TMUs
RV770: 16 ROPs vs GT200: 32 ROPs
RV770: 160 brede shaderunits op enkelvoudige speed vs GT200: 240 smalle shaders op meer dan double speed
KLIK en zie het verschil

Niemand, en zeker nVidia niet, had verwacht dat de RV770 de GT200 zou bij houden, want dat doet-ie. De RV770 houdt de GTX260 bij en soms weet-ie zelfs de GTX280 bij te houden. AMD had het ook niet verwacht zoals je in het artikel kan lezen op Anandtech en deze slide zegt ook genoeg:

Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ATI/4850/amd1.png

De HD4870 was bedoelt als tegenstander van de 9800GTX en niet zoals-ie dat nu doet de GTX260. Ik heb een vermoeden dat de HD4850X2 is uitgesteld omdat men oorspronkelijk er van uit ging dat men deze nodig zou hebben om de GTX260 te verslaan, net zoals men vermoedde dat men de HD4870X2 zou moeten gebruiken om de GTX280 te verslaan. Toen bleek dat de HD4870 in z'n uppie wel de GTX260 kon bij benen, was de noodzaak voor een HD4850X2 een stuk minder. Maar nu er meerdere concurrenten zijn (GTX285, GTX295) past-ie een stuk beter in de line-up.

Dit is hoe nVidia hun producten wilde positioneren toen ze hoorden van de HD4850 en HD4870:

Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ATI/4850/GFlineup.jpg

Maar toen wisten ze nog niet hoe deze zou presteren... Als het niet voor AMD en de RV770 was, dan hadden de mensen die de voorkeur hebben voor nVidia nu nog $649 betaald voor de GTX280! Dus wat betreft dat "concurreren" met nVidia... dat doet AMD nog prima met de huidige GPUs en strategie. En dat gaan ze straks zelfs nog ietsje beter doen met de 2 nieuwe GPUs die er aan komen. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 286793

Jij post ook vooral technische specificaties. Je vind de gtx 285 inefficient op dat gebied. Dat maakt natuurlijk geen reet uit voor de prestaties in het echt. De gtx 285 mag misschien wel een beest zijn maar wat maakt dat uit voor de prestatie van dat ding? Hij is energiezuinig, presteert goed en wordt niet te heet. De prijs is duidelijk in het voordeel van ati.

En ati is niet inefficient? Ze proppen gewoon 2 gpu's op 1 kaart om te kunnen concurreren met de gtx280. Dat het ding de gtx 280 verslaat is niet eens een wonder. Het is ook zeker niet knap ofzo. De gtx 280 gebruikt veel minder stroom, wordt minder heet en presteert nog steeds goed.

Begrijp me niet verkeerd! Ik vind de hd4870x2 nog steeds een goede kaart. Maar vind het gewoon niet eerlijk om multi-gpu kaarten te vergelijken met single-gpu kaarten.

Dat de rv790 niet gaat concurreren met de gtx 285 verbaast mij echt niet. Ik vraag me alleen af of dit dan wel een volwaardige opvolger van de rv770 kan zijn. Ati moet echt wat gaan doen aan energie verbruik en warmteontwikkelling op een gpu's. Vapor Chamber koeling is zeker weten benodigd voor zo'n hoog geclockte gpu. Hij zal dus denk ik niet extreem koel gaan runnen maar gelijk gaan lopen met de nV kaarten qua temp.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 12-07 21:12

Edmin

Crew Council

get on my horse!

Ik denk dat het zeer onverstandig is om daar uitspraken over te doen zonder de details van de RV790 te kennen. Er gaan zo ontzettend veel verschillende geruchten rond, daar kan je geen pijl op trekken. Is het een superclocked RV770? Of stiekem toch een 40nm?

Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Anoniem: 286793 schreef op dinsdag 24 februari 2009 @ 14:04:
Jij post ook vooral technische specificaties. Je vind de gtx 285 inefficient op dat gebied. Dat maakt natuurlijk geen reet uit voor de prestaties in het echt. De gtx 285 mag misschien wel een beest zijn maar wat maakt dat uit voor de prestatie van dat ding? Hij is energiezuinig, presteert goed en wordt niet te heet. De prijs is duidelijk in het voordeel van ati.

En ati is niet inefficient? Ze proppen gewoon 2 gpu's op 1 kaart om te kunnen concurreren met de gtx280. Dat het ding de gtx 280 verslaat is niet eens een wonder. Het is ook zeker niet knap ofzo. De gtx 280 gebruikt veel minder stroom, wordt minder heet en presteert nog steeds goed.

Begrijp me niet verkeerd! Ik vind de hd4870x2 nog steeds een goede kaart. Maar vind het gewoon niet eerlijk om multi-gpu kaarten te vergelijken met single-gpu kaarten.
Met het 1e deel was ik het met je eens, maar daarna begon ik toch een beetje te twijfelen...
Het is hier al zoveel gepost, snap het dan, dit is Ati's strategie!
Een kleine efficiënte chip waar ze meerdere van aan elkaar kunnen plakken voor meer performance.
Anders kan je ook wel zeggen dat je de hd4870 en de gtx260 niet met elkaar mag vergelijken omdat de gtx260 een grote chip is en de hd4870 niet.
Dit is gewoon dom, zij gaan voor kleine multi-chip opstellingen en Nvidia (nog) niet, en nu zie je dat het loont, ik vind dat je dit gewoon mag vergelijken hoor.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 286793 schreef op dinsdag 24 februari 2009 @ 14:04:
Jij post ook vooral technische specificaties. Je vind de gtx 285 inefficient op dat gebied. Dat maakt natuurlijk geen reet uit voor de prestaties in het echt. De gtx 285 mag misschien wel een beest zijn maar wat maakt dat uit voor de prestatie van dat ding? Hij is energiezuinig, presteert goed en wordt niet te heet. De prijs is duidelijk in het voordeel van ati.
Bingo. En daar hebben we nou net datgene waar hier al jaren op wordt gehamerd... De prijs is uiteindelijk bepalend hoe competitief iets is en waar het mee concurreert. En dat is nou net de richting waar AMD op gaat.
En ati is niet inefficient? Ze proppen gewoon 2 gpu's op 1 kaart om te kunnen concurreren met de gtx280. Dat het ding de gtx 280 verslaat is niet eens een wonder. Het is ook zeker niet knap ofzo. De gtx 280 gebruikt veel minder stroom, wordt minder heet en presteert nog steeds goed.
Welkom bij de nieuwe strategie van AMD.
Begrijp me niet verkeerd! Ik vind de hd4870x2 nog steeds een goede kaart. Maar vind het gewoon niet eerlijk om multi-gpu kaarten te vergelijken met single-gpu kaarten.
Nogmaals... welkom bij de nieuwe strategie van AMD. Doordat AMD nu afwijkt van de strategie ontkom je er niet aan om multi-GPU te vergelijken met single-GPU. De tijden zijn veranderd.

Was het eerlijk om een singlecore CPU te vergelijken met een dualcore CPU? Of later een Quad Core CPU met een Dual Core? Misschien niet, maar toch deed iedereen het omdat dat was wat je kocht. Je kocht een CPU en toevallig zaten er op die ene 4 cores en had de concurrent alleen nog maar een CPU met 2 cores. Maar dat was wat er beschikbaar was en dat is wat je vergelijkt... zeker als ze beide ongeveer hetzelfde kosten. Dat is hier op dit forum al vaak gebleken... mensen vergelijken dingen die ongeveer gelijk geprijst zijn.
Dat de rv790 niet gaat concurreren met de gtx 285 verbaast mij echt niet. Ik vraag me alleen af of dit dan wel een volwaardige opvolger van de rv770 kan zijn. Ati moet echt wat gaan doen aan energie verbruik en warmteontwikkelling op een gpu's. Vapor Chamber koeling is zeker weten benodigd voor zo'n hoog geclockte gpu. Hij zal dus denk ik niet extreem koel gaan runnen maar gelijk gaan lopen met de nV kaarten qua temp.
Hoezo kan het geen waardige opvolger zijn? Pak de geschiedenisboeken er nog eens bij:

R300 (9700Pro) -> R350 (9800Pro) -> R360 (9800XT). Waarschijnlijk nog kleinere stappen dan RV770 -> RV790
R420 (X800) -> R480 (X850). Amper verschil in performance, toch een waardige opvolger
R600 -> RV670. Niet echt veel sneller, maar toch een volwaardige opvolger vanwege de vele tweaks.

En vapor chamber cooling zit straks op alle high end AMD kaarten, dus maak je daar maar niet ongerust over.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Weiman
  • Registratie: September 2007
  • Laatst online: 29-05 15:26
Geweldig artikel.. aangezien ik veel Source Games speel zou ik maar wat graag een 2e 4870 halen..maar ja, dan loop je met een E6600@ 3.4Ghz al vrij snel tegen een bottleneck aan lijkt me.

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Mwa, ik denk dat je nog wel een stap winst pakt hoor. Een E6600 @ 3,4 Ghz doet niet echt onder voor een E8500 @ stock. De E6600 zal zelfs wat sneller zijn.

Acties:
  • 0 Henk 'm!

Anoniem: 286793

Nogmaals: Ik ben zeker niet tegen de hd4870x2 alleen omdat jij zo hard loopt te hameren om puur technische specificaties en zegt dat de gtx 2850 inefficiënt is zeg ik dat je eerst eens even moet kijken naar hoe inefficiënt de hd4870x2 is!

Ik vind de vergelijking single core tegen duo core en quad core zeker weten niet terecht. Je kunt het beter vergelijken met 2 sockets op 1 mobo. Ik snap je punt wel. Een hd4850x2 is bijv. net zo duur gtx 260 en toch presteert hij beter MAAR er zijn ook nadelen. Het stroomverbruik, de warmteontwikkeling en natuurlijk de drivers. Bovendien worden alle ontwikkelingen doorgevoerd via single-card technologie. Dit maakt echter niks uit voor de prestaties van de kaart.

Dat de gtx 260 op een grotere chip is gemaakt maakt geen reet uit voor de prestaties op wat voor gebied dan ook. Dual-gpu kaarten zijn niet efficiënt en dat zullen ze voorlopig ook niet worden. De ati kaarten zijn goedkoper. De rest ligt in het voordeel van Nvidia. De performance is min of meer gelijk tussen hd 4870 en gtx 260 en tussen de gtx 295 en hd4870x2.

Nu is prijs misschien wel een van de belangrijkste factoren (zo niet de belangrijkste). Afhankelijk van de consument is wat hij belangrijk acht. Wil hij een energie-efficiënte en meer betalen of wil hij toch liever een goedkopere oplossing.

Ik ben zeker niet tegen ati hoor. Ik ben eerder een voorstander maar ik kan niet begrijpen dat Nvidia de grond in wordt getrapt om niet relevante redenen. Daarbij komt ook nog eens dat nV een groter markt aandeel heeft dan amd.

En nog ter verduidelijking: ik ben niet tegen dual-gpu graka's. Als ze maar energiezuinig zijn en niet te veel warmte ontwikkelen.

[ Voor 41% gewijzigd door Anoniem: 286793 op 24-02-2009 15:43 ]


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
CJ schreef op dinsdag 24 februari 2009 @ 11:31:
Volgens mij snapt Ritsaart de strategie van AMD nog niet helemaal die ze zijn gestart toen ze in 2005 met de ontwikkeling van de RV770 zijn begonnen (en in iets mindere mate een jaartje eerder met RV670).

Dus nogmaals.... AMD wil helemaal geen GPU bouwen die concurreert met de GTX285! De GT200(b) is een enorm grote logge GPU die wat betreft performance erg inefficient is in vergelijking met de RV770. Ze gaan voor klein en snel en richten zich op de midrange. De highend wordt bedient met multi-GPU setups. Lees dit artikel op Anandtech nog eens. The RV770 Story: Documenting ATI's Road To Success. Misschien wordt het dan allemaal wat duidelijker.
Je hebt zeker gelijk met je verhaal, maar ik ben bang dat je het toeval in dit geval toch een beetje onderschat. Ja, AMD staat er op dit moment fantastisch voor, en nu lijkt hun nieuwe strategie vruchten af te werpen, maar de vraag is in hoeverre dit te wijten valt aan de belachelijk slechte staat van NVIDIA op dit moment. Je geeft het zelf al aan in je post, GT200(b) is inefficient, voornamelijk op het gebied van perf/mm2. De fantastische perf/mm2 van G80 lijkt totaal niet mee te schalen naar G92, laat staan G200. De vraag is wat de situatie zou zijn als NVIDIA's 65nm chips niet zo'n enorme clusterfuck waren geweest en wel op tijd waren gelanceerd met de "juiste" clocksnelheden. We konden bij RV670 al zien dat AMD ondanks de nieuwe strategie toch niet op kon tegen G92, met alle gevolgen van dien.

Vergeet niet dat AMD's nieuwe strategie, ondanks alle mooie praat over "focus op de mid-range", waarschijnlijk gewoon geen keuze was. ATI had gewoon niet het geld en de mankracht om in het high-end segment met NVIDIA te kunnen concurreren, waar R600 een mooi voorbeeld van is (of ze hadden gewoon pech, dat kan ook, maar het punt blijft ;)) Het is gewoon veel en veel goedkoper om je te richten op het mid-range segment.

Acties:
  • 0 Henk 'm!

  • exodude
  • Registratie: December 2008
  • Laatst online: 08-08-2023
Anoniem: 286793 schreef op dinsdag 24 februari 2009 @ 15:31:
Nogmaals: Ik ben zeker niet tegen de hd4870x2 alleen omdat jij zo hard loopt te hameren om puur technische specificaties en zegt dat de gtx 2850 inefficiënt is zeg ik dat je eerst eens even moet kijken naar hoe inefficiënt de hd4870x2 is!

Ik vind de vergelijking single core tegen duo core en quad core zeker weten niet terecht. Je kunt het beter vergelijken met 2 sockets op 1 mobo. Ik snap je punt wel. Een hd4850x2 is bijv. net zo duur gtx 260 en toch presteert hij beter MAAR er zijn ook nadelen. Het stroomverbruik, de warmteontwikkeling en natuurlijk de drivers. Bovendien worden alle ontwikkelingen doorgevoerd via single-card technologie. Dit maakt echter niks uit voor de prestaties van de kaart.
Nu moet ik even inspringen,

1. De drivers van Ati werken fantastisch, doet wat het moet doen en nog nooit problemen mee gehad.
2. dual core met quadcore vergelijken is wel terecht, je betaalt er ook voor dus wilt ook het beste.
3. Warmte is niet echt een groot probleem, de kaarten kunnen er tegen.
4. Stroom verbruik valt wel mee in principe, als stroom koste je zoveel intresseert zet je maar wat minder lampen aan en je TV uit of nog beter, doe alle elektra uit je huis.

En single/dual card, 2 R700 chips bij elkaar hebben bijna hetzelfde oppervlak als een Nvidia GT200.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 12-07 21:12

Edmin

Crew Council

get on my horse!

Anoniem: 286793 schreef op dinsdag 24 februari 2009 @ 15:31:
Nogmaals: Ik ben zeker niet tegen de hd4870x2 alleen omdat jij zo hard loopt te hameren om puur technische specificaties en zegt dat de gtx 2850 inefficiënt is zeg ik dat je eerst eens even moet kijken naar hoe inefficiënt de hd4870x2 is!
Hij is anders inefficient. Qua stroomverbruik minder goed, maar qua prestaties per mm zeker een klap beter.
Ik vind de vergelijking single core tegen duo core en quad core zeker weten niet terecht. Je kunt het beter vergelijken met 2 sockets op 1 mobo. Ik snap je punt wel. Een hd4850x2 is bijv. net zo duur gtx 260 en toch presteert hij beter MAAR er zijn ook nadelen. Het stroomverbruik, de warmteontwikkeling en natuurlijk de drivers. Bovendien worden alle ontwikkelingen doorgevoerd via single-card technologie. Dit maakt echter niks uit voor de prestaties van de kaart.
Dit argument is al zo oud als de invoering van multi-chip graka's en multicore CPU's. Het enige dat telt is het product. Wat kost het, wat presteert het, hoeveel stroom vreet het, enz. Wat dan exact de interne layout van het product is, zal me een zorg zijn. Jouw redenering volgend zou ik ook kunnen stellen dat het vergelijken van 55nm chips met 65nm chips niet zou mogen.
Natuurlijk zijn er nadelen en voordelen aan multi-chip. Deze mag je allemaal meenemen in de vergelijking. Maar multi-chip zelf, als argument, niet. Het is een beetje de discriminatiewetgeving binnen pc land ;) Je mag een blanke en een neger alleen op hun merites beoordelen, niet op hun huidskleur.
Dat de gtx 260 op een grotere chip is gemaakt maakt geen reet uit voor de prestaties op wat voor gebied dan ook. Dual-gpu kaarten zijn niet efficiënt en dat zullen ze voorlopig ook niet worden.
Dual chip kaarten worden met elke generatie en elke driver update efficienter. Tijd om onder de steen vandaan te koemn! :)
De ati kaarten zijn goedkoper. De rest ligt in het voordeel van Nvidia. De performance is min of meer gelijk tussen hd 4870 en gtx 260 en tussen de gtx 295 en hd4870x2.
Dat betekent dat voor de meeste consumenten de ATi de betere keus is. Voor mij zijn allen prijs en prestatie van belang. Hitte? I could not care less. Zelfde verhaal voor power consumption (alles binnen bepaalde perken uiteraard).
Nu is prijs misschien wel een van de belangrijkste factoren (zo niet de belangrijkste). Afhankelijk van de consument is wat hij belangrijk acht. Wil hij een energie-efficiënte en meer betalen of wil hij toch liever een goedkopere oplossing.
Juist, de consument moet zelf inschatten hoe waardevol het voor hem is.
Ik ben zeker niet tegen ati hoor. Ik ben eerder een voorstander maar ik kan niet begrijpen dat Nvidia de grond in wordt getrapt om niet relevante redenen. Daarbij komt ook nog eens dat nV een groter markt aandeel heeft dan amd.
Dit is het ATi topic en CJ is zo ongeveer Mr. Ati himself...wat had je dan verwacht? ;) Overigens waren velen van ons ook zeer te spreken over bijv. de 8800GTX hoor. Je laatste opmerking raakt echter kan noch wal. Marktaandeel is voor de discussie niet van belang. Intel, dat heeft pas een groot marktaandeel op de grafische markt!
En nog ter verduidelijking: ik ben niet tegen dual-gpu graka's. Als ze maar energiezuinig zijn en niet te veel warmte ontwikkelen.
Whatever floats your boat... en wellicht is 2x4830 dan een leuke voor je.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13-07 14:50
de fout is gewoon dat er gekeken wordt naar de ''snelste kaart''. Veel belangrijker dit keer is wat kost die?
voor zowel Nvidia als de klant..... voorheen was die vraag veel minder interessant omdat bijde fabrikanten ongeveer even grote chips (en prijzen) hadden.

Natuurlijk kan Ati ook wel een grotere (en dus veel duurdere) chip bouwen. probleem hiervan is dat die veel meer moet kosten en qua winst niet zoveel meer opleverd. zijn de yields dan matig (zoals bij nvidia is/was?),dan is je ''afval'' erg duur of moet de langzamere mid/low-range kaart die je ervan bouwd ook weer duurder verkocht worden. Bovendien is dan je ''klantenkring'' ook iets beperkter want niet iedereen kan/wil 300+ euro neerleggen voor een kaartje.

Ati heeft dan misschien niet de snelste single gpu kaart, het heeft ze bepaald geen windeieren gelegd!
kijk maar naar de verkoopaantallen en groeiend marktaandeel sinds de rv770.
Nvidia is trots op het feit dat zij de snelste hebben, maar balen van het feit dat hij inefficienter is en zo verrekte duur is om te maken. Had die dezelfde kostprijs en snelheid, dan hadden ze een superchip.
aan de andere kant: wat was er gebeurt met Nvidia als hij net iets trager was geweest als de rv770 en dus wel veel duurder qua kostprijs?? Juist......... het is maar goed dat hij iets sneller is!

Acties:
  • 0 Henk 'm!

Anoniem: 286793

@ ED_L

Klopt allemaal wat je zegt. Ik ben ook zeker niet tegen dual-gpu's! Het gaat erom hoe de kaart presteert en hoeveel hij verbruikt. Het maakt eigenlijk niet zoeveel uit of hij nou dual-based is of dat hij nou single-slot is.

Ik bedoel alleen dat als je een single-based gpu en een dual-based gpu met elkaar gaat vergelijken op basis van de techniek die erin zit en dan vervolgens zegt dat de dual-based slimmere techniek gebruikt enz. vind ik dat een beetje raar.

Marktaandeel is een goede indicator van hoe bedrijven ervoor staan. Het heeft niks te maken met de kwaliteit van de producten die ati uitbrengt maar het wil echter wel zeggen dat nV ondanks de geweldige Rv770 en de mid-range-strategie van ati nog steeds boven aan staat. En idd intel staat er nog beter voor

[ Voor 24% gewijzigd door Anoniem: 286793 op 24-02-2009 17:07 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nog even over de "inefficientie" van de GT200(b). Misschien helpt het als je weet dat zelfs mr. nVidia himself, Jen-Hsun Huang heeft toegegeven dat deze GPU inefficient is voor de gamersmarkt. De ontwikkeling van de GT200 werd namelijk vooral gedreven met CUDA in het achterhoofd.

In de GT200 zitten zaken in die amper in games gebruikt worden, maar puur in de GPU zitten om general purpose computing sneller te maken. Haal dit weg en de chip wordt een stuk kleiner en daardoor wordt ook de efficiente per die-size een stuk groter.

Wat er extra in zit wat amper gebruikt wordt? Denk bijvoorbeeld aan de FP64 double precision units. De GT200 heeft 240 single precision (FP32) shaderunits opgedeeld in 10 clusters van 24 (3 x 8 SPs). Per 8 SPs heeft NV er ook nog een double precision (FP64) shaderunit aan toe gevoegd voor een totaal van 30 units. Eigenlijk heeft de GT200 dus 270 shaderunits. Maar.. er zijn amper games (volgens mij geeneen) die gebruik maken van FP64. De meeste games maken gebruik van 8-bits integer of 16-bits floating point.

RV670 en RV770 kunnen ook FP64 aan... maar deze bezitten geen native FP64 shaderunits zoals de GT200. AMD heeft dit 'slimmer' aangepakt op een manier die geen extra ruimte koste op de GPU. Hoe dan? AMD heeft 160 shaderunits die elk bestaan uit 5 streamprocessors voor een totaal van 800 streamprocessors. Van die 5 zijn er 4 identiek. Elk groepje van 4 kan samenwerken om samen een FP64 bewerking uit te voeren. Niet alleen zijn er dus meer 'virtuele' FP64 units (160), maar deze zijn ook nog eens een stuk sneller dan de 30 van de GT200 (240 Gflops vs 78 Gflops).

Zo zitten er nog een aantal dingen in die NV er in heeft gestopt om goed aan te sluiten op general purpose computing en CUDA, maar waar de gamer uiteindelijk weinig aan heeft. Haal dit weg en je krijgt een veel kleinere GPU, die veel gestroomlijnder is, goedkoper te maken is, maar in games net zo snel of misschien wel sneller is (omdat je ruimte hebt voor bv meer SPs). GT212 zou datgene van GT200 moeten worden... een getweakte, slankere chip, maar wel erg snel... een beetje net zoals de G92 een getweakte, slankere, maar snellere uitvoering was van de G80, zo zou de GT212 dat moeten zijn van de GT200/GT206.

Over marktaandeel.. dat zegt ook niet alles. Intel heeft het grootste marktaandeel met z'n geintegreerde GPUs die nog geeneens in staat zijn om Crysis op 800x600 te spelen zonder alles op low te zetten. Blijkbaar kan je dus de grootste zijn door de slechtste GPUs te bouwen.

En wat zagen we laatst gebeuren? nV zag jaar op jaar z'n winst veel meer kelderen dan de ATI Graphics Division van AMD, ondanks dat ze nog net iets meer marktaandeel hebben. Een 'geweldige RV770' zoals jij het noemt, brengt niet met een vingerknip een ommeslag. De R300 zorgde er ook niet in 1x voor dat ATI toendertijd een groter marktaandeel had. Mensen kochten nog trouw de GF4 Serie en de GeForce FX kaarten... pas toen R350 en R360 ook duidelijk beter waren ging het grotere marktaandeel op ATI over.

De laatste kwartaalcijfers lieten al een verandering zien.... een verandering die zich kan doorzetten... of juist niet... afhankelijk van het succes van de RV740 en RV790 en aan de andere kant natuurlijk de GT212 (en derivaten). Dat het vooral RV740 is die hoge ogen moet gooien mag duidelijk zijn, immers zit die in een segment die lucratiever is dan die van de RV790. Echter is de situatie nu niet te vergelijken met de tijden van de R3x0 GPUs. Toendertijd ging men vooral voor performance (de oude strategie). Nu gaat men voor prijs/performance.

De strategie van AMD is veel performance brengen voor weinig geld. Iemand enig idee wat de strategie van nVidia is? ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

exodude schreef op dinsdag 24 februari 2009 @ 15:47:
[...]
En single/dual card, 2 R700 chips bij elkaar hebben bijna hetzelfde oppervlak als een Nvidia GT200.
Deze redenering gaat maar half op. Qua die size komt het misschien wel overeen, maar als je wafers moet bakken met grote GT200 chips moet je veel meer langs de randen van de wafer weggooien. De RV770 chip is kleiner, zodat ook de hoekjes aan de randen kleiner zijn. In dit opzicht is een prijs per mm² op een RV770 lager dan de prijs per mm² op een GT200 chip (bij gelijke yields uiteraard).

En daarbij komt dat een kleine RV770 zeer waarschijnlijk betere yields haalt dan een enorme GT200 GPU. Je hoeft er dan minder weg te gooien waardoor de prijs per mm² weer in het voordeel van AMD uitkomt.

Je kunt dan als argument aanvoeren dat AMD voor de HD4870 X2 ook nog extra silicon nodig heeft voor die PCI-Express switchchip, maar bij nVidia heb je zowieso ook al een extra chip op de kaart zitten bij de GT200 serie, namelijk de NVIO chip die niet in de core geïntegreerd kon worden.

Edit:
Het grote voordeel van AMD's strategie is dat ze zich nu helemaal kunnen focussen op het midrange segment met een zeer efficiente en moderne GPU. Deze kan dan direct weer gebruikt worden in een high-end X2 model, waarna er alleen nog maar een redesign gemaakt hoeft te worden voor het budgetsegment, waarbij een aantal rekeneenheden en de geheugeninterface ingesnoeid worden..

Van de GT200 hebben we nog steeds geen midrange en budget model gezien, ruim een half jaar na lancering van die GPU. De HD4600 en HD4300/4500 zijn al goed verkrijgbaar en hebben ook alle nieuwe technologie aan boord die de RV770 heeft. En op een 12e afgeleide van de G92 zit ook niemand meer te wachten toch?

[ Voor 24% gewijzigd door frankknopers op 24-02-2009 17:53 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Wat ik nog wel wil opmerken is dat Nvidia met die grotere GPU toch minder stroom verbruikt dan de kleinere ATI GPU.
Vreemd, je zou eigenlijk kunnen aannemen dat een GPU met een kleinere size zuiniger zou moeten zijn dan die met een grotere. Hoe is dat te verklaren, vraag ik mij af?

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 11-07 16:07
Zie het verhaal van CJ hierboven. Ik heb dit me ook afgevraagd, maar nu ik dit lees snap ik het wel. Die chip zit vol met meuk die niet gebruikt wordt.

Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Ja kan best wel zijn, maar intussentijd is het wel een feit dat Nvidia zuiniger is met het stroomverbruik. Voor sommigen irrelevant maar voor anderen toch belangrijk, ook qua temps en wat dat laatste betreft, ik persoonlijk ben daar wel gevoelig aan. Niet dat, dat mij zou weerhouden om een bepaalde graka te kopen maar ik hou daar toch wel rekening mee.

[ Voor 3% gewijzigd door hosee op 24-02-2009 18:54 ]

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Het ligt niet zo zeer aan de chip. Kijk naar de HD4850 of HD4830. Beide gebruiken ze dezelfde chip als de HD4870, maar toch verbruikt deze in deze opstelling minder dan zowel de GTX260 als de GTX280. Het is dus wel degelijk mogelijk om de RV770 zo in te stellen dat deze minder stroom verbruikt dan een GTX280. Echter door bepaalde zaken als GDDR5 geheugen wat niet te laag mag worden geklokt ivm artefacts gaat dat wat moeilijker bij de HD4870. Vergeet niet dat de RV770 de eerste chip is die gebruikt wordt icm GDDR5 geheugen. Het was zelfs nog een gok of GDDR5 geheugen wel klaar zou zijn wanneer de RV770 af zou zijn, laat staan dat men precies wist hoe het zou reageren wanneer het videokaartje compleet was.

Dat er veel geexperimenteerd is, zie je bv ook aan het bios die ik op mijn HD4870 heb zitten, waarvan AMD tegen me gezegd heeft dat dit een experimenteel bios was met andere voltages die uiteindelijk toch niet gebruikt werd op de retail versies.

Oh en tel er ook nog eens bij dat de GT200b in idle toestand eigenlijk de hele chip kan uitschakelen... simpelweg omdat alle belangrijke IO functies op een aparte chip zit (NVIO)... geen wonder dat de chip zuiniger is in idle mode... Het heeft dus een voordeel voor nV om een aparte NVIO chip te hebben... aan de andere kant moet nV voor elke GT200 chip die ze hebben, een extra NVIO chip bakken wat dus ook weer in de kosten mee telt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Duidelijk, had verder niet verwacht dat het geheugen daar ook van invloed op was, omdat ik ervanuit ga dat Gddr 5 zuiniger zou moeten zijn dan Gddr3 omdat het weer een nieuwer procedé is.
Maar goed, buiten dat heeft die NVIO chip blijkbaar wel invloed op het stroomverbruik, wat wel nadelig is voor de productiekosten maar toch wordt het geïmplementeerd. ATI zou eventueel ook zoiets kunnen gebruiken maar doet het niet. Waarom?

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
CJ schreef op dinsdag 24 februari 2009 @ 19:06:

Oh en tel er ook nog eens bij dat de GT200b in idle toestand eigenlijk de hele chip kan uitschakelen... simpelweg omdat alle belangrijke IO functies op een aparte chip zit (NVIO)... geen wonder dat de chip zuiniger is in idle mode... Het heeft dus een voordeel voor nV om een aparte NVIO chip te hebben...
Klinkt als een voor de gebruiker heel erg efficiënte kaart ;)

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!