Hmm, ik was me niet bewust dat we het hier vanuit consumenten oogpunt bekeken. Ik dacht meer dat we vanuit het technisch oogpunt spraken. Door je uitspraak leek het er op dat je bedoelde dat de X1800 wel technisch geavanceerder moest zijn en langer moest mee gaan, juist omdat-ie 4 maanden later gelanceerd werd. Mijn reactie was hierop dus dat dit niet het geval was, aangezien de ontwikkeling aan de R520 op technisch vlak al heel lang afgerond was.
Dat R520 laat is wil trouwens niet zeggen dat R580 ook later komt. Zie bv ook NV30 die snel opgevolgd werd door NV35. Ik vermoed echter dat de X1800 serie niet snel zal verdwijnen wanneer de R580 verschijnt, maar snel in prijs zal zakken richting het hogere midrange segment.
FirefoxAG schreef op vrijdag 04 november 2005 @ 00:02:
[...]
[...]
Het is inderdaad zo dat de X1800 OpenEXR HDR + AA kan doen. Dit is overigens ook de enige vorm waarbij de X1800 voordeel heeft t.o.v. de GTX, gezien met alle andere vormen van HDR ook AA gedaan kan worden op alle SM2.0 compliant kaarten.
Zoals al een aantal keren gezegd is... dat is niet helemaal waar.
De G70 kan:
- FP 16 OpenEXR HDR formaat (OpenEXR vereist minimaal FP16 en SM3.0 ondersteunen en dat is wat G70 biedt)
- SM2.0 manier van HDR (inclusief AA)
De R520 kan:
- FP16 (64-bit Floating Point, hoogste precisie, maar grootste performancedrop)
- Int 16 (64-bit Integer, iets minder hoge precisie dan FP16 en minder grote performancedrop)
- Int 10 (32-bit via 10:10:10:2, minder hoge precisie, maar snelheid van normale 32-bits rendering )
- Custom formats HDR (combinaties naar wens te gebruiken door devs)
Allemaal hardwarematige manieren van HDR inclusief alle vormen van AA (normaal, temporal, adaptive en superAA). Daarnaast dus nog eens natuurlijk de SM2.0 manier die alle DX9 kaarten zouden moeten kunnen.
"Alle andere vormen van HDR".. dat is er dus maar eentje. En die werkt inderdaad op alle DX9 kaarten maar heeft beperkingen zoals dat HDR niet werkt met refractions. Je kan bijvoorbeeld een cabriolet renderen waar de zon naar binnenschijnt via het open dak en dan hele mooi HDR effecten hebben, maar wanneer je door de voorruit kijkt, dan missen de HDR effecten. Dat is het nadeel van de Valve methode.
Volgens mij heeft ATi ook best veel transistoren besteed aan het laten werken van AA met HDR. En als kleine bonus kan de R520 ook 3Dc+ gebruiken op HDR om dit te versnellen. Aangezien 3Dc standaard in DX10 komt te zitten en de Xbox360 ook gebruik zal maken van HDR + AA en 3Dc, lijkt me dat dit straks een leuke bijkomstigheid is voor X1K bezitters. En ook wordt Tone Mapping standaard geacceleerd door alle X1K kaarten via de Avivo Display Engine (want alles werkt hier al op 10 bits precisie dus standaard worden effecten als color/gamma correction, tone mapping, light transport allemaal al hardwarematig versneld).
[b]Echter de performancehit van OpenEXR HDR in combinatie met AA is momenteel
zo catastrofaal voor de performance van de 512mb X1800XT (hebben we het nog niet gehad over de 256mb XT en XL)dat de feature zo goed als onbruikbaar is. We praten rustig over een 70%+ drop in framerate bij inschakeling van beide tegelijk. FarCry op 512mb XT: 1600x1200, HDR,
2xAA:
28 fps...
Dit is hetzelfde als dat een 6800NU OpenEXR HDR welliswaar ondersteund, maar er gewoonweg te langzaam voor is: feature onbruikbaar.
Zolang de performance van de X1800 op dit vlak niet drastisch verbeterd word zie ik het dus ook als niets meer dan een nutteloze gimmick. Je koopt een dergelijke kaart niet om op 1024x768 HDR+AA te spelen... nog afgezien van dat FarCry nog steeds de enige game is met een OpenEXR implementatie...

En daarom heeft ATi naast 64-bit (FP16/Int16) ook 32-bit HDR (Int10) geintegreerd (via 10:10:10:2). Eerst werd gedacht dat er FP10 HDR in zou zitten, maar Int10 doet er voor zover ik weet niet enorm voor onder. Het is een iets mindere kwaliteit HDR dan met een FP16 framebuffer of Int16 framebuffer, maar wel een stuk beter dan Valve's SM2.0 oplossing wat volgens mij 16-bit HDR met een Int8 framebuffer is. Correct me if I'm wrong want op dit tijdstip beginnen de framebuffer formats en interne precisies me een beetje te duizelen waardoor ik ongetwijfeld iets door elkaar haal

.. En verder heeft het geen last van de performancedrop die FP16 HDR wel heeft.
Het is alleen aan de devs om dit te implementeren in games. Ik geloof dat de Far Cry patch met HDR + AA in enkele uren geschreven was, dus zo veel moeite is het niet blijkbaar. De flexibiliteit van ATi's verschillende vormen van HDR + AA geeft developers een enorme vrijheid om toch betere HDR kwaliteit te krijgen dan de Valve methode en ook nog eens AA toe te kunnen passen, terwijl de performancedrop niet eens zo enorm groot hoeft te zijn (Int10 vs FP16). 62-bit HDR (FP16/Int16) gebruik je wanneer je de beste IQ wilt hebben met het grootste bereik. 32-bit (Int10) gebruik je als je de hoogste snelheid wilt gebruiken), custom formaten zoals Int10+L16 gebruik je voor de meest optimale performance.
Als je dan kijkt naar Far Cry, dan denk ik dat Cry Tek nog niet de meest optimale vorm van HDR gebruikt op ATi kaarten, maar ook dat de drivers (en de memorycontroller) nog veel kunnen bijdragen aan de performance in hogere resoluties. Percentueel gezien zorgt het aanzetten van 4xAA of 6x niet voor zo'n enorme performancedrop, maar is het HDR zelf wat voor de grote drop zorgt.
Als je dan kijkt naar SC:CT... die gebruikt ook HDR, en wel FP16 textures & surfaces, net zoals de FP16 HDR mode in Far Cry. Alleen het postfilteringprocess is anders als ik het me goed herinner. Als je hier de performance bekijkt, dan zie je dat het activeren van HDR in SC:CT op 16x12 maximaal een performancedrop heeft van 16.5% (55.8 fps normal vs 46,6 fps HDR). Bij de GTX is dit 22,7%. Bij Far Cry zie je juist dat ATi enorm veel inkakt, terwijl de GTX constanter daalt wat betreft performance. Dus het lijkt me dat zowel de devs van de games als de driverafdeling van ATi nog veel kunnen doen aan de HDR performance.
Overigens is SC:CT voor ATi ook niet echt een optimale vergelijkingsgame aangezien het SM3.0 path nog niet voor de X1K serie was geoptimaliseerd (zorgt bij nV voor een boost, terwijl ATi juist trager is met het SM3.0 path, maar sneller met het ATi SM2.0 path).

Dat kan natuurlijk niet. Het is nog geen 5 november. En ja, Amerika is natuurlijk altijd eerder in vergelijking met Europa, maar 2 dagen eerder dan beloofd is natuurlijk waanzin.

En helemaal belachelijk dat het ook nog eens twee verschillende versies zijn, een BBA en een Sapphire. Het is gewoon 1 groot complot van ATi om ons te laten denken dat de markt nu overspoeld wordt met X1800XTs, getuige het feit dat meerdere (online) winkels ze ineens op voorraad hadden maar binnen no-time uitverkocht waren.

Overigens was die ene gozer meteen klaar voor CrossFire. X1800XT + DFI CF mobo... nu nog wachten op de CrossFire editions.
Catalyst 5.11 zou ook wat boosts moeten brengen in een aantal DX applicaties, maar ook weer in specifieke gevallen en vooral in eye-candy modes en zeker niet zo groot als bij OpenGL. DX was meer geoptimaliseerd dan OGL voor de launch.
Check ook de link die ik iets eerder postte van Anandtech met het nieuws van de Asus X1800 Dual. Daar staat ook in dat we de R580 nog niet zo gauw hoeven te verwachten, maar dat 1 fabrikant al zat te praten over een R580 Dual. Aangezien Asus ook al een X1800Dual klaar heeft staan (en waarschijnlijk ook een X1800XT TOP) lijkt het me dat die R580 Dual dus van Asus afkomstig zou moeten zijn:
There was lots of talk about R580 and RD580 between all the manufacturers. R580, ATI’s successor to R520 (X1800), seems far too distant in the future to really talk about, unfortunately. One vendor in particular had already stated plans to build a practical dual-R580 board, but without specs, we could not confirm this. ASUS is apparently the only vendor with a dual X1800 graphics card, but like their individually numbered dual-G70 cards, don’t expect this to be an item that you’ll be able to buy at Fry's anytime soon. RD580, on the other hand, was widely cited all over Taiwan. In fact, RD580 will already start sampling this month – officially giving RD480 one of the shortest life cycles in computer product history. However, RD580 does boast some awesome features including 36 native lanes. Two of those will still be used for the interconnect to the south bridge (maybe even an ATI Southbridge!), leaving two lanes for PCIe 1x slots. The other 32 lanes could be configured however the manufacturer desires, but almost all will jump on the opportunity to have dual x16 lanes for Crossfire. NVIDIA new MCP, MCP55, will have only 28 PCIe lanes.
Nogmaals de link:
http://www.anandtech.com/...s/showdoc.aspx?i=2586&p=4
CrossFire op nForce4 moederborden
VoodooPC is nu aan het testen met een X850 CrossFire setup op een nForce4 moederbord en als ik het goed heb begrepen dan werkt dit gewoon vlekkeloos. Ze zitten nu met smart te wachten op X1800 CF Editions zodat ze de performance op nForce4 vs Radeon Xpress200 kunnen gaan testen:
Here’s the ultimate test – when ATi finally releases their Crossfire edition x1800 board I can’t wait to test it with an nForce4 vs the latest ATi chipset. Everyone knows Crossfire works with nForce4, and I think we’ll see the difference a chipset makes. I think the fact that ATi designed it to work independently of the chipset is the best feature of Crossfire. We’re currently evaluating Crossfire on nForce4 using 850XT’s (ATi paid us a visit last week), it should be interesting once we get some of the better motherboards in with ATi chipsets.
http://voodoopc.blogspot.com//[Voor 9% gewijzigd door CJ op 04-11-2005 05:48]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.