Voeg Far Cry, Battlefield 2142, Guild Wars, zo'n beetje alle andere Source Engine games naast HL2 en Oblivion ook maar aan het shimmer- / moiré lijstje toe.
Oblivion werd zelfs nog genoemd in de recentie van de X1950Pro op
Bit Tech:
Even with NVIDIA’s drivers forced to high quality, there are still areas of the scene that suffer from texture shimmering, it’s just not as profound or noticeable as it is when the driver quality settings are at their defaults.
Wat betreft AA, daar kan je nog uren over door discussieren. ATi heeft 6xAA waar nVidia's 4xAA niet aan kan tippen, terwijl de performance niet enorm veel ineen kakt. Gebruikt nVidia 8xAA dan ziet het er iets beter uit vanwege het gebruik van supersampling, maar dan duikt de performance ineen. Da's ook weer zo'n afweging...
De meeste recente reviews geven de 4xAA modus een gelijk spel. De een is hier niet enorm superieur aan de ander. Maar ook hier wordt er weer op bepaalde gebieden met twee maten gemeten. ATI's AA doet bijvoorbeeld standaard gamma correction (niet uit te zetten), terwijl je dit bij nVidia zelf aan moet zetten in de drivers. Ook niet alle reviews letten hier op, terwijl dit ook een klein verschil kan uitmaken in performance. Daarnaast hebben de verschillende AA algoritmes ieder hun voordelen. De een ziet er beter uit op bepaalde hoeken dan de ander.
Xbit Labs die over het algemeen toch vrij grondig is in hun reviews komen tot de volgende conclusie:
- Nvidia’s 2xQ (MSAA 1x2, also known as Quincunx) it the lowest quality antialiasing today. While it does smooth edges, textures become really blurry sometimes.
- ATI’s 2x MSAA mode is a little better than Nvidia’s 2x MSAA;
- 4x modes for ATI and Nvidia offer more or less equal image quality.
- ATI’s 6x mode is better than Nvidia’s 4x, but is not as good as Nvidia’s SLI AA 8x, even though, the latter is a little bit more blurry than ATI’s 6x.
- Nvidia’s SLI AA 8x is not as good as the 8xs, which is basically the best now.
- It is not obvious that SLI AA 16xs is better than the 8xs
- Nvidia’s Transparent AA Multi-Sampling hardly does any job at all.
- ATI’s “Performance” Adaptive AA is clearly better than Nvidia’s Transparent AA multi-sampling, but is obviously not as good as “Quality” Adaptive AA.
- Nvidia’s Transparent AA Super-Sampling is a little bit more accurate than ATI’s “Quality” Adaptive AA.
Bron:
http://www.xbitlabs.com/a...uality_vs_quantity_4.html
Daarnaast zie ik je steeds vaak tussen haakjes zeggen "HQ AF van ATI daargelaten", maar dat kan je gewoon niet zo maar even achterwege laten. Het is een optie die de ATI kaarten kunnen en in steeds meer recenties aan wordt gezet omdat de IQ er dan een stuk beter uit ziet, terwijl het niet veel performance vreet. Is het dan eerlijk om dit te vergelijken met NV's IQ op Quality?
Xbit Labs legt het ook weer mooi uit:
However, one of the things that our reviews generally lacked was the image quality (IQ) comparison. This was due to the fact that at some point in the past we set up pretty similar settings for ATI and Nvidia ensuring that there were no image quality differences, and then just kept on using them without comparing the IQ head to head. But recently we have discovered that on our test settings Nvidia GeForce 7-series hardware produced considerably lower image quality when compared to ATI due to lower-quality trilinear filtering. In addition, ATI Radeon X1000 supports high-quality angle-independent anisotropic filtering. On the other hand, Nvidia has very fine 8xs antialiasing supported across the board, which would leave gamers guess, who is producing the highest quality 3D world.
Naar mijn mening moet een review op high end kaarten gewoon altijd de hoogst mogelijke IQ settings gebruiken wanneer het aankomt op filtering. Het kan best zijn dat er games zijn waarin je weinig verschil ziet tussen Quality en High Quality op nVidia kaarten, maar de lijst met games die wel shimmering en moiré problemen hebben is zeker niet te verwaarlozen. Op screenshots zie je problemen vaak niet, maar zie je het pas echt in game. Dat is iets wat veel reviewsites nu eindelijk beginnen te merken.
Voor degenen die niet weten wat het verschil is tussen filteringmanieren op Quality en High Quality bij nVidia:
Quality |  |
High Quality |  |
Bij ATI met High Quality AF aan:
Catalyst AI standaard |  |
Catalyst AI Disabled |  |
Catalyst AI Advanced |  |
Hoe je het ook went of keert, het verschil in IQ is gewoon groot wanneer het filtering op aan komt. In sommige games zie je het misschien niet (zou dit komen door ingame filtering settings?), terwijl je het wel in andere ziet. Het zou een enorme berg werk zijn om per game te moeten analyseren welke instelling het beste IQ oplevert per kaart, dus gewoon voor de hoogste setting gaan lijkt me het beste. Reviewsites die nu ATI standaard op High Quality AF recenseren, gaan ook niet per game kijken of HQ AF daadwerkelijk wel een IQ boost geeft, want er zijn ook games die er minder van profiteren, maar waar dan wel een kleine performancehit te zien is gewoon puur door het feit dat de ATI-kaart op dat moment veel meer werk moet verrichten. Maar daar hoor je niemand over zeuren dat reviewsites eerst moeten checken of HQ AF wel nut heeft, omdat het zonde zou zijn om fps in te leveren voor een optie die eigenlijk weinig effect zou hebben.
Ongetwijfeld zullen er mensen zijn die niets om filtering geven en voor pure FPS gaan. Dan zou het misschien handig zijn om naast de IQ vergelijkingen beide ook gewoon te testen op performance instellingen ongeacht hoe blurry het ook wordt... maar ik kan me niet voorstellen dat je met een kaart van €400+ genoegen neemt met blurry.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.