Anoniem: 104593 schreef op zaterdag 07 januari 2006 @ 20:24:
Als de beeldkwaliteit van de 1600XT inderdaad veel verschild van de 6800GS dan is het logisch dat de Geforce het in benchmarks beter doet. Adaptive anti-alising en alle andere technische snufjes zijn denk "zwaarder" als het "gewone" spul waar de 6800GS het mee doet. ATi kaarten zijn meestal met de launch bagger. Maar zodra de drivers goede ondersteuning geven razen ze de nvidia kaarten meestal voorbij.
Ga er niet van uit dat je Adaptive AA serieus kunt gebruiken met de X1600XT... de kaart heeft regelmatig al voldoende moeite om zich zonder veel specifieke IQ opties (AA/AF) op "High" settings staande te houden op 1280x1024 en soms zelfs al 1024x768...
IQ opties zijn leuk, maar vrij zinloos als ze niet te gebruiken zijn omdat performance te veel te wensen overlaat om ze in te schakelen. De X1800XT heeft hetzelfde probleem met FP16 HDR+AA... het is op zich een prachtige feature, en een erg mooie kaart... maar de basisperformance met (FP16) HDR is op hoge resoluties onvoldoende, zelfs zonder AA. HDR (zeker HDR+AA) is op X1800's zodoende praktisch gezien onbruikbaar op - in ieder geval - reso's van 1600x1200 en daarboven. Ik vind ATi's HDR issues eigenlijk dringender dan nVidia's Dynamic Branching issues... het probleem van nVidia is een "
indien in de toekomst >
dan" probleem, terwijl de X1800's HDR problemen reeds op dit moment erg levend zijn. Dit is ook de reden dat ik uiteindelijk toch bij de GTX TOP gebleven ben.
Ik heb mijn Widescreen/HDR review trouwens ondertussen afgerond, en hoop dat ik 'm binnenkort op Tweakers mag plaatsen. De sterke punten van beide architecturen komen er mooi uit
Heb alleen nog geen reactie ontvangen... moet zo het niet kan opzoek naar een alternatieve "ophangplek"

Over het algemeen is de 6800GT met zijn 16 pipelines net sneller dan een niet overklokte 6800GS

Daarnaast heeft F.E.A.R. ook veel baat bij de 12 TMUs die in de GF6800GS zitten, terwijl de X1600XT het er maar met 4 moet doen. Tel daarbij op de 12 ROPs die er voor zorgen dat het beeld sneller gevuld kan worden en AA sneller kan worden uitgevoerd, en de enorme sloot aan bandbreedte...
Het verrassende is dat FEAR op de X1600XT sinds de ATi driverfix juist wat beter schijnt te presteren dan de 6800GS

Op de vraag wanneer we de eerste echte DB voordelen zien... Hoe lang duurde het voordat we de eerste echte DX9 games op de markt zagen nadat de 9700Pro op de markt kwam? Far Cry kwam in begin 2004 uit. De 9700Pro in Augustus 2002.
Als de eerste leaks waarheid zijn over 3DMark2006 dan is een X1800XT tot bijna 2x sneller (of meer) dan een 7800GTX. Ben benieuwd of HDR + AA standaard wordt en hoeveel dynamic branching erin gebruikt gaat worden.
3DMark loopt over het algemeen 1-2 jaar voor op de gamedev's... gezien gebruikmaking van DB een vrij stevige verandering van werkwijze bij de dev's vereist denk ik inderdaad dat de eerste "echte" DB games tegen eind dit jaar / begin volgend jaar zullen beginnen te verschijnen.
Ik heb echter sterk het vermoeden dat veel dev's een overgangsperiode met zowel een static als dynamic branching pad zullen hanteren, omdat ook de oudere DirecX9 kaarten voorlopig ondersteund moeten blijven natuurlijk
Of Xenos de dev's zal "dwingen" tot het gebruik van DB valt nog te bezien. Ik denk dat Xenos in combinatie met de triple core IBM PowerPC meer dan voldoende power in huis heeft om 1080i ook middels een static pad met zeer hoge IQ te draaien.
[
Voor 60% gewijzigd door
Cheetah op 07-01-2006 21:42
]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz