Anoniem: 126513 schreef op maandag 20 maart 2006 @ 15:56:
Serieus, Je gaat op AGP een dure X850 kopen?? Ik weet niet waarom maar hopelijk heb je hier een goede reden voor. Ik lig in een deuk als ik die AGP X850XT PE prijzen naast X1900XT in PW zie staan. Mja ieder zijn eigen(wijze) keuze zou ik maar zeggen...lol

De prijzen zijn inderdaad niet eerlijk verdeelt. Een X850XT AGP kost €269 terwijl een PCIe versie €199 kost. Het groene kamp heeft nog wel een ander leuk alternatief, de 7800GS AGP voor €270. Die heeft SM3.0 ondersteuning en kan je nog leuk overklokken.
OCbaarheid, tja je kan net zo goed zeggen dat ATi het slecht doet aangezien ze 100M transistoren meer hebben! En dan nog niet eens veel beter presteren, erg dure transistoren dan he. nVidia's transistors en shaders zijn dus een stuk efficienter/sneller.
Jij snapt geloof ik niet helemaal waar al die transistoren in gaan zitten bij ATi he?
Dat grote blok in het midden dat is de memorycontroller met z'n interne ringbus. Als ATi de oude memory controller had gebruikt, dan was de die-size een stuk kleiner geweest. Tel daarbij op dat het hele Avivo gebeuren ook hardwarematig is ingebouwd, waaronder de Xilleon TV encoder (was een aparte chip, maar is geintegreerd in alle cores van de X1K serie) en dan kom je wel op 320M voor R520 en R384M voor R580. In zo'n 60M transistoren heeft ATi 32 pixelshaderengines gestopt en ook nog eens de cache omhoog gegooid. Ik weet niet wat jij onder 'niet efficient' verstaat, maar dat is een behoorlijk efficient gebruik van transistoren.
Ok, dan zitten ze er voor de betere HQ mode argument, bij de meeste benchmarks is de presstatie in HQ mode gelijk of nauwelijks verschillend tussen de twee. En niet altijd ATi zoals er hier gezegd wordt, please open your eyes. De spellen waar ATi goed in was worden nu niet meer genoemd nu de GTX beter is in die spellen, wat een scheve vergelijkingen zeg.

Het wordt eens tijd dat je weet wat elke instelling precies inhoud bij ATi en nVidia. De meeste sites recenseren met gelijke instellingen, dus Quality vs Quality. Echter wordt er bij Quality van nV meer geoptimaliseerd dan Quality van ATi. Om Quality van ATi te vergelijken met de IQ van nVidia zou je het bij nVidia eigenlijk op Hi Quality moeten zetten. Maar dan nog is het nog niet allemaal koek en ei.
Lees deze topics eens door voor je weer commentaar geeft op IQ discussies:
http://www.3dcenter.de/artikel/neue_filtertricks/index3.php
http://www.3dcenter.de/artikel/radeon_x1900/index8.php#2Was bleibt also übrig: Auf der einen Seite bieten beide Hersteller enorm schnelle HighEnd-Hardware, die trotz erheblicher Architektur-Unterschiede sehr ähnliche Leistung erreichen. Auf der anderen Seite bencht fast jedes Hardware-Blatt immer noch mit performanceverzerrenden Standard-Treibereinstellungen, die wie bereits mehrfach deutlich gemacht, optisch nicht vergleichbar sind (siehe dazu auch unseren Artikel über das Texturenflimmern des G70-Chips).
Het is dus een kwestie van zorgen dat beide echt dezelfde IQ vertonen, of benchen zoals HardOCP dat doet door een speelbare framerate te nemen en dan te kijken welke opties er aan kunnen worden gezet.
Er zijn weinig benchmarks waar de XTX met 10 frames over de GTX gaat in HQ mode, de meeste helemaal niet, en de winst is net zo goed ook vaker voor nVidia hoor. Maar dit is een eindeloze discussie, vooral als men maar om de feiten heendraaid en de ene er beter wil laten uitkomen dan de ander.
Welke sites benchen met nVidia op HQ? Weinig. Maar als ze dat zouden doen, dan was het niet best. Zelfs zonder HQ zijn er al benches aan te tonen waar een XTX met meer dan 10 fps over de GTX heen gaat. En bij sommige games waar je nu al lage fps haalt kan 5-10fps een wereld van verschil uit maken...

Wat mij ergert is dat er een onterecht negatief beeld naar nVidia wordt geschoven, met loze argumenten, die de onervaren lezer een totaal vertekend plaatje geeft van de werkelijkheid.
Ik heb eerder het idee, dat ik aan het tegensputteren en zeuren van ATi voorstanders juist goed kan bepalen hoe goed nVidia het doet. Als ik naar sommige luister , heel goed dus.
Onterecht? Lees het artikel hierboven nog eens of blader er eens wat forums op na zoals Hardforum of het B3D forum.
En hoe je het ook went of keert. G71 is gewoon oude tech van een jaar geleden. Dat zeiden de nVidiots ook ten tijde van de X8x0 serie. Een jaar na dato nog geen HDR + AA, nog geen verbeterde dynamic branching, nog geen area independent AF... Mensen die echt prijs stellen op eyecandy modes horen te weten welke kaart dit wel kan en welke niet.
Ennuh, Ik heb nog erg weinig stock OC X1900's gezien. GTX'en zijn er al genoeg aangekondigt.
Dat is wel een duidelijke indicatie. De X1900XT clockt ook niet super over. Bij de 7900GT vind ik een OC van 100-150 MHz toch wel degelijk met stockkoeiling! X1800XL zeker vergeten he
www.xfxforce.com
www.evga.com
www.bfgtech.com
Laten we maar een maandje wachten, dan weten we tenminste echt hoe goed de OC baarheid van de GTX en GT zal zijn.
edit: typo, kleine toevoeging
Je vergeet een aantal dingen lieve schat. De X1800XL256 is niet meer de kaart die het op moet nemen tegen de 7900GT. Dat is de X1800XT256 en die staat goed z'n mannetje tegen de 7900GT en klokt ook lekker over naar TOP snelheden.En ja, GTX OC versies zijn er al genoeg aangekondigd. En net zo veel problemen zijn er mee gerapporteerd op de diverse fora. nVidia heeft gewoon de bal laten vallen. Ze hadden ofwel de 7900GTX sneller moeten klokken zodat er een meer overtuigende winst was, zoals de X1900XTX dat deed over de 7800GTX512 (alhoewel dit een slecht voorbeeld is aangezien deze slecht verkrijgbaar was en dus beter met de wel beschikbare normale GTX te vergelijken was), of ze hadden de GTX voor zo'n $399 moeten lanceren. Dan hadden ze iets om over op te scheppen. Nu is het vaak stuivertje wisselen met winst voor de XTX in eyecandy modes waar het de koper van een dure kaart toch om te doen is.
Dan is er op een ander forum nog iets over Oblivion gepost. Er schijnen dus wel optimalisaties aan tekomen voor singlecards van ATi, maar deze schijnt het minder nodig te hebben dan nVidia:
Eric told me that in e-mail Friday too. Bear in mind he's not on the software team. I was told by someone else, a hardware reviewer at a major site who chats with IHV employees quite a bit, both companies are working on updated drivers to tune performance now that they have final code (that's where my QuadSLI comment comes from). We'll see, it's certainly not worth arguing, though as the other poster suggested NVIDIA might have more work to get the game running as smoothly. A game reviewer who writes for CGW told me in e-mail last night that he ran the game on a 7800 GTX and then a X1900 XT and said, "wow, what a difference." His words, not mine.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.