Xenos heeft 48 5D shaders. R580 heeft 48 4D shaders.Astennu schreef op donderdag 30 november 2006 @ 13:28:
[...]De Xenos heeft wel 48 4D Shaders. Ik heb trouwens het idee dat dat ED-Ram niet gebruikt wordt om AA mee te berekenen.
Xenos: Vec4 + Scalar
R580: Vec3 + Scalar
Het dochtergedeelte van de Xenos waar het eDRAM in zit, heeft ook de logica in zich om AA te doen. Dat is een van de redenen waarom Xenos 4xAA zonder al te grote performance penalty kan doen (max zo'n 4 a 5%).
Dat komt wel goed met de IQ. En wat dat betreft zit ATI al op een goed peil wat betreft IQ. Bij nVidia viel de stap van G71 naar G80 meer op omdat de IQ van de G71 op veel een lager peil stond dan de R580. Bv het shimmeringprobleem was gewoon een voorbeeld van iets wat niet had mogen voorkomen op een high end kaart.RappieRappie schreef op donderdag 30 november 2006 @ 14:57:
Zou die R600 ook zulke goeie AF kunnen produceren? Want dat heeft nV wel HEEL goed voor elkaar op dit moment. We hebben het wel aldoor over snelheid, maar what about the IQ? (Dat was/is toch "het belangrijkste" van ATi?)
R580:
- tot 6xMSAA
- HiQ AF
- HDR + AA
- hardware matige ondersteuning voor verschillende formaten HDR
Dat zijn allerlei dingen die G80 er bij heeft gekregen, maar die het ATI kamp al een jaar lang had. NVs marketing machine weet het echter zo te brengen dat zij de eersten zijn. Als je het moet inschalen op een schaal van 1 tot 10 wat betreft de balans van IQ (en IQ opties) dan zou je een enkele R580 bv een 8 kunnen geven, terwijl G71 een 6 zou krijgen. G80 is nu richting de 9 gegaan en ATI gaat hier weer over heen. Slechter doen ze niet, dus ga er maar van uit dat er iets interessants aan staat te komen.
Dat is nou net wat ATI al meer dan een jaar de mensen aan hun verstand probeert te peuteren... Shaderpipelines bestaan niet meer! Al sinds de X1600XT en X1900 is ATI afgestapt van het hele shaderpipeline gedoe, sinds die tijd spreken ze daarom van Shaderprocessors. nVidia noemt het natuurlijk net iets anders... bij hun heten ze Streamprocessors, maar ze bedoelen eigenlijk het zelfde.RappieRappie schreef op donderdag 30 november 2006 @ 15:21:
[...]
Ik heb net nog ff dat stukje van HWI gelezen, en de G80 heeft idd "gewoon" shaders ipv pipelines zoals ik dacht.
Dus pipelines zoals we die kenden"zijn niet meer"?
Alles is los gekoppeld. Pipelines zoals we die vroeger kenden, bestaan niet meer.
4 jaar is bijna net zo lang als ATI. ATI begon in 2001 met de R400, wat later evolueerde in de Xenos en R600. Wist je trouwens dat er binnen ATI mensen waren die van R520 al een unified architecture wilden maken?Hacku schreef op donderdag 30 november 2006 @ 15:29:
[...]
nVidia ook. Juist daarom verwacht ik zeker geen 50% boost van de R600 over de G80. De chip is 4 jaar in ontwikkeling, deze zomer hadden ze de eerste samples, kortom een chip die zo goed als klaar is.
De performance van G80 was al wel een tijd terug gelekt en ik neem aan dat dat soort dingen slecht geheim blijven, zeker gezien het feit dat er veel nV medewerkers bij ATI werken, maar ook omgekeerd. Ook al weet men niet precies wat er aan gaat komen, ik denk dat het beeld wat men heeft van de concurrentie wel vrij nauwkeurig is.Pas in oktober wordt de G80 performance bekend gemaakt en op die paar maanden tijd kan ATI onmogelijk die chip zo gaan aanpassen dat het plots een monster wordt.
Of 80nm (High Speed) nou zo'n voordeel is, weet ik niet. ATI's trackrecord met het klokken van GPUs is niet zo goed (op R300 na dan). R420 stond ook eerst gepland voor 600Mhz. Wel een voordeel is dat dit de tweede generatie unified is voor ATI en dat veel gamedevelopers al voor ATI unified hardware hebben geprogrammeerd namelijk voor de Xbox360.ATI heeft inderdaad reeds ervaring met unified shaders maar dat geldt ook voor nVidia, aangezien de G80 ook zo'n 4 jaar in ontikkeling is. ATI heeft wel voordeel met het 80nm procédé om daarmee waanzinnige kloks te halen (700 MHz ?) maar het blijft opvallend dat ATI steeds hogere kloks nodig heeft om minimaal dezelfde performance van nVidia te halen.
Overigens ben ik het niet eens met de stelling dat ATI steeds hogere kloks nodig heeft om minimaal dezelfde performance van nVidia te halen. Dan kijk je puur naar de kloksnelheid en niet naar het aantal bewerkingen die gedaan kunnen worden per klokslag.
Neem als voorbeeld R420 vs NV40 of R520 vs G70. De shader engines in de kaarten van nV konden meer bewerkingen aan per klokslag, waardoor een lagere kloksnelheid nodig was. Bij G70 kwam daarnaast nog eens het feit dat deze 8 fragment pipelines meer had. R520 moest dus hoger geklokt worden om dezelfde performance te halen en nog iets hoger om sneller te zijn. Maar daarnaast had de R520 wel betere IQ.
Bij R580 veranderde de boel weer. ATI maakte de shaderpipelines breder. In vergelijking met de gelijk geklokte G71, wint de R580 de meeste DX9 benchmarks. Dus hier gaat het al niet op dat ATI steeds sneller geklokte kaarten moet hebben om nV bij te houden.
Waarom denk je dat G80 z'n shaders op 1350Mhz heeft geklokt en niet op 675Mhz? De shaderengines zijn simpeler geworden, dus moeten ze sneller draaien om meer performance te leveren. Als R600 inderdaad 96 shaders heeft die allemaal 4D (of zelfs 5D) zijn ipv de 1D (scalar) shaders van de G80, dan zou R600 helemaal geen hogere snelheid hoeven te hebben om de G80 te verslaan. Als de geruchten van 700Mhz echt waar zijn... dan is de performance van de R600 echt through-the-roof, wat ik dus eigenlijk niet verwacht.
De eerste geruchten berichten over een R600 die niet sneller wilde draaien dan 400Mhz. Deze zou dan moeite hebben met de G80. Volgens diezelfde geruchten was het doel zo'n 600Mhz en zou deze de G80 met gemak omver moeten blazen. Deze geruchten kwamen uit dezelfde geruchtenmachine die een paar maanden voor de launch de exacte 3DM06 scores van G80 goed bleek te hebben. Klokt ATI de R600 op zo'n 500Mhz dan verwacht ik dat het steeds stuivertje wisselen is met de G80.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.