dat DX10 gebeuren lijkt meer op een flop te worden aangezien het er nog niet eens is! en ja wat die DX10 kaarten betreft heb ik ook me twijfels over aangezien ze DX9 amper verbeteren ten opzichte van de DX9.0c generatie kaarten de verschillen zijn best klein, hopelijk is dit op te lossen dmv een bios en driver.
Volgens MS zou DX10 beter moeten presteren dan DX9, maar dat is vast meer marketingpraat dan waarheid.
Op hoge resoluties/IQ instellingen is een 8800 vaak 2x zo snel dan een 7900.. noem je dat verschil best klein?Anoniem: 23009 schreef op vrijdag 27 april 2007 @ 18:07:
dat DX10 gebeuren lijkt meer op een flop te worden aangezien het er nog niet eens is! en ja wat die DX10 kaarten betreft heb ik ook me twijfels over aangezien ze DX9 amper verbeteren ten opzichte van de DX9.0c generatie kaarten de verschillen zijn best klein, hopelijk is dit op te lossen dmv een bios en driver.
De 2900XTX zal naar wat ik nu heb gelezen misschien geen verdubbeling laten zien t.o.v. de X1950XTX maar zal toch zeker een stuk sneller zijn.
En dat DX10 komt echt wel hoor, en dan zullen we eens zien welke daar beter in presteerd (en tegen die tijd ga ik eens op zoek naar vervanging van m'n huidige kaart/pc).
De overstap van DX9 naar DX10 is gewoon wat groter omdat DX10 niet wil werken op vorige MS versies..
Anoniem: 23009
Dit is dus de kant waar we liever niet heen willen, zie onderstaande post van mij voor verder detail
[ Voor 78% gewijzigd door Ultraman op 27-04-2007 19:29 ]
Het is maar wat je onder een paperlaunch verstaat. Voor mij is een paperlaunch op zijn ergst als een fabrikant leverbaarheid belooft op datum X maar op die datum zijn er veel te weinig kaarten.
Maw: als je je als fabrikant commiteert aan een datum qua leverbaarheid en je voldoet er dan ook aan dan heb ik geen probleem als je eerder benches bekend maakt mits er tussen die periode niet veel meer tijd ligt dan 4 wkn ofzo.
Hierbij denk ik bijv. terug aan de X800XT PE welke echt niet leverbaar was op de datum dat de fabrikant belooft heeft en waar ik me bijzonder aan geergerd heb.
Het launchen van kaarten die eigenlijk niet leverbaar zijn (X800XT PE) en/of veel te duur ivg tot hun prestaties (7800GTX 512 en ws de 8800gtx ultra) is dus bijzonder ergerlijk.
Maw: als je je als fabrikant commiteert aan een datum qua leverbaarheid en je voldoet er dan ook aan dan heb ik geen probleem als je eerder benches bekend maakt mits er tussen die periode niet veel meer tijd ligt dan 4 wkn ofzo.
Hierbij denk ik bijv. terug aan de X800XT PE welke echt niet leverbaar was op de datum dat de fabrikant belooft heeft en waar ik me bijzonder aan geergerd heb.
Het launchen van kaarten die eigenlijk niet leverbaar zijn (X800XT PE) en/of veel te duur ivg tot hun prestaties (7800GTX 512 en ws de 8800gtx ultra) is dus bijzonder ergerlijk.
[ Voor 14% gewijzigd door Help!!!! op 27-04-2007 18:48 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 23009
en vergeet de X1800 XT ook niet die was ook niet echt vroeg eerlijk gezegd, maar die HD2900 dat is wel het ergste wat ik heb mee gemaakt qua lancering's datum sinds de X800 XT PE idd, heh me ASUS X800XT PE AGP had ik echt 4 maanden na de launch moeten bestellen die kaart was verot moeilijk te krijgen en ja het is een Rev.B 0441 jaar 2004 week 41
en hij doet het nog prima
[ Voor 11% gewijzigd door Anoniem: 23009 op 27-04-2007 18:36 ]
ja...en tevens melden ze dat het eruitziet of ati ook wat driver-issues heeft (wat ik ook wel verwachtte eerlijk gezegd....omdat het voor ati ook de eerste ''pc'' driver is die unified shaders moet aansturen).. dat is niet te vergelijken met een xbox-360 ''driver'', die maar rekening hoeft te houden met één hardware-configuratieCJ schreef op vrijdag 27 april 2007 @ 17:02:
Tweaktown meldt dat de berichten niet kloppen over de launch op 2 Mei:
From what we’ve been hearing in Taipei though, ATI are working busier than ever on new driver revisions which MIGHT increase performance but of course nobody knows what will happen for sure. One company claimed that ATI are waiting for “the best driver” which means if the driver is still not 100% by May 14th, we could see further delays.
ze lagen toch zóver voor op nvidia, en de driver zou toch al klaar zijn ?
als de gelekte benchmarks ongeveer kloppen, kunnen er 2 dingen aan de hand zijn:
1: de driver is goed, alleen de kaart/architectuur is niet snel genoeg
2: de kaart is snel genoeg om de gtx te verslaan, alleen de drivers zijn (nog) niet op orde
[ Voor 54% gewijzigd door Mr. Detonator op 27-04-2007 19:30 ]
Heren, ik zie een beetje een DX9 vs DX10 gesprek ontstaan. Dat is dus geen ATi nieuws maar een move van Microsoft. Als je het nou over de performance hebt van ATi onder DX9 en DX10 kan dat best, maar gespreken over DX9 vs DX10 op zichzelf zijn niet interessant hier
Als je stil blijft staan, komt de hoek wel naar jou toe.
Maar het is toch ook gewoon zo dat meer dan 95% van de mensen gewoon een pc koopt en kijkt wat op dat moment in de beurs past.
Als de HD2600XT / HD2900XT qua prijsstelling goed is voor het "mainstream" publiek dan kopen ze gewoon die, veel mensen weten niet eens dat de kaartjes al maanden en maanden op zich laat wachten volgens mij. Dat wij hier als een stelletje weppo's wachten op het nieuwste en dan toch wel enigzins teleurgesteld zijn, ja dat zei zo.
Maar van een dergelijk marktaandeel zal een GPU bakker toch niet rijk van kunnen worden lijkt me.
Begrijp me niet verkeerd ik had ook liever gezien dat ATi zijn zaakjes iets beter op orde had gehad, dan wel anders had aangepakt. Maar een goed product, tegen een fatsoenlijke prijs ( en het ziet er na uit dat de prijs best OK is ) zal voor de massa de reden zijn het product af te nemen.
Ohhh ja ff een vraagje
Weet iemand misschien of ze bezig zijn, dan wel of we dat kunnen verwachten dat je met een CF setup toch dual screen zou kunnen draaien in de toekomst? Das voor mij de belangrijkste reden eigenlijk om nog steeds geen CF setup te draaien, al zou je natuurlijk via een extra PCI-e kaartje het probleem kunnen ondervangen, maar ja als ze dat op driver gebied kunnen oplossen.
Als de HD2600XT / HD2900XT qua prijsstelling goed is voor het "mainstream" publiek dan kopen ze gewoon die, veel mensen weten niet eens dat de kaartjes al maanden en maanden op zich laat wachten volgens mij. Dat wij hier als een stelletje weppo's wachten op het nieuwste en dan toch wel enigzins teleurgesteld zijn, ja dat zei zo.
Maar van een dergelijk marktaandeel zal een GPU bakker toch niet rijk van kunnen worden lijkt me.
Begrijp me niet verkeerd ik had ook liever gezien dat ATi zijn zaakjes iets beter op orde had gehad, dan wel anders had aangepakt. Maar een goed product, tegen een fatsoenlijke prijs ( en het ziet er na uit dat de prijs best OK is ) zal voor de massa de reden zijn het product af te nemen.
Ohhh ja ff een vraagje
[ Voor 19% gewijzigd door Apoca op 27-04-2007 19:57 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Ok. Komt-ie:

Deze slide bevestigt een aantal dingen... 16 ROPs (G80 heeft 24, R580 had ook 16), 16 TMUs (G80 heeft er 64(32), R580 had ook 16). ATi gaat van een 3:1 verhouding naar 4:1.

Deze slide bevestigt een aantal dingen... 16 ROPs (G80 heeft 24, R580 had ook 16), 16 TMUs (G80 heeft er 64(32), R580 had ook 16). ATi gaat van een 3:1 verhouding naar 4:1.
[ Voor 3% gewijzigd door CJ op 27-04-2007 19:54 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Daar heb je dus helemaal gelijk in vind ik. Zo is het gewoon.Apoca schreef op vrijdag 27 april 2007 @ 19:50:
Maar het is toch ook gewoon zo dat meer dan 95% van de mensen gewoon een pc koopt en kijkt wat op dat moment in de beurs past.
Als de HD2600XT / HD2900XT qua prijsstelling goed is voor het "mainstream" publiek dan kopen ze gewoon die, veel mensen weten niet eens dat de kaartjes al maanden en maanden op zich laat wachten volgens mij. Dat wij hier als een stelletje weppo's wachten op het nieuwste en dan toch wel enigzins teleurgesteld zijn, ja dat zei zo.
@CJ: de slide doet het hier niet...
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 107626
Gewoon de locatie van het plaatje kopieren in een nieuw scherm.RappieRappie schreef op vrijdag 27 april 2007 @ 19:59:
@CJ: de slide doet het hier niet...
Volgens mij was dit ook al eerder vermeld op B3D forum. De 3:1 verhouding van de R580 was iets sneller dan de G70/G71 implementatie. Waarom nu 4:1? Goed voor DX10? Kan iemand er iets intelligents over zeggen?CJ schreef op vrijdag 27 april 2007 @ 19:53:
Ok. Komt-ie:
[afbeelding]
Deze slide bevestigt een aantal dingen... 16 ROPs (G80 heeft 24, R580 had ook 16), 16 TMUs (G80 heeft er 64(32), R580 had ook 16). ATi gaat van een 3:1 verhouding naar 4:1.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Zou goed kunnen. Die Texture units nekken die kaart kompleet. En daarom is hij ook amper sneller aangezien die texture units maar op 740 MHz lopen. Maar ff afwachten.CJ schreef op vrijdag 27 april 2007 @ 19:53:
Ok. Komt-ie:
[afbeelding]
Deze slide bevestigt een aantal dingen... 16 ROPs (G80 heeft 24, R580 had ook 16), 16 TMUs (G80 heeft er 64(32), R580 had ook 16). ATi gaat van een 3:1 verhouding naar 4:1.
Is DX10 dan heel erg texture onafhankelijk of zo ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 38733
Ze moeten hoognodig eens kappen met die 16 ROPS, dat schreeuwt namelijk om superhoge kloksnelheden om competitief te kunnen zijn. Waar Nvidia probleemloos de ene na de andere kaart uitpoept loopt Ati iedere keer tegen yield-, hitte-, stroom- en andere problemen aan, doordat ze die hoge kloks nodig hebben.CJ schreef op vrijdag 27 april 2007 @ 19:53:
Ok. Komt-ie:
Deze slide bevestigt een aantal dingen... 16 ROPs (G80 heeft 24, R580 had ook 16), 16 TMUs (G80 heeft er 64(32), R580 had ook 16). ATi gaat van een 3:1 verhouding naar 4:1.
Imo hét probleem waarom ze al sinds X1K lopen te kutten om eens op tijd te zijn.
Hoe ziet Ati's kaart er over 2 jaar uit? 16 ROPS op 2000 mhz.?
[ Voor 6% gewijzigd door Anoniem: 38733 op 27-04-2007 21:06 ]
Astennu schreef op vrijdag 27 april 2007 @ 20:47:
[...]
Is DX10 dan heel erg texture onafhankelijk of zo ?
BronCubeMapGS Sampletoon volledige bericht
The CubeMapGS sample demonstrates rendering a cubic texture render target with a single DrawIndexed() call using two new features in Direct3D 10: render target array and geometry shader. A render target array allows multiple render target and depth stencil textures to be active simultaneously. By using an array of six render targets, one for each face of the cube texture, all six faces of the cube can be rendered together. When the geometry shader emits a triangle, it can control which render target in the array the triangle gets rasterized on. For every triangle that gets passed to the geometry shader, six triangles are generated in the shader and output to the pixel shader, one triangle for each render target.
Instancing10 Sample
This sample demonstrates the use of the Instancing and Texture Arrays to reduce the number of draw calls required to render a complex scene. In addition, it uses AlphaToCoverage to avoid sorting semi-transparent primitives.
Reducing the number of draw calls made in any given frame is one way to improve graphics performance for a 3D application. The need for multiple draw calls in a scene arises from the different states required by different parts of the scene. These states often include matrices and material properties. One way to combat these issues is to use Instancing and Texture Arrays. In this sample, instancing enables the application to draw the same object multiple times in multiple places without the need for the CPU to update the world matrix for each object. Texture arrays allow multiple textures to be loaded into same resource and to be indexed by an extra texture coordinate, thus eliminating the need to change texture resources when a new object is drawn.
The Instancing sample draws several trees, each with many leaves, and several blades of grass using 3 draw calls. To achieve this, the sample uses one tree mesh, one leaf mesh, and one blade mesh instanced many time throughout the scene and drawn with DrawIndexedInstanced. To achieve variation in the leaf and grass appearance, texture arrays are used to hold different textures for both the leaf and grass instances. AlphaToCoverage allows the sample to further unburden the CPU and draw the leaves and blades of grass in no particular order. The rest of the environment is drawn in 6 draw calls.
Heb je daar wat aan?
Die 16 ROPs zijn imo niet de oorzaak van problemen, maar meer het aantal texture units. Met de R520/R580 en G70/71 was 16 ROPs ook ruim voldoende. Vroeger was het zo dat shaderunits sneller klaar waren dan de ROPs aan konden. Dus de ROPs stonden gewoon continue voluit te draaien. Nu is het echter steeds vaker het geval dat door langere shaders, de ROPs zitten te wachten totdat de shaderunits klaar zijn alvorens ze zelf aan de slag kunnen gaan. Als de shaderunits dusdanig efficienter/sneller geworden zijn dan hoeft dit helemaal geen belemmering te vormen voor de eindperformance.
Een ophoging van ROPs vergt ook een ophoging van de geheugenbandbreedte, alhoewel de situatie in dit geval ideaal was geweest om ook deze op te hogen ivm GDDR4/512-bit memory interface. Daarnaast kan er het een en ander verandert zijn aan de ROPs waardoor deze efficienter werken.
Uit de slide kan de oplettende lezer trouwens nog meer bevestigingen zien over de architectuur.
Een ophoging van ROPs vergt ook een ophoging van de geheugenbandbreedte, alhoewel de situatie in dit geval ideaal was geweest om ook deze op te hogen ivm GDDR4/512-bit memory interface. Daarnaast kan er het een en ander verandert zijn aan de ROPs waardoor deze efficienter werken.
Uit de slide kan de oplettende lezer trouwens nog meer bevestigingen zien over de architectuur.
[ Voor 5% gewijzigd door CJ op 27-04-2007 22:16 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Even trouwens een vraag over PCI Express 2.0
Zal deze pas bij de R650 / R680 worden toegepast?
Zal deze pas bij de R650 / R680 worden toegepast?
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Anoniem: 23009
hmm ik denk eerder bij de R700 PCI-E 1.0 is ook nog niet zo oud maar idd de R680 maybe of mischien de RV670?
Ik zou het eerlijkgezegd ook niet weten heh.
Ik zou het eerlijkgezegd ook niet weten heh.
Als je binnen een maand een nieuwe kaart nodig hebt en die ATi geeft de meeste prestaties voor jouw budget, dan zal het toch aan je reet roesten hoeveel keer die kaart is uitgesteld?<< back to sender
veel mensen weten niet eens dat de kaartjes al maanden en maanden op zich laat wachten volgens mij
[ Voor 9% gewijzigd door mieJas op 27-04-2007 23:04 . Reden: tags niet heel in orde ]
Yes, but no.
Niet iedereen is helaas zo nuchter ingesteld.mieJas schreef op vrijdag 27 april 2007 @ 23:02:
[...]
Als je binnen een maand een nieuwe kaart nodig hebt en die ATi geeft de meeste prestaties voor jouw budget, dan zal het toch aan je reet roesten hoeveel keer die kaart is uitgesteld?
Edit: Hoe langer ik er over nadenk hoe minder vreemd ik de keuze voor 16 ROPs blijf vinden. Waar is een R600 voor gemaakt? Voor DX10. Wat is een van de grote verschillen tussen DX9 en DX10? De toevoeging van de Geometryshaders en de mogelijkheden om nog veel langere, ingewikkeldere shaders te gebruiken waardoor mooiere/meerdere effecten mogelijk zijn of waardoor de performance omhoog kan worden gekrikt. Dus de grote vraag is.... Wat is belangrijk in DX10? Shaders. Langer. Complexer.
Even een quote uit de firstpost FAQ:
Als elk van de 64 shaderengines van de R600 enorm snel is, dan is de kans groot dat bij het juiste gebruik, dwz het gebruik van echte DX10 applicaties, het helemaal geen bottleneck hoeft te zijn dat de GPU maar 16 ROPs heeft. DX10 gaat immers om lange complexe shaders, veel meer dan in DX9c. En ongetwijfeld zijn de ROPs flink onder handen genomen net zoals de texture units.Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).
Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.
Als je shaderengines niet zo krachtig zijn dan moet je dat opvangen door andere methodes, zoals bv het dubbelklokken van je shaders of door meer ROPs toe te voegen. Het voordeel van het laatste is dat je bij een verhoging van 16 naar 24 ROPs het beeld zo'n 40% sneller kan vullen zowel in DX9 als in DX10 games. Hier zouden dan wel simpele shaderengines kunnen volstaan (scalar zoals bij G80).
Wat jammer dat er geen echte DX10 games uit zijn. Dan was de vergelijking pas echt interessant geweest.
[ Voor 70% gewijzigd door CJ op 28-04-2007 00:55 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
RV610 en RV630 zijn PCI-E 2.0 meen ik.
R600 weet ik niet.
R600 weet ik niet.
yep:The Source schreef op zaterdag 28 april 2007 @ 01:41:
RV610 en RV630 zijn PCI-E 2.0 meen ik.
R600 weet ik niet.

http://www.guru3d.com/newsitem.php?id=5090
[ Voor 8% gewijzigd door Joepi op 28-04-2007 02:38 ]
Of die schema's gelekt door Dailytech ook kloppen is nog maar de vraag... zeker als je je herinnert dat The Source laatste zelfs nog had aangegeven dat de RV630XT maar 65W zou verbruiken en volgens de meest recente foto's geen externe stroomaansluiting nodig had... Op die slides staat namelijk een verbruik van 125W voor de RV630XT. Maar goed, het meeste klopt wel want dat was gemakkelijk te raden.
[ Voor 4% gewijzigd door CJ op 28-04-2007 03:41 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Is er al meer zicht op de lauch date ? Is dat de Woensdag de 2e of zoals Dailytech denk te weten de 14e?
@ Joepi
http://www.guru3d.com/newsitem.php?id=5090
Erg intressant stukje, thanks voor de info. Het is alleen jammer om te zien dat PCI-E 2.0 voorlopig alleen op het value and mainstream segment in actie te zien zal zijn. Maar ja van de andere kant, de PCI-E 2.0 mobo's zullen ook pas vanaf Q3 echt op de markt te zien zijn.
http://www.guru3d.com/newsitem.php?id=5090
Erg intressant stukje, thanks voor de info. Het is alleen jammer om te zien dat PCI-E 2.0 voorlopig alleen op het value and mainstream segment in actie te zien zal zijn. Maar ja van de andere kant, de PCI-E 2.0 mobo's zullen ook pas vanaf Q3 echt op de markt te zien zijn.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Anoniem: 23009
als ATi nu GDDR3 gebruikte ipv van GDDR4 voor dat XTX model dan het mischien wel leuker geweest qua max speed runs en als leukere concurrent tegen die 8800 Ultra heh

Aangezien dat GDDR3 veel betere latencies heeft dan GDDR4 en aangezien dat NV ook de 2350Mhz DDR heeft ehaald dus dan zou 2200 Mhz DDR wel mogelijk moeten zijn als dat GDDR4 zo lastig is om aan te komen had ik zowiezo voor GDDR3 gekozen nog beter voor de allround performace ook!
@ Saturnus & RappieRappie
heh idd support voor Visita is ook nog te gaar, dan maar lekker verder met 2K Pro + SP4 en XP Pro + SP2 hier
[ Voor 75% gewijzigd door Anoniem: 23009 op 28-04-2007 10:58 ]
De ROPs gaan wel een bottleneck vormen als games veel rendertargets en multi-pass gaan shaden, veel dx8 games hadden een paar multi-pass effecten omdat hun shader-lengte limiet bereikt was, Doom3-Quake4-Pray, gebruikt een speciale pass om de zichtbaarheid & schaduwen te berekenen enzovoort. ROPs zijn voor dx10 erg groot, er moeten zeer veel output formaten ondersteunt worden, inclusief de nieuwe HDR formaten en een paar INT formaten. DX10 is ook zo gemaakt dat je de output van bv een pixel shader terug naar een geometry shader kan sturen of een vertex shader, dat was vroeger niet mogelijk en dat maakt dat meerdere passes vermeden kunnen worden.CJ schreef op vrijdag 27 april 2007 @ 23:07:
[...] Niet iedereen is helaas zo nuchter ingesteld.Er zitten hier veel FPS en 3DM freaks.
Edit: Hoe langer ik er over nadenk hoe minder vreemd ik de keuze voor 16 ROPs blijf vinden. Waar is een R600 voor gemaakt? Voor DX10. Wat is een van de grote verschillen tussen DX9 en DX10? De toevoeging van de Geometryshaders en de mogelijkheden om nog veel langere, ingewikkeldere shaders te gebruiken waardoor mooiere/meerdere effecten mogelijk zijn of waardoor de performance omhoog kan worden gekrikt. Dus de grote vraag is.... Wat is belangrijk in DX10? Shaders. Langer. Complexer.
Als elk van de 64 shaderengines van de R600 enorm snel is, dan is de kans groot dat bij het juiste gebruik, dwz het gebruik van echte DX10 applicaties, het helemaal geen bottleneck hoeft te zijn dat de GPU maar 16 ROPs heeft. DX10 gaat immers om lange complexe shaders, veel meer dan in DX9c. En ongetwijfeld zijn de ROPs flink onder handen genomen net zoals de texture units.
Als je shaderengines niet zo krachtig zijn dan moet je dat opvangen door andere methodes, zoals bv het dubbelklokken van je shaders of door meer ROPs toe te voegen. Het voordeel van het laatste is dat je bij een verhoging van 16 naar 24 ROPs het beeld zo'n 40% sneller kan vullen zowel in DX9 als in DX10 games. Hier zouden dan wel simpele shaderengines kunnen volstaan (scalar zoals bij G80).
Wat jammer dat er geen echte DX10 games uit zijn. Dan was de vergelijking pas echt interessant geweest.
Geen paper launch voor deze kaart. 2 mei is enkel de datum waarop de officiële specificaties en benchmarks mogen vrijgegeven worden. Of toch, dat dacht ik gelezen te hebben. Was ergens in een artikel dat CJ naar voor bracht.Gulpener schreef op zaterdag 28 april 2007 @ 07:37:
Is er al meer zicht op de lauch date ? Is dat de Woensdag de 2e of zoals Dailytech denk te weten de 14e?
edit: CJ in "[Algemeen] ATi Nieuwsdiscussietopic - De..."
[ Voor 7% gewijzigd door mieJas op 28-04-2007 11:40 ]
Yes, but no.
Anoniem: 23009
@ oeLangOetang
Doom3, Quake4 en Prey zijn OpenGL 2.0 apps heeft niets te maken met Direct3D, heh slechte vergelijing het vergelijken van appels en peren
Doom3, Quake4 en Prey zijn OpenGL 2.0 apps heeft niets te maken met Direct3D, heh slechte vergelijing het vergelijken van appels en peren
Doom3 is voor de xbox in d3d herschrevenAnoniem: 23009 schreef op zaterdag 28 april 2007 @ 11:41:
@ oeLangOetang
Doom3, Quake4 en Prey zijn OpenGL 2.0 apps heeft niets te maken met Direct3D, heh slechte vergelijing het vergelijken van appels en peren

Eindelijk 2560x1600 benches ergens, maar is dit nou betrouwbaar of niet?
Dat immersive HD gaming gaat in ieder geval nergens over... 213/52 FPS voor ATI versus 4/1 voor een GTS 640, kom op zeg, dat menen ze toch zelf niet
[ Voor 24% gewijzigd door OruBLMsFrl op 28-04-2007 11:48 ]
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
en buiten dat er staat niet voor niets CROSSFIRE bij.Bas van der Doorn schreef op zaterdag 28 april 2007 @ 11:46:
[afbeelding]
Eindelijk 2560x1600 benches ergens, maar is dit nou betrouwbaar of niet?
Dat immersive HD gaming gaat in ieder geval nergens over... 213/52 FPS voor ATI versus 4/1 voor een GTS 640, kom op zeg, dat menen ze toch zelf niet
zogal logisch dat 2 kaarten sneller zijn dan 1 GTX.
en hoe betrouwbaar zijn deze benchmarks?
zie net dat ook hier de vergelijking is met de GTS.
geloof er zelf niets van.
[ Voor 6% gewijzigd door SpaceMarine op 28-04-2007 11:53 ]
nope geen signature
Het lijkt me wel redelijk perfecte opschaling als ATI inderdaad deze scores haalt met Crossfire. Vrijwel overal zit de performance verbetering ten opzichte van een enkele kaart in de 80%-100% range. Maar ja, ik zie alleen die 1.7 en 1.8 dingen in de link staan, die getallen zouden nog enigzins kunnen kloppen, hoewel zo'n goede crossfire implementatie haast onmogelijk lijkt met deze revisie drivers. Was het maar al 2 mei
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Nog wat gelekte stuff:
3DM05

3DM05 @ 1280x1024

3DM05 @ 1280x1024 + 4xAA/8xAF

Wat betreft die OpenGL games heeft oeLangOetang wel gelijk. Het gaat niet zo zeer om de API, maar om het gebruik van de ROPs die niet API afhankelijk is. De ROPs in G80 zijn als ik het goed heb begrepen enorm bandbreedte afhankelijk. Theoretisch gezien zouden ze "free 4xAA" moeten kunnen doen met meer geheugenbandbreedte, maar dat gebeurt dus nog niet. De ROPs van ATI waren altijd al technisch geavanceerder dan die van nVidia, ze ondersteunden meerdere HDR formaten en zelfs custom HDR formaten. Dus wat dat betreft denk ik niet dat daar veel werk in is gaan zitten voor ATi.
@ oeLangOetang: De output van een pixelshader die weer teruggepast wordt naar de geometry shader en evt ook de vertexshader, gebeurt dat in de ROP zelf? Ik was in de veronderstelling dat dat in de shaderengine zelf gebeurde, voordat het naar de ROP ging zeker gezien het feit dat ROPs min of meer zijn los gekoppeld van de rest van de pipeline (waardoor bv ook HDR + AA mogelijk is wanneer een game dit niet ondersteunt).
3DM05

3DM05 @ 1280x1024

3DM05 @ 1280x1024 + 4xAA/8xAF

Wat betreft die OpenGL games heeft oeLangOetang wel gelijk. Het gaat niet zo zeer om de API, maar om het gebruik van de ROPs die niet API afhankelijk is. De ROPs in G80 zijn als ik het goed heb begrepen enorm bandbreedte afhankelijk. Theoretisch gezien zouden ze "free 4xAA" moeten kunnen doen met meer geheugenbandbreedte, maar dat gebeurt dus nog niet. De ROPs van ATI waren altijd al technisch geavanceerder dan die van nVidia, ze ondersteunden meerdere HDR formaten en zelfs custom HDR formaten. Dus wat dat betreft denk ik niet dat daar veel werk in is gaan zitten voor ATi.
@ oeLangOetang: De output van een pixelshader die weer teruggepast wordt naar de geometry shader en evt ook de vertexshader, gebeurt dat in de ROP zelf? Ik was in de veronderstelling dat dat in de shaderengine zelf gebeurde, voordat het naar de ROP ging zeker gezien het feit dat ROPs min of meer zijn los gekoppeld van de rest van de pipeline (waardoor bv ook HDR + AA mogelijk is wanneer een game dit niet ondersteunt).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nog meer leaks!



Heethoofdje is die R600 toch zelfs in 2D. Maar dat wisten we al.
En zie ook de eerste pic... ze gebruiken twee keer een 2x3 connector. Dus weer de bevestiging dat de 2x4 connector compatible is met een 2x3 pin aansluiting.



Heethoofdje is die R600 toch zelfs in 2D. Maar dat wisten we al.
En zie ook de eerste pic... ze gebruiken twee keer een 2x3 connector. Dus weer de bevestiging dat de 2x4 connector compatible is met een 2x3 pin aansluiting.
[ Voor 21% gewijzigd door CJ op 28-04-2007 12:03 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De verleiding is nu erg groot om er een schep bovenop te doen. Zal ik ?Nog meer leaks!
[ Voor 6% gewijzigd door XWB op 28-04-2007 12:04 ]
ja doe toch

вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ
idd, in de shaderengine, voeger moest je dus voor een extra pass bijna de hele pipeline opnieuw doorlopen terwijl je er maar een klein stukje van nodig had.CJ schreef op zaterdag 28 april 2007 @ 11:57:
@ oeLangOetang: De output van een pixelshader die weer teruggepast wordt naar de geometry shader en evt ook de vertexshader, gebeurt dat in de ROP zelf? Ik was in de veronderstelling dat dat in de shaderengine zelf gebeurde, voordat het naar de ROP ging zeker gezien het feit dat ROPs min of meer zijn los gekoppeld van de rest van de pipeline (waardoor bv ook HDR + AA mogelijk is wanneer een game dit niet ondersteunt).
Er zijn 2 uitzonderingen in dx9 waar het mogelijk is zonder de ROPs te passeren, vertex texturing en render to vertex buffer.
Ik weet niet in hoeverre de ROPs decoupled zijn daarvoor gaan we moeten wachten op de b3d review. Het aantal ROPs zijn ook niet altijd een goede indicator van de performance, de R5xx ROPs waren een stuk trager bij HDR16 dan andere targets.
Toe maar. Anders heb je de kans dat het in de vergetelheid raakt omdat het aan het einde van dit topic gepost wordt.Hacku schreef op zaterdag 28 april 2007 @ 12:04:
[...]
De verleiding is nu erg groot om er een schep bovenop te doen. Zal ik ?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 23009
die treibels zijn cool CJ op die cooler 

blijft een mooie foto!
heh DX10 gaat idd erg leuk worden ik vraag me af hoe OpenGL2.1 er uit ziet vergeleken met OpenGL 2.0 aangezien dat deze HD 2900 ook OpenGL 2.1 kandoen toch?

blijft een mooie foto!
heh DX10 gaat idd erg leuk worden ik vraag me af hoe OpenGL2.1 er uit ziet vergeleken met OpenGL 2.0 aangezien dat deze HD 2900 ook OpenGL 2.1 kandoen toch?
[ Voor 87% gewijzigd door Anoniem: 23009 op 28-04-2007 12:27 ]
En ja hoor; de kaart is sneller dan een 8800GTX!!!
Mijn GTX scoort 19000 met overklok.
EDIT: of is er met een quad core gebenched?
EDIT: of is er met een quad core gebenched?
[ Voor 76% gewijzigd door Format-C op 28-04-2007 12:33 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het zijn leaks hoor... kan dus ook niet waar zijn.RappieRappie schreef op zaterdag 28 april 2007 @ 12:29:
En ja hoor; de kaart is sneller dan een 8800GTX!!!
We hebben ons dus "zorgen gemaakt" om niks.
Nog effe geduld.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Mja, ik heb mijn post even aangepast.
Als er met een Quad is gebenched zal hij iets langzamer zijn dan een GTX. Desalniettemin ziet het er goed uit.
Als er met een Quad is gebenched zal hij iets langzamer zijn dan een GTX. Desalniettemin ziet het er goed uit.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
als ik die score's een beetje vergelijk hiermee : http://www.tomshardware.c..._8800/page6.html#3dmark05
dan valt me op dat de r600 vrij veel inkakt als de res./aa omhoog gaan...
een 8800gtx scoort zo'n 13.800 stock, en 13.300 @ 1280/1024
met 4xaa/16xaf zakt de score niet veel verder dan 12.400
en dat is ook nog eens met een van de eerste drivers
[ Voor 5% gewijzigd door Mr. Detonator op 28-04-2007 12:45 ]
Dat is dan wel een hele trage GTX.

Edit; die test is uitgevoerd met een FX-60. En misschien zijn de screenies die CJ post wel met een Quad gedaan. Dat is een WERELD van verschil.
[ Voor 20% gewijzigd door Format-C op 28-04-2007 12:47 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ook met 3dM5?? Van 3dM6 is dit een bekend verschijnsel.RappieRappie schreef op zaterdag 28 april 2007 @ 12:46:
[...]
Dat is dan wel een hele trage GTX.Die van mij scoort stock 17400. En dat op een licht overklokte C2D.
Edit; die test is uitgevoerd met een FX-60. En misschien zijn de screenies die CJ post wel met een Quad gedaan. Dat is een WERELD van verschil.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Even die 3DMark05 scores vergelijken met de X1900Crossfire opstelling die ik vorig jaar had:
Systeem:
Hardware:
- Core 2 Duo E6600 @ 3,0GHz (333x9)
- 2x1GB OCZ PC6400 @ 833MHz @ CL4-4-4-15
- Sapphire X1900XTX + X1900Crossfire
Software:
- Windows XP SP2 NL
- Direct X9.0c
- ATi Catalyst 6.12 Beta
- Futuremark 3DMark06

De R600 scoort dus hoger dan een X1900 crossfire..
1024x768: 19020-17835 = +1185
1280x1024: 17477-16821= +656
1280x1024 AA/AF: 14268-12977= +1291
Dat zijn hele nette scores als ze kloppen. Als ze getest zijn met een quadcore CPU zal de score van de R600 ongeveer gelijk zijn aan een X1900CF.
Systeem:
Hardware:
- Core 2 Duo E6600 @ 3,0GHz (333x9)
- 2x1GB OCZ PC6400 @ 833MHz @ CL4-4-4-15
- Sapphire X1900XTX + X1900Crossfire
Software:
- Windows XP SP2 NL
- Direct X9.0c
- ATi Catalyst 6.12 Beta
- Futuremark 3DMark06
De R600 scoort dus hoger dan een X1900 crossfire..
1024x768: 19020-17835 = +1185
1280x1024: 17477-16821= +656
1280x1024 AA/AF: 14268-12977= +1291
Dat zijn hele nette scores als ze kloppen. Als ze getest zijn met een quadcore CPU zal de score van de R600 ongeveer gelijk zijn aan een X1900CF.
Goud is geen geld
Als je naar de printbanen kijkt zie je dat alle zwarte draden bij elkaar komen (ground) en van de linker connector alle gele en van de rechter connector alle gele (+12V) bij elkaar komen. Al zou je 2 aansluitingen per connector hebben zou het nog werken, echter zou dat onder maximum load de connectoren elektrisch gezien erg stressen. Hoe meer aansluitingen er parallel staan, des te minder kans heb je last van overgangsweerstanden en alle ongemakken van dien.CJ schreef op zaterdag 28 april 2007 @ 12:01:
Nog meer leaks!
[afbeelding]
[afbeelding]
[afbeelding]
Heethoofdje is die R600 toch zelfs in 2D. Maar dat wisten we al.
En zie ook de eerste pic... ze gebruiken twee keer een 2x3 connector. Dus weer de bevestiging dat de 2x4 connector compatible is met een 2x3 pin aansluiting.
[ Voor 14% gewijzigd door winwiz op 28-04-2007 13:41 ]
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
05 is ook erg gevoelig voor de CPU. Als ik mijn CPU verder klok stijgen de scores behoorlijk.winwiz schreef op zaterdag 28 april 2007 @ 13:02:
[...]
Ook met 3dM5?? Van 3dM6 is dit een bekend verschijnsel.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ook bij 3dMark 2005 lijkt de CPU me wel een belangrijke factor als je voor de allersnelste videokaarten gaat. Hij wordt niet als aparte factor meegenomen in de score zoals bij 2006 het geval lijkt te zijn, maar een quadcore Core2 zorgt er toch voor dat het geheel net wat beter presteerd, iets dat je ook bij game benchmarks terug ziet komen. Op lagere resoluties zal dit ook meer meespelen dan bij hoge, vaak is het geheel tot zoiets 1024x768/1280x1024 beperkt door de CPU en daarboven beperkt door de GPU, afhankelijk van de applicatie en de grafische instellingen. Wat dus niet wil zeggen dat je vanaf 1600x1200 of 2560x1600 geen winst meer hebt van een snellere CPU, maar relatief minder dan bij 640x480winwiz schreef op zaterdag 28 april 2007 @ 13:02:
[...]
Ook met 3dM5?? Van 3dM6 is dit een bekend verschijnsel.
[ Voor 8% gewijzigd door OruBLMsFrl op 28-04-2007 14:54 ]
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Oudere software met een snelle videokaart houdt wel van een snellere processor inderdaad, maar 3dmark05 maakt geen gebruik van meerdere cores, dus zal je met een quad core geen hogere score krijgen dan met een dual core (op dezelfde snelheid uiteraard). Tenzij intel de quadcores nog op een andere manier sneller heeft gemaakt...RappieRappie schreef op zaterdag 28 april 2007 @ 14:48:
05 is ook erg gevoelig voor de CPU. Als ik mijn CPU verder klok stijgen de scores behoorlijk.
Mhh kreeg net te horen wat de initiele beschikbaarheid gaat zijn van de R600XT bij launch. Het is dieptriest, ik ken van 2 verschillende grote vendors de stock wereldwijd, en als ik dit doortrek en bereken dan denk ik dat er wereldwijd tussen de 3000 en 5000 stuks beschikbaar zullen zijn. Dus als er van de initiele batch zo'n 100 in Nederland beschikbaar zijn dan is het veel. FYI 100stuks is net iets meer dan niets. Dus mocht je er eentje hebben bij launch, zorg dat je erbij bent.
Ik hoop dat OEM aantallen niet bij de aantallen zitten die ik te horen heb gerekegen, want dan kun je er nog eens 50% vanaf trekken.
Ik hoop dat OEM aantallen niet bij de aantallen zitten die ik te horen heb gerekegen, want dan kun je er nog eens 50% vanaf trekken.
[ Voor 12% gewijzigd door The Source op 28-04-2007 15:19 ]
Dat is slecht nieuws, kleine aantallen betekenen meestal ook slechte yields, wat de prijs hoog (of de winst laag
) houdt en de overclockbaarheid valt dan ook meestal tegen. Het was toch al een heethoofd, dus van de overclockbaarheid was toch al niet veel te verwachten, maar slechte yields zou toch wel erg sneu zijn voor ATI/AMD

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
R600 demo... Global Illumination
http://www.hardspell.com/...sp?news_id=479&pageid=580
BTW - gemeen grapje:
HD2900FX
http://www.hardspell.com/...sp?news_id=479&pageid=580
BTW - gemeen grapje:
HD2900FX

[ Voor 25% gewijzigd door Joepi op 28-04-2007 16:15 ]
Zoals het er nu naar uitziet ben ik toch wel teleurgesteld. Ik ben het eigenlijk wel met Rappie eens (helaas
). Drie maanden lang ging het over de 2900XT vs de 8800GTX, de 2900XT zou beter presteren met een prijskaartje van 400 dollar/euro. Nu blijkt dat hij helemaal niet beter presteert en daarom plaatst ATi hem tegenover de 8800GTS..
Wat vind jij ervan CJ?
Mijn persoonlijke voorkeur is altijd al uitgegaan naar ATi maar ze hebben het dit keer niet waargemaakt imo. En zeg dan niet dat hij beter presteert dan de GTS voor hetzelfde geld, natuurlijk is dit mooi en is dit waar maar zoals ik al heb gezegd zou hij de GTX verslaan..
Wat vind jij ervan CJ?
Mijn persoonlijke voorkeur is altijd al uitgegaan naar ATi maar ze hebben het dit keer niet waargemaakt imo. En zeg dan niet dat hij beter presteert dan de GTS voor hetzelfde geld, natuurlijk is dit mooi en is dit waar maar zoals ik al heb gezegd zou hij de GTX verslaan..
"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990
zelf vandaag de knoop doorgehakt en voor de ASUS 8800GTX gegaan.Jedi_Pimp schreef op zaterdag 28 april 2007 @ 16:36:
Zoals het er nu naar uitziet ben ik toch wel teleurgesteld. Ik ben het eigenlijk wel met Rappie eens (helaas). Drie maanden lang ging het over de 2900XT vs de 8800GTX, de 2900XT zou beter presteren met een prijskaartje van 400 dollar/euro. Nu blijkt dat hij helemaal niet beter presteert en daarom plaatst ATi hem tegenover de 8800GTS..
Wat vind jij ervan CJ?
Mijn persoonlijke voorkeur is altijd al uitgegaan naar ATi maar ze hebben het dit keer niet waargemaakt imo. En zeg dan niet dat hij beter presteert dan de GTS voor hetzelfde geld, natuurlijk is dit mooi en is dit waar maar zoals ik al heb gezegd zou hij de GTX verslaan..
mischien volgende keer weer ATi (heeft nog altijd mijn voorkeur)
nope geen signature
Al die paniek voor niks
De 2900XT presteert bijna overal beter dan GeForce 8800 GTS 640MB en in sommige gevallen close bij de GTX. En zeker in de hoge resoluties met alle snufjes aan laat deze kaart haar tanden zien. Ga maar niet teveel af op die scores van DailyTech, ze zijn er iig goed in geslaagd om een hoop paniek rond te strooien. Van de mid-range kaarten weet ik nog niks, maar naar zeggen zouden deze sneller moeten zijn dan de 8600 serie van nVidia. De GTX zal vast bijgehouden worden door de XTX, alleen jammer dat AMD deze naar Q3 verplaatst heeft. Op de 8800 Ultra is er echter geen antwoord, maar die kaart kost sowieso veel te veel.
De situatie nu:
- nVidia heeft haar drivers puur op snelheid gericht. De 8800 presteert dan ook erg goed, maar de drivers kennen veel tekorten, bugs e.d. ...
- AMD heeft haar drivers op stabiliteit en features gericht, juist het omgekeerde dus.
Wat zal er gebeuren? AMD zal nu aan de performance sleutelen, nVidia aan de features en binnen de kortste keren hebben beide kampen gelijk presterende kaarten.
Hier enkele officiële cijfers:
FarCry 1.4 SM3 HDR [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 76.7 fps
- 2900 XT: 70.2 fps
- 8800 GTS: 54 fps
Prey [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 89.9 fps
- 2900 XT: 70.5 fps
- 8800 GTS: 65.5 fps
Splinter Cell: Chaos Theory SM3 HDR [1600x1200 - 4x AA 8x AF
- 8800 GTX: 85.6 fps
- 2900 XT: 86.5
- 8800 GTS: 68.5
X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- 2900 XT: 58.8 fps
- 8800 GTS: 56.5 fps
3DMark06 - Overall [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 6854
- 2900 XT: 6550
- 8800 GTS: 5174
De situatie nu:
- nVidia heeft haar drivers puur op snelheid gericht. De 8800 presteert dan ook erg goed, maar de drivers kennen veel tekorten, bugs e.d. ...
- AMD heeft haar drivers op stabiliteit en features gericht, juist het omgekeerde dus.
Wat zal er gebeuren? AMD zal nu aan de performance sleutelen, nVidia aan de features en binnen de kortste keren hebben beide kampen gelijk presterende kaarten.
Hier enkele officiële cijfers:
FarCry 1.4 SM3 HDR [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 76.7 fps
- 2900 XT: 70.2 fps
- 8800 GTS: 54 fps
Prey [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 89.9 fps
- 2900 XT: 70.5 fps
- 8800 GTS: 65.5 fps
Splinter Cell: Chaos Theory SM3 HDR [1600x1200 - 4x AA 8x AF
- 8800 GTX: 85.6 fps
- 2900 XT: 86.5
- 8800 GTS: 68.5
X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- 2900 XT: 58.8 fps
- 8800 GTS: 56.5 fps
3DMark06 - Overall [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 6854
- 2900 XT: 6550
- 8800 GTS: 5174
Niks mis met die kaart dus.
Helemaal niet als hij een stuk goedkoper is dan de GTX, dan is het een hele goeie koop.
Helemaal niet als hij een stuk goedkoper is dan de GTX, dan is het een hele goeie koop.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 125419
Kun je effe een linkje geven zodat ik kan zien waar je het vandaan hebt gehaald?Hacku schreef op zaterdag 28 april 2007 @ 17:23:toon volledige bericht
Al die paniek voor niksDe 2900XT presteert bijna overal beter dan GeForce 8800 GTS 640MB en in sommige gevallen close bij de GTX. En zeker in de hoge resoluties met alle snufjes aan laat deze kaart haar tanden zien. Ga maar niet teveel af op die scores van DailyTech, ze zijn er iig goed in geslaagd om een hoop paniek rond te strooien. Van de mid-range kaarten weet ik nog niks, maar naar zeggen zouden deze sneller moeten zijn dan de 8600 serie van nVidia. De GTX zal vast bijgehouden worden door de XTX, alleen jammer dat AMD deze naar Q3 verplaatst heeft. Op de 8800 Ultra is er echter geen antwoord, maar die kaart kost sowieso veel te veel.
De situatie nu:
- nVidia heeft haar drivers puur op snelheid gericht. De 8800 presteert dan ook erg goed, maar de drivers kennen veel tekorten, bugs e.d. ...
- AMD heeft haar drivers op stabiliteit en features gericht, juist het omgekeerde dus.
Wat zal er gebeuren? AMD zal nu aan de performance sleutelen, nVidia aan de features en binnen de kortste keren hebben beide kampen gelijk presterende kaarten.
Hier enkele officiële cijfers:
FarCry 1.4 SM3 HDR [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 76.7 fps
- 2900 XT: 70.2 fps
- 8800 GTS: 54 fps
Prey [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 89.9 fps
- 2900 XT: 70.5 fps
- 8800 GTS: 65.5 fps
Splinter Cell: Chaos Theory SM3 HDR [1600x1200 - 4x AA 8x AF
- 8800 GTX: 85.6 fps
- 2900 XT: 86.5
- 8800 GTS: 68.5
X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- 2900 XT: 58.8 fps
- 8800 GTS: 56.5 fps
3DMark06 - Overall [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 6854
- 2900 XT: 6550
- 8800 GTS: 5174
Als dit waar is is dit best wel een mooi kaartje met zeker een betere prijs dan de 8800GTX. Met CrossFire gaat deze kaart zeker voorbij de GTX en misschien zelfs de GTX-SLI. Met de 2900XTX zal het ook wel loslopen denk ik. De benches bij DailyTech vertrouw ik niet.
Ik denk dat we ook eerst de DX10 games/benchmarks moeten afwachten voor we een definitief oordeel vellen..
Officiëler dan de daily tech "benchmarks"?Hacku schreef op zaterdag 28 april 2007 @ 17:23:
Hier enkele officiële cijfers:
Persoonlijk heb ik ook niet zo'n probleem met de performance van de 2900xt. Sure, het zou inderdaad leuk zijn als deze kaart (een aantal keer) beter was dan de 8800GTX, maar voor de prijs die nu rondzweeft op het net, vind ik het zeer goed te doen, zeker als je de (driver)ondersteuning van ATI (in het verleden) meerekent. Betere performance dan een 8800 GTS 640mb met praktisch dezelfde prijs....
En wie weet wat de toekomst nog brengt? Beter drivers? Physics? DX10 performance, al heb je best kans dat zowel de GTX als de 2900 allebei al weer te traag zijn als erg voldoende DX10 spellen zijn...
Wat me wel tegenvalt zijn de uitstellingen en vertragingen. Ik wil toch wel begin juni een ATI kaart hebben....
De resultaten liggen voor mijn neus. Plaatjes en linkjes kan ik helaas nog niet geven, maar ik garandeer je dat deze echt zijn.Anoniem: 125419 schreef op zaterdag 28 april 2007 @ 17:31:
[...]
Kun je effe een linkje geven zodat ik kan zien waar je het vandaan hebt gehaald?
Als dit waar is is dit best wel een mooi kaartje met zeker een betere prijs dan de 8800GTX. Met CrossFire gaat deze kaart zeker voorbij de GTX en misschien zelfs de GTX-SLI. Met de 2900XTX zal het ook wel loslopen denk ik. De benches bij DailyTech vertrouw ik niet.
Nee, niks mis mee, hij is een stuk goedkoper dan de GTX en iets duurder dan de GTS maar laat de GTS toch mooi achter zich heen varen.RappieRappie schreef op zaterdag 28 april 2007 @ 17:30:
Niks mis met die kaart dus.
Helemaal niet als hij een stuk goedkoper is dan de GTX, dan is het een hele goeie koop.
[ Voor 23% gewijzigd door XWB op 28-04-2007 17:36 ]

btw CJ, die tease op b3d, je bent hier onder vrienden dus laat je maar gaan (of mail ze door)
[ Voor 35% gewijzigd door oeLangOetan op 28-04-2007 17:50 ]
Anoniem: 107573
Qua bang voor de buck niets mis mee inderdaad
Toch zullen een hoop mensen enigzins teleurgesteld zijn dat ie de GTX niet verslaat, Maar volgens mij is er niks niews onder de zon. Pure speed= nVidia, meer features (? ), en misschien ook wel betere IQ ( ? ) = Ati. Zo is het volgens mij al lange tijd geweest.
Kijken hoe ze het doen in DX10 nu
Toch zullen een hoop mensen enigzins teleurgesteld zijn dat ie de GTX niet verslaat, Maar volgens mij is er niks niews onder de zon. Pure speed= nVidia, meer features (? ), en misschien ook wel betere IQ ( ? ) = Ati. Zo is het volgens mij al lange tijd geweest.
Kijken hoe ze het doen in DX10 nu
Jammer dat je nog niemand hoort over de IQ opties van de R600, behalve dan wat vaag gebrabbel van The Inq.... valt me op dat dit nog niet echt gelekt is. Maar goed, wat niet is kan nog komen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Daar ga ik van uit.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Tja, 26x AA dat zal ie niet trekken in de meeste games mag ik aannemen.
ik zie het al voor me in FEAR.
ik zie het al voor me in FEAR.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 125419
RappieRappie schreef op zaterdag 28 april 2007 @ 18:02:
Tja, 26x AA dat zal ie niet trekken in de meeste games mag ik aannemen.
ik zie het al voor me in FEAR.
Waar heb je in vredesnaam nou 26x AA voor nodig. Ik vind dat alles bij 8x AA er al best strak uitziet en mijn kaart kan 16x ofzo. (weet het niet zeker) Waar heb je 26 nou voor nodig.
Moet je dit zien:
Half Life???? 4xAA
Half Life???? 32xAA
Het verschil vindt ik zo minimaal. Het ziet er allemaal ietsiepietsie mooier uit maar meer ook niet.
[ Voor 20% gewijzigd door Anoniem: 125419 op 28-04-2007 18:18 ]
Er is natuurlijk altijd nog een groep mensen die bereid is flinke concessies op de performance te doen, voor dit soort beeldverbeterende features.
Ik denk dat die 26x AA vooral leuk is voor de marketing machine
Ik denk dat die 26x AA vooral leuk is voor de marketing machine
wat is er nog meer op het gebied van IQ gedaan, bv. de AF?
Misschien toch maar eens 2 van deze beestjes in CF zetten, als ik er 2 kan vinden straks tenminste.
[ Voor 18% gewijzigd door edward2 op 28-04-2007 18:24 ]
Niet op voorraad.
Anoniem: 125419
De prestaties van een kaart op AF gebied vind ik belangrijker dan die op AA gebied. AF bepaald immers hoever de afstand is totdat het details op grondtextures verdwijnen. Ik heb er een hekel aan als ik in een FPS rondloop en elke keer de grondtetxures om me heen scherper zie worden. Bij 16x AF verdwijnt dat grotendeels. Persoonlijk zou ik sneller de AF hoger zetten dan AA.edward2 schreef op zaterdag 28 april 2007 @ 18:23:
[...]
wat is er nog meer op het gebied van IQ gedaan, bv. de AF?
Misschien toch maar eens 2 van deze beestjes in CF zetten, als ik er 2 kan vinden straks tenminste.
Ik ben dus erg benieuwd hoe ATI de AF regelt in haar nieuwe kaarten.
Anoniem: 107573
Mee eens, hoewel ik mij ook groen en geel erg aan games die gewoon geen/ of een vreemde vorm van AA ondersteunen. Dan denk ik direct aan GRAW en R6: Vegas, en in mindere mate aan Stalker

Ik denk dat het aantal textuurstages/lagen wat gefilterd wordt, misschien nog wat omhoog kan verder van de "camera" af. Maar ik ben benieuwd wat ATI voor ons in petto heeft.Anoniem: 125419 schreef op zaterdag 28 april 2007 @ 18:31:
[...]
De prestaties van een kaart op AF gebied vind ik belangrijker dan die op AA gebied. AF bepaald immers hoever de afstand is totdat het details op grondtextures verdwijnen. Ik heb er een hekel aan als ik in een FPS rondloop en elke keer de grondtetxures om me heen scherper zie worden. Bij 16x AF verdwijnt dat grotendeels. Persoonlijk zou ik sneller de AF hoger zetten dan AA.
Ik ben dus erg benieuwd hoe ATI de AF regelt in haar nieuwe kaarten.
Verder zou ik shader/specular AA wel leuk vinden.
[ Voor 3% gewijzigd door edward2 op 28-04-2007 18:55 ]
Niet op voorraad.
haha 4 dagen en het is 2 mei
hopenlijk komen er dan echte benchmarks met 100 % waarheidsgarantie

вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ
Dan neem je die van Hacku toch.dreameater schreef op zaterdag 28 april 2007 @ 20:11:
haha 4 dagen en het is 2 meihopenlijk komen er dan echte benchmarks met 100 % waarheidsgarantie
Ja, dan neem je die toch gewoon?
Of anders hier nog 3DM score. Dit keer 3DM06 op een E6600:
Of anders hier nog 3DM score. Dit keer 3DM06 op een E6600:

[ Voor 3% gewijzigd door CJ op 28-04-2007 20:28 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 107573
Ik blijf het jammer vinden voor een kaart die zó lang op zich heeft laten wachten, en dan zo'n 3d06 score te zien
Maar goed, ik wordt nu idd wel érg niewschierig naar wat Ati nog meer in petto heeft, we weten nu immers hoe ie het doet in benchmarks en games.
Maar goed, ik wordt nu idd wel érg niewschierig naar wat Ati nog meer in petto heeft, we weten nu immers hoe ie het doet in benchmarks en games.

Die SM 3.0 score is heel behoorlijk. Beter dan een standaard GTX. Alleen is die cpu wel overgeclocked. Ik schat op 3.6 GHz.CJ schreef op zaterdag 28 april 2007 @ 20:28:
Ja, dan neem je die toch gewoon?
Of anders hier nog 3DM score. Dit keer 3DM06 op een E6600:
[afbeelding]
ja..3500-3600mhz...haal hier 3150 met een 6600 @ 3600mhz
Als ik dit zo bekijk heeft de kaart wel het potentieel om even snel te zijn als de GTX alleen gaat er soms wat fout. Je ziet ook dat hij vooral in de hogere resoluties klappen krijgt. Maar dit zou inderdaad aan de driver kunnen liggen. Dit zijn dus de drivers die bij release aanwezig zullen zijn ?Hacku schreef op zaterdag 28 april 2007 @ 17:23:toon volledige bericht
Al die paniek voor niksDe 2900XT presteert bijna overal beter dan GeForce 8800 GTS 640MB en in sommige gevallen close bij de GTX. En zeker in de hoge resoluties met alle snufjes aan laat deze kaart haar tanden zien. Ga maar niet teveel af op die scores van DailyTech, ze zijn er iig goed in geslaagd om een hoop paniek rond te strooien. Van de mid-range kaarten weet ik nog niks, maar naar zeggen zouden deze sneller moeten zijn dan de 8600 serie van nVidia. De GTX zal vast bijgehouden worden door de XTX, alleen jammer dat AMD deze naar Q3 verplaatst heeft. Op de 8800 Ultra is er echter geen antwoord, maar die kaart kost sowieso veel te veel.
De situatie nu:
- nVidia heeft haar drivers puur op snelheid gericht. De 8800 presteert dan ook erg goed, maar de drivers kennen veel tekorten, bugs e.d. ...
- AMD heeft haar drivers op stabiliteit en features gericht, juist het omgekeerde dus.
Wat zal er gebeuren? AMD zal nu aan de performance sleutelen, nVidia aan de features en binnen de kortste keren hebben beide kampen gelijk presterende kaarten.
Hier enkele officiële cijfers:
FarCry 1.4 SM3 HDR [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 76.7 fps
- 2900 XT: 70.2 fps
- 8800 GTS: 54 fps
Prey [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 89.9 fps
- 2900 XT: 70.5 fps
- 8800 GTS: 65.5 fps
Splinter Cell: Chaos Theory SM3 HDR [1600x1200 - 4x AA 8x AF
- 8800 GTX: 85.6 fps
- 2900 XT: 86.5
- 8800 GTS: 68.5
X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- 2900 XT: 58.8 fps
- 8800 GTS: 56.5 fps
3DMark06 - Overall [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 6854
- 2900 XT: 6550
- 8800 GTS: 5174
En kun je ook iets zeggen over het stroomverbruik ? als in klopt die 230 watt voor die HD2900 XT ? Gebruikt hij dat echt ? Of is het net als dit ratings van AMD BV 90 watt en 75-80 gebruiken ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nee er komen nog nieuwe drivers als het goed is.Astennu schreef op zaterdag 28 april 2007 @ 22:29:
[...]
Als ik dit zo bekijk heeft de kaart wel het potentieel om even snel te zijn als de GTX alleen gaat er soms wat fout. Je ziet ook dat hij vooral in de hogere resoluties klappen krijgt. Maar dit zou inderdaad aan de driver kunnen liggen. Dit zijn dus de drivers die bij release aanwezig zullen zijn ?
Ja he, er zit soms een grillig patroon in de perf (FEAR). Maarja het is natuurlijk ook een andere architectuur(geheel?)Astennu schreef op zaterdag 28 april 2007 @ 22:29:
[...]
Als ik dit zo bekijk heeft de kaart wel het potentieel om even snel te zijn als de GTX alleen gaat er soms wat fout. Je ziet ook dat hij vooral in de hogere resoluties klappen krijgt. Maar dit zou inderdaad aan de driver kunnen liggen. Dit zijn dus de drivers die bij release aanwezig zullen zijn ?
En kun je ook iets zeggen over het stroomverbruik ? als in klopt die 230 watt voor die HD2900 XT ? Gebruikt hij dat echt ? Of is het net als dit ratings van AMD BV 90 watt en 75-80 gebruiken ?
BTw, 890 core oc,
En, misschien al gezien, een heel dure R600XTX:
http://uk.theinquirer.net/?article=39208
[ Voor 13% gewijzigd door edward2 op 28-04-2007 23:03 ]
Niet op voorraad.
Ja, elke maand...leonpwner1 schreef op zaterdag 28 april 2007 @ 22:31:
[...]
Nee er komen nog nieuwe drivers als het goed is.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Net gehoord dat er nieuwe releasecandidate drivers uit zijn voor de HD2900XT.....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Waar haal je die core OC van 890 vandaan ? Max van CCC is 858-900. Ik gok het ook dat hij dan texture limited zal zijn. De shaders kunnen wel maar die 16 texture units hebben het te druk. Wel stom want dit zijn er even veel als in de X1950 XTX alleen een iets hogere clocks. En ik weet niet of ze nog de units zelf nog verander hebben. En ik gok dat die Shaders ongeveer toch wel veel sneller zijn geworden door de hogere clocks. De nieuwe Shaders en het hogere aantal.edward2 schreef op zaterdag 28 april 2007 @ 22:36:
[...]
Ja he, er zit soms een grillig patroon in de perf (FEAR). Maarja het is natuurlijk ook een andere architectuur(geheel?)
BTw, 890 core oc,niet slecht. De SM3 perf in 3dm06 is ook wat hoger. Volgens mij is de kaart (soms) texture limited in dx9.(?)
En, misschien al gezien, een heel dure R600XTX:
http://uk.theinquirer.net/?article=39208
Dus Deze kaart is echt gemaakt op DX10 en de vraag is dus of hij wel snel genoeg is om de laatste DX9.0 games op 2560-1500 te kunnen draaien met AA en AF max ingame Detail. Zoals het er nu uit ziet in ieder geval niet
Hopelijk kunnen die er voor zorgen dat de performance beter wordt en dat hij ongeveer net zo snel is al de GTX.CJ schreef op zondag 29 april 2007 @ 10:31:
Net gehoord dat er nieuwe releasecandidate drivers uit zijn voor de HD2900XT.....
Gebruiken Prey en X3 toevallig veel textures ? In vergelijking met Splinter Cell ?
[ Voor 13% gewijzigd door Astennu op 29-04-2007 10:37 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Wat denk je nou zelf... denk je echt dat ATi stil heeft gezeten en de texture units exact het zelfde heeft gelaten, terwijl ze bijvoorbeeld voor de Xenos de texture units ook compleet opnieuw hebben aangepakt?Astennu schreef op zondag 29 april 2007 @ 10:34:
[...]
Waar haal je die core OC van 890 vandaan ? Max van CCC is 858-900. Ik gok het ook dat hij dan texture limited zal zijn. De shaders kunnen wel maar die 16 texture units hebben het te druk. Wel stom want dit zijn er even veel als in de X1950 XTX alleen een iets hogere clocks. En ik weet niet of ze nog de units zelf nog verander hebben. En ik gok dat die Shaders ongeveer toch wel veel sneller zijn geworden door de hogere clocks. De nieuwe Shaders en het hogere aantal.
Dus Deze kaart is echt gemaakt op DX10 en de vraag is dus of hij wel snel genoeg is om de laatste DX9.0 games op 2560-1500 te kunnen draaien met AA en AF max ingame Detail. Zoals het er nu uit ziet in ieder geval niet
Kijk naar de gelekte diagram over de architectuur van de R600 en vergelijk het met dezelfde diagrammen van de R520 en R580.... vergelijk de texture units..... en dan heb je daar je antwoord.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
R580

R600

Lijkt wel verbeterd te zijn. Ik zag ook dit Op Beond3D:

Ik vraag me af in hoeverre dit nu klopt aangezien we al in 2007 zitten. Ik denk dat de nieuwe games niet heel veel textures gebruiken maar hoe zit het met games als HL2 en zo ?

R600

Lijkt wel verbeterd te zijn. Ik zag ook dit Op Beond3D:

Ik vraag me af in hoeverre dit nu klopt aangezien we al in 2007 zitten. Ik denk dat de nieuwe games niet heel veel textures gebruiken maar hoe zit het met games als HL2 en zo ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://forum.beyond3d.com...p?p=978396&postcount=3606
HD 2600

HD 2400

Beide beschikken over slechts 4 rop's, misschien heeft ATi er iets speciaal mee uitgehaald?
De HD 2600 heeft 24 vec4+scalars, 8 TMUs, de HD 2400 slechts 8 vec4+scalars en 4 TMU's. De hd 2400 heeft een afwijkende cache structuur, vertex en texture cache zijn samengevoegd, L2 texture cache is verdwenen.
HD 2600

HD 2400

Beide beschikken over slechts 4 rop's, misschien heeft ATi er iets speciaal mee uitgehaald?
De HD 2600 heeft 24 vec4+scalars, 8 TMUs, de HD 2400 slechts 8 vec4+scalars en 4 TMU's. De hd 2400 heeft een afwijkende cache structuur, vertex en texture cache zijn samengevoegd, L2 texture cache is verdwenen.
[ Voor 14% gewijzigd door oeLangOetan op 29-04-2007 13:50 ]
AMD blijft met de kloksnelheden spelen:
De review samples draaiden op 742MHz trouwens.At last ATI has the final Radeon HD 2900XT speeds. The card will work at 507 MHz in 2D mode and 757 MHz in 3D mode. ATI wants to save some power if you are not playing games all the time.
In 3D mode the memory works at 1656 MHz, while if you are just doing 2D stuff,f the memory will slow down to 1028 MHz. We are talking about the 512 MB GDDR3 card.
ATI found that these clocks have much better yield than the previous 800 / 1600 MHz combination. The cards with these clocks will hit retail and etail stores on the 14th of May.
Uhmm. 800-1800 als clocks was wel leuk geweest maar blijkbaar zit dat er dus niet in. Blijkbaar kunnen deze cores ook niet echt de 1000 MHz halen op stock volts. ( Als die 890 van Edward klopt ).Hacku schreef op zondag 29 april 2007 @ 11:34:
AMD blijft met de kloksnelheden spelen:
[...]
De review samples draaiden op 742MHz trouwens.
Weet je toevallig ook wat de huidige kaarten gebruiken ? als in klopt die 230 Watt ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit topic is gesloten.
Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid
Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid
Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)