2 gb is wel heeel veel ik denk niet dat crysis dat echt gaat gebruiken...anders heb ik een groot probleem
Denk dat het best nog eens zou kunnen dat Crysis 2gn wel helemaal vol krijgt.
Als je een 1gb 2950 koopt scheelt dat natuurlijk weer
Als je een 1gb 2950 koopt scheelt dat natuurlijk weer
Nukezone FTW
Hmm... DirectX10 review van PCPer, met een compare van Cat 7.9 en 7.10:
http://www.pcper.com/arti...aid=463&type=expert&pid=1
Overall: paar leuke gains in singlecard-mode
Crossfire performance is een big boost!
Toch mooi
http://www.pcper.com/arti...aid=463&type=expert&pid=1
Overall: paar leuke gains in singlecard-mode
Crossfire performance is een big boost!
Toch mooi
90% in world in conflict performance boost. Maar 20FPS (average?) vind ik met crossfire nou niet echt geweldig. Ook al is de resolutie hoog..met zo'n lage fps kan je dx10 mode gewoon niet spelen.Jejking schreef op zondag 14 oktober 2007 @ 14:25:
Hmm... DirectX10 review van PCPer, met een compare van Cat 7.9 en 7.10:
http://www.pcper.com/arti...aid=463&type=expert&pid=1
Overall: paar leuke gains in singlecard-mode
Crossfire performance is een big boost!
Toch mooi

CrossFire Comparison: Intel X38 vs. P35
Intressant stukje over de verschillende snelheden ( X16 X4 / X8 X8 / X16 X16 ) waarmee CF werkt.
http://www.bit-tech.net/h...on_intel_x38_versus_p35/1
Intressant stukje over de verschillende snelheden ( X16 X4 / X8 X8 / X16 X16 ) waarmee CF werkt.
http://www.bit-tech.net/h...on_intel_x38_versus_p35/1
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Die World in Conflict-performance is inderdaad zwaar triest, helaas...keldererik schreef op zondag 14 oktober 2007 @ 15:10:
[...]
90% in world in conflict performance boost. Maar 20FPS (average?) vind ik met crossfire nou niet echt geweldig. Ook al is de resolutie hoog..met zo'n lage fps kan je dx10 mode gewoon niet spelen.
We hebben het al gehad over niet geoptimaliseerde code en dergelijke, maar AMD zal een winst van nog at LEAST 100 en eigenlijk gewoon 200 procent extra moeten vinden in de drivers willen ze weer op schema zitten. Oftewel: 8800GTS640+ performance.
De Asus heeft een voordeel door de PCI-E split chip zodat CF in 2 maal 8x gedraaid kan worden. Echter het grote nadeel van de PCI-E slitter op dit mainboard is dat die NIET compatible is met PCI-E 2.0. Er zijn PCI-E split chipset die wel PCI-E 2.0 supporten maar die zijn nog erg prijzig en worden ook erg warm. Ik weet nog geen merk mobo die deze gebruikt.Apoca schreef op zondag 14 oktober 2007 @ 15:54:
CrossFire Comparison: Intel X38 vs. P35
Intressant stukje over de verschillende snelheden ( X16 X4 / X8 X8 / X16 X16 ) waarmee CF werkt.
http://www.bit-tech.net/h...on_intel_x38_versus_p35/1
Reageer dan gewoon niet...
[ Voor 87% gewijzigd door Ultraman op 14-10-2007 19:56 ]
PCper zelf denkt daar het volgende over:Jejking schreef op zondag 14 oktober 2007 @ 14:25:
Hmm... DirectX10 review van PCPer, met een compare van Cat 7.9 en 7.10:
http://www.pcper.com/arti...aid=463&type=expert&pid=1
Overall: paar leuke gains in singlecard-mode
Crossfire performance is een big boost!
Toch mooi
Ook met multi-GPU is ATi nog lang niet waar ze moeten zijn.Single GPU Performance
Updated (10/10/07): The move from the 7.9 driver to the 7.10 "Shoot-em-up" Catalyst update didn't have much of an effect on our single graphics card performance at all. In only one or two instances did we see any changes, and neither was what I would call "drastic" enough to change my opinion on the HD 2900 XT for the current generation of DX10 games. The HD 2900 XT is a solid competitor against NVIDIA's 8800 GTS 640MB, but the Catalyst 7.10 driver hasn't done anything to overtake it.
[...]
Our DX10 titles show a slightly difference scenario though, one that hasn't been in the public eye long enough to get the full attention of both parties. In our single GPU testing, the NVIDIA 8800 GTX was by far the best performer in the DX10 titles that are currently available. The GeForce 8800 GTS 640MB card, closer to the actual price competitor to AMD's HD 2900 XT card, was also a strong performer and out matched the AMD card in just about all of our tests.
The AMD HD 2900 XT had some difficult times as a single card; it came in last in our 3-way comparison in all of our tests with the exception of Call of Juarez where it had a slight lead over the 8800 GTS 640MB. In our initial review of AMD Radeon HD 2900 XT back in May I concluded that the card was mediocre for current DX9 titles but that "real test on these cards will come later this summer and into the fall as the first Direct X 10 titles are finally released." Well that time is now, and AMD let us down again. This could be an issue with the hardware design or clock speeds but it also is definitely an issue with driver development.
nV heeft ze - ondanks initieel betere CF drivers - met hun SLI drivers al een tijd terug rechts gehaald.
[ Voor 9% gewijzigd door Cheetah op 15-10-2007 04:23 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Waarom ben ik niet verbaasd dat je alleen maar dit gedeelte quote en doet alsof het 'de volledige' conclusie is van PC Perspective, terwijl ze nog zo veel meer zeggen? Ik ga er maar van uit dat je de rest 'vergeten' bent te quoten, dus vul ik het wel even voor je aan:
Multi-GPU Scaling Performance
Update (10/10/07): The real magic of AMD's Catalyst 7.10 update comes when you plug in a second HD 2900 XT card -- our CrossFire experiences with this driver were WORLDS above what we had to deal with on the 7.9 driver revision. In all of our games we saw notable improvements in the scaling of CrossFire and in some cases turned a negative performance gain into a strong positive one. In Bioshock we saw a 54% gain in CrossFire performance, in Company of Heroes we saw a 73% gain and in World of Conflict a 93% gain. The other two titles, Call of Juarez and Lost Planet, which already had CrossFire scaling with the 7.9 driver, still saw improvements of 9% and 20% respectively when tested with the new Catalyst 7.10 drivers.
....
Final Thoughts
Update (10/10/07): We asked and AMD was on the ball -- when we said that "AMD needed to put some work in" they were apparently doing just that. While the single card performance of the HD 2900 XT didn't improve as much as I was hoping, the fact that AMD was able to address so many CrossFire issues all at once leads me to believe that more performance gains are on the way. I can no longer say that CrossFire was a complete disappointment because the 7.10 drivers address just about all of my concerns in that regard. The AMD Radeon HD 2900 XT is definitely a stronger competitor with NVIDIA's 8800 GTS 640MB now and in only one instance (World in Conflict) did I feel the performance of the AMD card was a hindrance to the game.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Singel card is dikke win voor nVidia maar zodra je naar CF of SLI gaat kijken wint AMD. Mja bijna niemand koopt CF of SLI de meeste hebben gewoon een singel card. Dus die performance is wel het belangrijkste.
Als ik dit ook zie maak ik me echt zorgen over de RV670. Als ze niets verandert hebben aan de chip zelf blijft de performance zo gaar. En aangezien de 8800 GT 112 shaders heeft tov 96 van de GTS en ook nog eens hogere clocks zou dit nog wel eens een probleem kunnen zijn. Alleen het is nu de vraag hebben de RV670 en de G92 veel last van hun 256 Bit bus.
Als ik dit ook zie maak ik me echt zorgen over de RV670. Als ze niets verandert hebben aan de chip zelf blijft de performance zo gaar. En aangezien de 8800 GT 112 shaders heeft tov 96 van de GTS en ook nog eens hogere clocks zou dit nog wel eens een probleem kunnen zijn. Alleen het is nu de vraag hebben de RV670 en de G92 veel last van hun 256 Bit bus.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ok, dit is echt ongelooflijk grappig.CJ schreef op maandag 15 oktober 2007 @ 05:31:
Waarom ben ik niet verbaasd dat je alleen maar dit gedeelte quote en doet alsof het 'de volledige' conclusie is van PC Perspective, terwijl ze nog zo veel meer zeggen? Ik ga er maar van uit dat je de rest 'vergeten' bent te quoten, dus vul ik het wel even voor je aan:
Me ergens van beschuldigen en het direct daarop volgend nog veel harder zelf doen door wat zeer relevante informatie direct uit het stuk dat je quote weg te laten. Ik ga er ook maar van uit dat je het volgende 'vergeten' bent te quoten (of nee, je hebt 't er bewust uit weggeknipt en vervangen door puntjes), dus vul ik het wel even voor je aan:
Conclusie:If the single graphics card performance of the HD 2900 XT made NVIDIA's 8800 cards look good, then the SLI versus CrossFire comparison puts NVIDIA on cloud 9. NVIDIA has done a great job improving the SLI experience on Windows Vista and has been able to produce some impressive scaling numbers. In Call of Juarez adding a second 8800 GTS 640MB card got us an 86% improved frame rate and in Lost Planet we saw an 81% improvement. Other titles like World in Conflict and Bioshock had smaller performance advantages in SLI but the fact is that there were improvements across the board.
World in Conflict DX10
The same cannot be said about AMD's CrossFire technology; the only games that saw any kind of positive scaling were Call of Juarez and Lost Planet. Those two titles actually did pretty well as the second HD 2900 XT card provided a 53% and 43% improvement in average frame rate respectively. The other three games, Bioshock, Company of Heroes and World in Conflict, actually saw negative performance when adding in the second card for CrossFire mode and user's that had actually shelled out the cash for a pair of them would no doubt be disappointed with those results.
NVIDIA still has room to improve, and they have admitted as much, but their Vista multi-GPU experience is worlds above what AMD's is currently providing. Logic says that AMD should be able to address both single and dual card performance with driver updates but when and by how much is up in the air.
Will AMD's drivers be able to aid their DX10 performance enough to make up these differences or will the upcoming hardware refresh be required before we some kind of performance normalization with NVIDIA?
Cheetah schreef op maandag 15 oktober 2007 @ 04:22:
Ook met multi-GPU is ATi nog lang niet waar ze moeten zijn.
nV heeft ze - ondanks initieel betere CF drivers - met hun SLI drivers al een tijd terug rechts gehaald.
Dit was @release zo ja, maar is al enkele driversets history. AMD is ook die voorsprong al een tijd kwijt.Astennu schreef op maandag 15 oktober 2007 @ 08:33:
Singel card is dikke win voor nVidia maar zodra je naar CF of SLI gaat kijken wint AMD.
Check de review... de SLI 8800GTS wint op 1 na alle tests, en vaak niet met geringe marges. En bij die ene test die de 2900CF wint is het avg verschil klein (1fps) en de GTS qua min fps alsnog (5fps) beter.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Dit is wel triest
nja hopelijk snel betere drivers..... Anders denk ik dat de 8800 GT de nieuwe best verkochte kaart gaat worden en de RV670 aanzienlijk langzamer is. aangezien de GT sneller zal zijn dan de huidige GTS.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Cheetah schreef op maandag 15 oktober 2007 @ 11:08:
[...]
Ok, dit is echt ongelooflijk grappig.
Me ergens van beschuldigen en het direct daarop volgend nog veel harder zelf doen door wat zeer relevante informatie direct uit het stuk dat je quote weg te laten. Ik ga er ook maar van uit dat je het volgende 'vergeten' bent te quoten (of nee, je hebt 't er bewust uit weggeknipt en vervangen door puntjes), dus vul ik het wel even voor je aan:
[...]
Conclusie:

Slimmerik.... Je leest de hele review verkeerd.... De review is geupdate. Dat wil zeggen dat alles wat jij nu net gequote hebt niet meer geldig is (lees: niet meer relevant is) en dat de vetgedrukte gedeeltes de oude conclusie die cursief gedrukt is vervangen.... Mail Ryan Shrout zelf even en vraag hoe het zit als je me niet gelooft....
Zo heeft PC Per altijd gewerkt met updates van hun artikels... en zo werken ze nog steeds.
De nieuwe conclusie staat zelfs op de gelinkte pagina (summary) die jij ook nog aangehaald hebt...Just a few short days ago, I posted another article that looked at the DX10 performance of the top graphics cards from both AMD and NVIDIA using up-to-date drivers and patches for all titles. Just 6 days later, that's all crap. Gee, thanks.

Sorry hoor... Maar je bevestigt nu alleen maar wat ik al dacht....
De XT wint er trouwens 3... en toch komt de schrijver tot een hele andere conclusie dan wat jij ons wilt doen geloven. Nog maar eens de nieuwe conclusie quoten dan....Dit was @release zo ja, maar is al enkele driversets history. AMD is ook die voorsprong al een tijd kwijt.
Check de review... de SLI 8800GTS wint op 1 na alle tests, en vaak niet met geringe marges. En bij die ene test die de 2900CF wint is het avg verschil klein en de GTS qua min fps alsnog beter.
I can no longer say that CrossFire was a complete disappointment because the 7.10 drivers address just about all of my concerns in that regard. The AMD Radeon HD 2900 XT is definitely a stronger competitor with NVIDIA's 8800 GTS 640MB now and in only one instance (World in Conflict) did I feel the performance of the AMD card was a hindrance to the game.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Ik snap die hele commotie niet. Het gaat redelijk gelijk op, met ongeveer 5 fps verschil heen en weer, behalve in Lost Planet, en WiC. Voor WiC is natuurlijk een beetje jammer dat PcPer de patch er niet overheen gedaan hebben. En jah Lost Planet, dat is natuurlijk opgekocht door nVidiaCheetah schreef op maandag 15 oktober 2007 @ 11:08:
Ok, dit is echt ongelooflijk grappig.
Me ergens van beschuldigen en het direct daarop volgend nog veel harder zelf doen door wat zeer relevante informatie direct uit het stuk dat je quote weg te laten. Ik ga er ook maar van uit dat je het volgende 'vergeten' bent te quoten (of nee, je hebt 't er bewust uit weggeknipt en vervangen door puntjes), dus vul ik het wel even voor je aan:
Ik vind de performance die ik van de AMD kaarten in UT 3 zie in de benshmarks erg tegen vallen. Als ik dat vergelijk met wat ik zie als ik speel. Ik zal vanavond eens dezelfde maps als hun gaan spelen. Ik heb zo'n vermoeden dat met een nieuwe driver de UT3 performance nog wel eens hoger kan worden.
En die fillrate wordt dat bepaald door de Texture units ? of door de robs ? want dat zijn de zwakkere punten van ATi kaarten. Was bij de X1K serie ook al. Blijkbaar heeft nVidia er slim aan gedaan om er veel texture units en robs in te houden.
En die fillrate wordt dat bepaald door de Texture units ? of door de robs ? want dat zijn de zwakkere punten van ATi kaarten. Was bij de X1K serie ook al. Blijkbaar heeft nVidia er slim aan gedaan om er veel texture units en robs in te houden.
[ Voor 18% gewijzigd door Astennu op 15-10-2007 11:53 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Is die discussie over crossfire dan nodig? Crossfire heeft amper marktaandeel en SLI zal altijd het grootste aandeel behouden. Geen kat die crossfire kent en de nieuwe snelheidswinst zal daar niks aan veranderen.Ik snap die hele commotie niet.
Goed, dat had ik blijkbaar gemist...CJ schreef op maandag 15 oktober 2007 @ 11:28:
![]()
Slimmerik.... Je leest de hele review verkeerd.... De review is geupdate. Dat wil zeggen dat alles wat jij nu net gequote hebt niet meer geldig is (lees: niet meer relevant is) en dat de vetgedrukte gedeeltes de oude conclusie die cursief gedrukt is vervangen.... Mail Ryan Shrout zelf even en vraag hoe het zit als je me niet gelooft....
Zo heeft PC Per altijd gewerkt met updates van hun artikels... en zo werken ze nog steeds.
Maar dan nog:
De XT CF wint maar 1 van de 10 tests met iets dat marge genoemd kan worden: Bioshock 1920x1200 met ongeveer 9% voorsprong op de GTS SLI.De XT wint er trouwens 3... en toch komt de schrijver tot een hele andere conclusie dan wat jij ons wilt doen geloven.
2 andere tests zijn gelijkspel (CoJ 1600+1920, waarbij in CoJ de GTS SLI een duidelijk voordeel bij min-fps heeft). Bioshock 1600 toont een licht voordeel voor de GTS (5%). In de overige 6 tests is de GTS SLI duidelijk in het voordeel, regelmatig met tientallen procenten, tot zelfs ruim 100% meer performance in WiC.
Dus, XT CF: 1x win, 2x "gelijk" (qua min: GTS), 7x verlies waarvan 6x niet gering. Mijn conclusie staat.
7.10 is welliswaar een stuk beter dan 7.9, maar het is nog lang niet waar ATi moet zijn.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Cheetah waarom snap jij niet dat het mensen geen zak uitmaakt dat een Nvidia kaart sneller is. Ik koop toch wel een ATI kaart omdat alles er omheen mij meer aanspreekt. Welke kaart er in directX10 minder slecht speelbaar is zal me echt aan m'n reet roesten. Je bent gewoon zeer selectief met wat je post en het is altijd om te laten zien hoe goed Nvidia kaarten zijn en hoe slecht de ATI kaarten nu presteren. Wees maar blij dat er hier mensen zijn die ATI kaarten kopen. Zelfde als met AMD processors. Als Nvidia en Intel dalijk alleen over zijn ben jij pas blij of niet? 
Ik vind het leuk om nieuwtjes van CJ te lezen (over ATI dus). Wat Nvidia doet lees ik wel in het Nvidia topic? Lijkt mij logisch...
EDIT: Er is dan ook altijd iets als prijs prestatie. Ik denk dat ik met m'n 2900PRO een aardig leuk kaartje heb voor 215 euro. Mijn 1900GT was 200 euro en die is een stuk langzamer. Een even dure kaart is dus veel sneller. Dan maakt het mij niks uit dat er nog snellere (en nog duurdere) kaarten van zowel ATI als Nvidia zijn. Mijn 1900GT geef ik aan mijn broertje en de 2900PRO gaat in mijn pc. Iedereen hier tevreden
Die 1900GT trekt bvb R6Vegas en Hitman Bloodmoney niet op 1920*1200. Die 2900PRO gaat dat een stuk beter af denk ik
Ik vind het leuk om nieuwtjes van CJ te lezen (over ATI dus). Wat Nvidia doet lees ik wel in het Nvidia topic? Lijkt mij logisch...
EDIT: Er is dan ook altijd iets als prijs prestatie. Ik denk dat ik met m'n 2900PRO een aardig leuk kaartje heb voor 215 euro. Mijn 1900GT was 200 euro en die is een stuk langzamer. Een even dure kaart is dus veel sneller. Dan maakt het mij niks uit dat er nog snellere (en nog duurdere) kaarten van zowel ATI als Nvidia zijn. Mijn 1900GT geef ik aan mijn broertje en de 2900PRO gaat in mijn pc. Iedereen hier tevreden
Die 1900GT trekt bvb R6Vegas en Hitman Bloodmoney niet op 1920*1200. Die 2900PRO gaat dat een stuk beter af denk ik
[ Voor 37% gewijzigd door R-O-Y op 15-10-2007 12:41 ]
Dat ligt er aan over welke fillrate je het hebt. De Unreal Engine 3 zoals die gebruikt wordt in UT3 is zeer afhankelijk van texture fillrate en daar heeft de G80 bijna 2x zo veel van als de R600.Astennu schreef op maandag 15 oktober 2007 @ 11:52:
En die fillrate wordt dat bepaald door de Texture units ? of door de robs ? want dat zijn de zwakkere punten van ATi kaarten. Was bij de X1K serie ook al. Blijkbaar heeft nVidia er slim aan gedaan om er veel texture units en robs in te houden.
R600 @ 742Mhz:
Pixel Fillrate: 11872 Mpixels/sec
Texture Fillrate: 11872 Mtexels/sec
G80 @ 575Mhz Core, 1300Mhz shaders:
Pixel Fillrate 13800 Mpixels/sec
Texture Fillrate 18400 Mtexels/sec
Penstar Sys komt trouwens met het volgende:
http://penstarsys.com/This all leads up to AMD’s RV670. What was initially thought to be just a midrange chip is looking to turn out to be much, much more. This 55 nm new chip from AMD contains all of the primary functional units of the older R600. This means 320 stream processors, 1024 bit ringbus, and what looks to be the same amount of RBEs and texture/filtering units. A big change is that the chip will “only” feature a 256 bit bus, like its competition from NVIDIA. Memory bandwidth may not really be a problem though, as faster GDDR-4 is already available. It may not be the 512 bit bus that the R600 had, but that in all honesty seemed like overkill because the chip was never able to really utilize that bandwidth.
It seems that a lot of work has been done on the RBEs as well. The Achilles’ heel of the R600 was its poor anti-aliasing performance due to its reliance on shader based color resolve. I do not yet know the details, but it appears that AMD has fixed this problem and we can expect much better AA performance. AMD may still be doing shader based color resolve, but apparently it is now highly optimized. When running without AA the HD 2900 XT was often able to compete with the 8800 GTX/Ultra in many applications, but once AA was turned on performance typically was brought down to the 8800 GTS level.
The chip will run around 800 MHz with fast GDDR-4 at the high end. We can expect this card to be around $300, which is cheaper than the current HD 2900 XT. It will also thoroughly spank the HD 2900 XT in overall performance as well as features. It will have the complete UVD unit, and implement SM 4.1 functionality. And it does it all with single slot cooling and a power draw of around 120 to 130 watts depending on the configuration. Some of the initial cards from other AIBs will likely features dual slot cooling, plus overclocked configurations. I also wouldn’t be surprised to see an 8 pin PCI-E version that will really clock up there. This looks to be the next high end for AMD for a while, until at least the R670 comes into play. From all indications the R670 is actually two RV670s on one PCB. Expect that card to come out early Q1 2008, right around the time NVIDIA will release its 8800 GX2 type product for the high end.
AMD took a chance on releasing a product on TSMC’s 55 nm process, and it looks like this gamble really paid off. NVIDIA is sticking with the more mature 65 nm process, but in this case their conservative bet did not look to pay off. 55 nm is about 90% the size of the 65 nm products, but for some reason TSMC added a few other features to the process and are expressing that designs will pull 10% to 20% less power according to Daily Tech. This gives AMD a little bit of an advantage in both size and power over competing NVIDIA designs. AMD stumbled with the R600, and the RV630/610 parts certainly did not impress many people either, but it appears as though AMD has righted the ship and the RV670 is going to be a pretty impressive product at its price point.
Launch of the RV670 appears to be on the same day as the launch of the AMD Phenom and RD790 chipset (and its derivatives). So reviewers will have their hand’s full getting the Phenom, motherboard, and accompanying graphics cards benchmarked and written up! This will be a huge day for AMD, and they are hoping that overall it will be thermonuclear explosion of information and performance figures.
Something that is quite telling about this launch is that AMD and its partners stopped sampling HD 2900 XT cards some time ago. A PR person from one of the partners was overheard saying, “Why would I want to sample anymore HD 2900s when the RV670 is so much faster and almost here?”
Dat het allemaal gelanceerd wordt op 1 dag klopt niet zoals inmiddels bekend. RV670 op 15 November, RD790 op 20 November en Phenom wanneer de goedheiligman in ons land is. D'r zitten overigens nog wat foutjes in het artikel... maar dat terzijde.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Phenom is volgens The Source pas in december.
Het is me nog steeds niet duidelijk of dit door drivers gedaan is of echt hardwarematig?but it appears that AMD has fixed this problem and we can expect much better AA performance
Dat zeg ik toch ook? *hint hint*Hacku schreef op maandag 15 oktober 2007 @ 12:48:
Phenom is volgens The Source pas in december.
Een combinatie denk ik. Als er geen hardware shaderresolve is toegepast, dan zijn er andere dingen geoptimaliseerd (bv zoals ik al eerder aangaf als mogelijkheid een snellere fast path connectie bv tussen de shaders en ROPs).Het is me nog steeds niet duidelijk of dit door drivers gedaan is of echt hardwarematig?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ohh ik dacht te hebben begrepen bij de release van de 790FX. Was al klaar voor de 790FX & Phenom X4 combo, maar dat gaat dus weer wachten worden..Hacku schreef op maandag 15 oktober 2007 @ 12:48:
Phenom is volgens The Source pas in december.
Lijkt me dat hier de "oudere" HD2XXX kaartjes ook nog wel aan kunnen hebben, maar op het moment dat je de hardwarematige aanpassing mist stopt het wel. Maar klinkt wel goed, elke aanpassing in de drivers is weer winst uiteindelijk.CJ schreef op maandag 15 oktober 2007 @ 13:06:
Een combinatie denk ik. Als er geen hardware shaderresolve is toegepast, dan zijn er andere dingen geoptimaliseerd (bv zoals ik al eerder aangaf als mogelijkheid een snellere fast path connectie bv tussen de shaders en ROPs).
[ Voor 48% gewijzigd door Apoca op 15-10-2007 13:12 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Nee, juist niet, en exact daarom wordt ik niet vrolijk van wat ik tot nu toe gezien heb.R-O-Y schreef op maandag 15 oktober 2007 @ 12:37:
Als Nvidia en Intel dalijk alleen over zijn ben jij pas blij of niet?
De groep mensen die uit pure ATi liefde niets anders dan ATi wil is klein en slinkende. Deze situatie kan echt niet lang meer zo voortduren, zonder zeer schadelijk te worden voor ATi.
De bespreking van een ATi Catalyst 7.9 en 7.10 performancereview hoort in het nV topic?Ik vind het leuk om nieuwtjes van CJ te lezen (over ATI dus). Wat Nvidia doet lees ik wel in het Nvidia topic? Lijkt mij logisch...
Het wordt steeds wonderlijker hier...
Dat ziet er eindelijk goed uit...CJ schreef op maandag 15 oktober 2007 @ 12:45:
Penstar Sys komt trouwens met het volgende [...]
ATi heeft dus blijkbaar toch aanpassingen aan de render back's gedaan bij RV760 om de AA performance op te trekken
De render back's zijn schijnbaar aangepast:Hacku schreef op maandag 15 oktober 2007 @ 12:48:
Het is me nog steeds niet duidelijk of dit door drivers gedaan is of echt hardwarematig?
Gezien Cat 7.10 ook weinig doet voor single card (& AA) performance verwacht ik geen wonderen van 7.11 bij release van RV670. Het krijgt er steeds meer de schijn van dat de aanpassing in hardware is gedaan (en ik ben blij dat te horen)It seems that a lot of work has been done on the RBEs as well. The Achilles’ heel of the R600 was its poor anti-aliasing performance due to its reliance on shader based color resolve. I do not yet know the details, but it appears that AMD has fixed this problem and we can expect much better AA performance. AMD may still be doing shader based color resolve, but apparently it is now highly optimized.
[ Voor 8% gewijzigd door Cheetah op 15-10-2007 13:16 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Vreemd eigenlijk, mijn (zelf iets overgeclockte) 7950gt heeft een Pixel Fillrate van 14.4 GPixel/sec en een Texture Fillrate van 21.6 GTexel/sec.CJ schreef op maandag 15 oktober 2007 @ 12:45:
[...]
R600 @ 742Mhz:
Pixel Fillrate: 11872 Mpixels/sec
Texture Fillrate: 11872 Mtexels/sec
G80 @ 575Mhz Core, 1300Mhz shaders:
Pixel Fillrate 13800 Mpixels/sec
Texture Fillrate 18400 Mtexels/sec
RV670 lijkt me enorm vet worden, misschien is het een leuke keuze als ik nog eens aan een nieuwe videokaart toe ben in deze PC
@Cheetah: wat wil je nou in godsnaam bereiken hiermee? Het is een ATI nieuwstopic, geen persoonlijk 8800gts vs 2900XT topic, spreek eens af met CJ en ga een middag samen discussieren ipv deze eeuwige discussie continu voort te zetten

Hij had het over de Catalyst drivers...? Nee...Cheetah schreef op maandag 15 oktober 2007 @ 13:13:
[...]
De bespreking van een ATi Catalyst 7.9 en 7.10 performancereview hoort in het nV topic?
Het wordt steeds wonderlijker hier...
[ Voor 14% gewijzigd door Avalaxy op 15-10-2007 13:24 ]
Maar niet in de zin zoals jij dat graag zou willen, namelijk hardware shaderresolve.Cheetah schreef op maandag 15 oktober 2007 @ 13:13:
[...]
De render back's zijn schijnbaar aangepast:
AMD is zeker van z'n zaak dat shaderbased AA resolve "the way of the future" is, maar de eerste implementatie hiervan was niet zo efficient als het had kunnen zijn. Dat is nu 'blijkbaar' aangepakt.
Overigens is de 512-bit memory interface een erg vreemd geval. Het blijkt dat deze z'n maximale efficientie al bijna bereikt met geheugen op 500Mhz, daarna komt er een enorme dip rond de 600Mhz, maar rond 700Mhz stijgt weer naar hetzelfde niveau als dat het was op 500Mhz.

http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
Met 64GB/s (memory op 500Mhz) zou de R600 dus al bijna optimaal presteren. De stap naar een 256-bit memory interface lijkt dan ook helemaal niet vreemd...
Maar wat het wel vreemder maakt is dat hetzelfde verloop zichtbaar is bij applicaties met en zonder AA, terwijl met AA de geheugenbus veel meer getaxeerd wordt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bij het plaatje van CJ
Het is begrijpelijk dat het zwaardere grafische regime tot een daling in waarden FPS leidt; nochtans, onderging de vorm van grafiek geen veranderingen. Ter plekke bleef het en horizontale "lijn van verzadiging", en de onderdompeling in de waaier van 500 tot 700 MHz. De eerste indruk over de doeltreffendheid van de band van geheugen Radeon HD2900XT kunnen wij zelfs nu samenstellen. U zult aandacht op rechte lijnen aan de linkerkant van de grafiek concentreren. Door bouw zijn zij raaklijnen aan de lijnen van grafiek. De neiging deze divergerend kenmerkt precies de doeltreffendheid van het gebruik van videogeheugen. Als de productiviteit van videokarty slechts tot videogeheugen beperkt zou zijn, de raaklijnen door de oorsprong van coördinaten, maar dit worden overgegaan het niet voorkomt. Het betekent, zelfs met de zeer lage frequentie van videogeheugen, brede band beheert volledig zijn verantwoordelijkheden en de videobewerker "bored niet sterk" bij gebrek aan gegevens. Er is één extra opmerkelijk. U zult waarden van FPS met de frequentie van videogeheugen 800 MHz en 500 MHz vergelijken. De frequentie van geheugen verschilt 1.6 keer, terwijl de resultaten in FPS slechts door 6% (voor regime 4AA/16AF) en niet meer dan 3% voor het regime zonder AA/AF te verminderden.
Не каждое может прочитать русское CJ, но утесы рыб babel
Het is begrijpelijk dat het zwaardere grafische regime tot een daling in waarden FPS leidt; nochtans, onderging de vorm van grafiek geen veranderingen. Ter plekke bleef het en horizontale "lijn van verzadiging", en de onderdompeling in de waaier van 500 tot 700 MHz. De eerste indruk over de doeltreffendheid van de band van geheugen Radeon HD2900XT kunnen wij zelfs nu samenstellen. U zult aandacht op rechte lijnen aan de linkerkant van de grafiek concentreren. Door bouw zijn zij raaklijnen aan de lijnen van grafiek. De neiging deze divergerend kenmerkt precies de doeltreffendheid van het gebruik van videogeheugen. Als de productiviteit van videokarty slechts tot videogeheugen beperkt zou zijn, de raaklijnen door de oorsprong van coördinaten, maar dit worden overgegaan het niet voorkomt. Het betekent, zelfs met de zeer lage frequentie van videogeheugen, brede band beheert volledig zijn verantwoordelijkheden en de videobewerker "bored niet sterk" bij gebrek aan gegevens. Er is één extra opmerkelijk. U zult waarden van FPS met de frequentie van videogeheugen 800 MHz en 500 MHz vergelijken. De frequentie van geheugen verschilt 1.6 keer, terwijl de resultaten in FPS slechts door 6% (voor regime 4AA/16AF) en niet meer dan 3% voor het regime zonder AA/AF te verminderden.
Не каждое может прочитать русское CJ, но утесы рыб babel
[ Voor 10% gewijzigd door Apoca op 15-10-2007 13:42 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Aha dat zou die performance drop dus verklaren die ik laatst had toen ik me mem naar 600 MHz clockte. Dus dan had ik op 500 MHz meer kunnen halen.
Over de RV670. Gezien het verschil in fillrate lijkt het me toch erg verstandig dat ze ook iets aan die Texture performance gaan doen. Zoals je ziet blijft dat toch erg belangrijk. En die 75 MHz extra gaat denk ik niet het gewende verschil maken:
R600 @ 742Mhz:
Pixel Fillrate: 11872 Mpixels/sec
Texture Fillrate: 11872 Mtexels/sec
R600 @ 825Mhz:
Pixel Fillrate: 13200 Mpixels/sec
Texture Fillrate: 13200 Mtexels/sec
De Pixel fillrate zit wel goed als je die vergelijkt met de GTX maar de texture fillrate dus niet. En laten we de Ultra even niet vergeten die nog veel meer power heeft. Ik weet dat het niet in dezelfde prijs classe zit. Maar dat is wel het topmodel van nVidia.
Even voor de vergelijking
8800 GT @ 600 MHz
Pixel Fillrate: 12600 Mpixels/sec
Texture Fillrate: 16800 Mtexels/sec
Even door berekend door de fillrate van de GTX te pakken. Die gedeeld door het aantal shaders. namelijk 128 dat maal de 112 shaders die er in zitten. Dan delen door 575 en weer van de clockspeed van de GTX maal 600 de clockspeed van de GT. Dit klopt niet helemaal want misschien heeft de GT wel even veel texture units en ROBs als de GTX. Hoe zit dat eigenlijk met de GTS ? Ik heb namelijk geen verstand van nVidia kaarten en hun exacte specs. Weet alleen dat i 96 shaders heeft.
Over de RV670. Gezien het verschil in fillrate lijkt het me toch erg verstandig dat ze ook iets aan die Texture performance gaan doen. Zoals je ziet blijft dat toch erg belangrijk. En die 75 MHz extra gaat denk ik niet het gewende verschil maken:
R600 @ 742Mhz:
Pixel Fillrate: 11872 Mpixels/sec
Texture Fillrate: 11872 Mtexels/sec
R600 @ 825Mhz:
Pixel Fillrate: 13200 Mpixels/sec
Texture Fillrate: 13200 Mtexels/sec
De Pixel fillrate zit wel goed als je die vergelijkt met de GTX maar de texture fillrate dus niet. En laten we de Ultra even niet vergeten die nog veel meer power heeft. Ik weet dat het niet in dezelfde prijs classe zit. Maar dat is wel het topmodel van nVidia.
Even voor de vergelijking
8800 GT @ 600 MHz
Pixel Fillrate: 12600 Mpixels/sec
Texture Fillrate: 16800 Mtexels/sec
Even door berekend door de fillrate van de GTX te pakken. Die gedeeld door het aantal shaders. namelijk 128 dat maal de 112 shaders die er in zitten. Dan delen door 575 en weer van de clockspeed van de GTX maal 600 de clockspeed van de GT. Dit klopt niet helemaal want misschien heeft de GT wel even veel texture units en ROBs als de GTX. Hoe zit dat eigenlijk met de GTS ? Ik heb namelijk geen verstand van nVidia kaarten en hun exacte specs. Weet alleen dat i 96 shaders heeft.
[ Voor 61% gewijzigd door Astennu op 15-10-2007 14:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Of je nu de hardware aanpakt om hardwarematige AA resolve toe te voegen, of de hardware aanpakt om efficientere shaderresolve toe te voegen maakt me niet veel uit.CJ schreef op maandag 15 oktober 2007 @ 13:28:
Maar niet in de zin zoals jij dat graag zou willen, namelijk hardware shaderresolve.
AMD is zeker van z'n zaak dat shaderbased AA resolve "the way of the future" is, maar de eerste implementatie hiervan was niet zo efficient als het had kunnen zijn. Dat is nu 'blijkbaar' aangepakt.
Ik ben blij dat ze de hardware hebben aangepakt om een betere AA job te doen, want in een driveroplossing heb ik gelet op 6 maanden (en feitelijk langere) historie niet al te veel - lees: zero - vertrouwen meer
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Plaatje
Raar verhaal trouwes van de 2900xt
Kan het ook met geheugentimings te maken hebben?
Astennu schreef op maandag 15 oktober 2007 @ 14:00:
Hoe zit dat eigenlijk met de GTS ? Ik heb namelijk geen verstand van nVidia kaarten en hun exacte specs. Weet alleen dat i 96 shaders heeft.

Raar verhaal trouwes van de 2900xt
Kan het ook met geheugentimings te maken hebben?
Nukezone FTW
Ik denk eerder dat je het probleem moet zoeken in de memory-interface zelf. De 512-bit memory interface is volgens mij ook meer een testcase voor toekomstige high end modellen. Dit deden ze ook al in het verleden.
Zo was de ringbus in de X1K serie dat ook voor de huidige HD2K serie, maar wel in verbeterde vorm. De X1K had een partially distributed memory controller met de memory controller in het midden van de ringbus. In de HD2K is dit verbeterd naar een fully distributed memory controler, waar alles zich nu in de ring bevindt, dus ook de memory controllers. Dit werkt in principe perfect.
Maar ik verwacht dat AMD met de R700 nog wel het een en ander gaat aanpassen aan de rest. Door het fully distributed te maken, werd het gemakkelijker om van 256-bit naar 512-bits te gaan (minder latency en verminderd aantal repeaters benodigd). Daarnaast kon de I/O dichtheid verdubbeld worden waardoor AMD dus naar 512-bits kon gaan. Maar hier valt nog wel het een en ander aan te optimaliseren als ik het goed heb. De R600 was dus de testcase voor dit geval... R700 zou hier verbetering in moeten brengen.
Zo was de ringbus in de X1K serie dat ook voor de huidige HD2K serie, maar wel in verbeterde vorm. De X1K had een partially distributed memory controller met de memory controller in het midden van de ringbus. In de HD2K is dit verbeterd naar een fully distributed memory controler, waar alles zich nu in de ring bevindt, dus ook de memory controllers. Dit werkt in principe perfect.
Maar ik verwacht dat AMD met de R700 nog wel het een en ander gaat aanpassen aan de rest. Door het fully distributed te maken, werd het gemakkelijker om van 256-bit naar 512-bits te gaan (minder latency en verminderd aantal repeaters benodigd). Daarnaast kon de I/O dichtheid verdubbeld worden waardoor AMD dus naar 512-bits kon gaan. Maar hier valt nog wel het een en ander aan te optimaliseren als ik het goed heb. De R600 was dus de testcase voor dit geval... R700 zou hier verbetering in moeten brengen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Het zal mij benieuwen wat die zogenaamde optimalisaties zijn. De RV670 zal misschien wat sterker zijn in standard AA dan R600, maar ik betwijfel of het zin heeft zoveel moeite in iets gaan steken wat er toch uit gaat. Tenzij die optimalisaties ook een beter resultaat geven voor shader based AA, dan is t natuurlijk een win-win.CJ schreef op maandag 15 oktober 2007 @ 13:28:
Maar niet in de zin zoals jij dat graag zou willen, namelijk hardware shaderresolve.
AMD is zeker van z'n zaak dat shaderbased AA resolve "the way of the future" is, maar de eerste implementatie hiervan was niet zo efficient als het had kunnen zijn. Dat is nu 'blijkbaar' aangepakt.
Dan is er alleen nog iets dat ik niet snap. Als dat hardware AA zo goed blijkt te werken. Waarom stoppen ze dat er dan niet bij? Of is het niet mogelijk om zowel shader AA als hardware AA in een kaart te stoppen? Dat afhankelijk van het spel het een of het ander gebruikt wordt? Dat zou win-win zijn
Optimalisaties die shaderbased AA resolve performance verbeterd is toch altijd welkom? Waarom zou dat er weer uit gaan?Verwijderd schreef op maandag 15 oktober 2007 @ 16:10:
[...]
Het zal mij benieuwen wat die zogenaamde optimalisaties zijn. De RV670 zal misschien wat sterker zijn in standard AA dan R600, maar ik betwijfel of het zin heeft zoveel moeite in iets gaan steken wat er toch uit gaat.
Zie bovenTenzij die optimalisaties ook een beter resultaat geven voor shader based AA, dan is t natuurlijk een win-win.
Omdat straks geen enkel spel meer gebruikt maakt van hardware AA resolve? Daarnaast klopt wat Cheetah zei... het maakt toch niet uit hoe het gebeurt, als het maar gebeurt. Dus als AMD een manier heeft gevonden om een betere performance te krijgen met AA via de shaders, dan is het niet nodig om alsnog een verouderde methode weer in te bakken die ook nog eens meer transistors vergt.R-O-Y schreef op maandag 15 oktober 2007 @ 16:27:
Dan is er alleen nog iets dat ik niet snap. Als dat hardware AA zo goed blijkt te werken. Waarom stoppen ze dat er dan niet bij? Of is het niet mogelijk om zowel shader AA als hardware AA in een kaart te stoppen? Dat afhankelijk van het spel het een of het ander gebruikt wordt? Dat zou win-win zijn
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik vraag me af hoe het dan zit met de non AA performance. Ik ben super blij dat ze wat aan die AA performance doen hoor. Maar BV U3 als het waar is dat de HD2900 XT daar zo traag is door zijn fillrate kan dit mogelijk in meer games zo zijn. En dan hoop ik dat ze daar ook nog wat aan sleutelen want die 75 MHz gaan niet genoeg zijn om dat gat te dichten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Denk niet dat het afhangt van de U3 engine, maar wat de developer ermee doet. in UT3 doet de 2900xt het perfect, als we dan straks bij Unreal 3 vergelijkbare graphics krijgen, en het draait opeens kut , dan weet je neem ik aan wel hoe laat het is (TWIMTBP).
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Ik moet dit nog steeds zien gebeuren en ik betwijfel dat shaderbased AA anywear near binnenkort de standaard wordt. CoJ is afaik nog steeds de enige game die exclusief shaderbased AA ondersteund, en dat onder veelbesproken 'verdachte' omstandigheden. Games die van deferred rendering gebruik maken (Stalker, UE3 (o.m. UT3, Bioshock)) ondersteunen in principe helemaal geen AA zolang gebruik wordt gemaakt van Dynamic lighting, dus daarvoor maakt 't niets uit.CJ schreef op maandag 15 oktober 2007 @ 16:35:
Omdat straks geen enkel spel meer gebruikt maakt van hardware AA resolve?
De overige games ondersteunen vrijwel allemaal hardware resolve AA. Ook nieuwe games, en ook DX10 games. Vreemd is dit niet: veel DX10 development wordt gedaan op de G80, en deze heeft van de DX10 hardware ook verreweg het grootste marktaandeel. Shaderbased AA heeft tot nu toe niets anders laten zien dan ferme drops. Verreweg de meeste DX9 kaarten ondersteunen hardware AA (en afaik geen shaderbased), dus ook uit oogpunt van backwards compatibility is het voorlopig niet waarschijnlijk dat shaderbased de standaard wordt. De enige vreemde eend in de bijt met exclusief shaderbased AA is de HD 2000 serie, welke geen significant marktaandeel heeft.
Hebben we tot slot nog nV die met TWIMTBP veel meer bij dev's in de melk te brokkelen heeft dan ATi.
Ik ben zeer benieuwd naar ATi's oplossing... hardware AA in de renderbacks van RV670 zou me werkelijk niets verbazen... maar goed, we zullen zien
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik verwacht dat de toekomst echt wel shaderbased only wordt. Denk zelfs dat het sneller plaats zal vinden dan gedacht.Cheetah schreef op maandag 15 oktober 2007 @ 18:08:
[...]
Ik moet dit nog steeds zien gebeuren en ik betwijfel dat shaderbased AA anywear near binnenkort de standaard wordt. CoJ is afaik nog steeds de enige game die exclusief shaderbased AA ondersteund, en dat onder veelbesproken 'verdachte' omstandigheden. Games die van deferred rendering gebruik maken (Stalker, UE3 (o.m. UT3, Bioshock)) ondersteunen in principe helemaal geen AA zolang gebruik wordt gemaakt van Dynamic lighting, dus daarvoor maakt 't niets uit.
De overige games ondersteunen vrijwel allemaal hardware resolve AA. Ook nieuwe games, en ook DX10 games. Vreemd is dit niet: veel DX10 development wordt gedaan op de G80, en deze heeft van de DX10 hardware ook verreweg het grootste marktaandeel. Shaderbased AA heeft tot nu toe niets anders laten zien dan ferme drops. Verreweg de meeste DX9 kaarten ondersteunen hardware AA (en afaik geen shaderbased), dus ook uit oogpunt van backwards compatibility is het voorlopig niet waarschijnlijk dat shaderbased de standaard wordt. De enige vreemde eend in de bijt met exclusief shaderbased AA is de HD 2000 serie, welke geen significant marktaandeel heeft.
Hebben we tot slot nog nV die met TWIMTBP veel meer bij dev's in de melk te brokkelen heeft dan ATi.
Ik ben zeer benieuwd naar ATi's oplossing... hardware AA in de renderbacks van RV670 zou me werkelijk niets verbazen... maar goed, we zullen zien
'You like a gay cowboy and you look like a gay terrorist.' - James May
Verwijderd
Dat is natuurlijk prima zolang het maar niet zo is dat ATi die shader based AA weer langzaam gaan terugbouwen tot hardware based AA en zo bijvoorbeeld de mogelijkheid tot Custom filtering verliezen.CJ schreef op maandag 15 oktober 2007 @ 16:35:
Optimalisaties die shaderbased AA resolve performance verbeterd is toch altijd welkom? Waarom zou dat er weer uit gaan?
De enige manier om AA te krijgen bij deferred rendering is nu net shader based AA
Ik denk dat stalker hiervoor een compacte 2xAA shader voor gebruikt.
Ter vergelijking... het duurde ongeveer 18 maanden na de lancering van DX9 voordat de eerste games uit kwamen die gebruik maakten van DX9. We zien nu al na 8 maanden na de lancering van DX10 dat er de eerste DX10 games er al zijn en dat er voor het einde van het jaar nog een handjevol bij zullen komen.Cheetah schreef op maandag 15 oktober 2007 @ 18:08:
[...]
Ik moet dit nog steeds zien gebeuren en ik betwijfel dat shaderbased AA anywear near binnenkort de standaard wordt.
De acceptatie van DX10 verloopt dus al meer dan 2x zo snel als de acceptatie van DX9. Daarnaast zal ook nV's toekomstige hardware volledig shaderbased AA resolve gaan aanbieden en geen hardwarematige AA resolve meer hebben. Developers houden hier rekening mee, want het zou natuurlijk enorm 'lullig' zijn als straks de G100 enorm inkakt wanneer er AA gebruikt wordt in vergelijking tot de G80/G92.
Die mogelijkheid zal zowiezo nooit verdwijnen. Programmeerbare AA patronen en filters zijn een vereiste voor DX10.1.Verwijderd schreef op maandag 15 oktober 2007 @ 18:52:
[...]
Dat is natuurlijk prima zolang het maar niet zo is dat ATi die shader based AA weer langzaam gaan terugbouwen tot hardware based AA en zo bijvoorbeeld de mogelijkheid tot Custom filtering verliezen.
Klopt. En Epic heeft aangegeven dat AA alleen mogelijk zal zijn in de DX10 versie van UT3. En er staan nog al wat grote titels te wachten op een release die gebruik maken van UE3 en shaderbased AA._Silencer schreef op maandag 15 oktober 2007 @ 18:56:
De enige manier om AA te krijgen bij deferred rendering is nu net shader based AAIk denk dat stalker hiervoor een compacte 2xAA shader voor gebruikt.
Bron: http://www.pcgameshardware.de/?article_id=602522PCGH: You are using deferred shading. Will there be any chance to get FSAA working with DX9-Level-cards? What about DX10-cards?
Tim Sweeney: Unreal Engine 3 uses deferred shading to accelerate dynamic lighting and shadowing. Integrating this feature with multisampling requires lower-level control over FSAA than the DirectX9 API provides. In Gears of War on Xbox 360, we implemented multisampling using the platform's extended MSAA features. On PC, the solution is to support multisampling only on DirectX 10.
....
Tim Sweeney: Yes, we'll ship Unreal Tournament 3 with full DirectX 10 support. Support for multisampling is the most visible benefit.
[ Voor 49% gewijzigd door CJ op 15-10-2007 19:08 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
even een opmerking:
ik zie telkens dat mensen de 8800GTX met de 2900XT vergelijken,(in andere topics) en dan roepen ze de 8800GTX maakt nog steeds gehakt van de Ati's 2900XT kaart... oke.. is misschien "soms" ook zo... maar wat vergelijken ze met elkaar??!!
de goedkoopste 8800GTX kost: 433€
de goedkoopste 2900XT kost: 279€
dat is gewoon appels met peren vergelijken! ik vind Ati gewoon het allerbeste in de prijs/prestatie verhouding!
of zie ik dat nu verkeerd? grappig dat telkens mensen die 2 met elkaar vergelijken. 
ps: alleen al om het feit dat nvidia er alles aan doet om ati voor te blijven en eerder haar kaarten op de markt te brengen zou ik al een Ati kopen. want vind Nvidia de laatste jaren erg triest wat dat betreft dus zeker een 2950XT for me
hoef geen 8800GT van zielige mensjes...
ik zie telkens dat mensen de 8800GTX met de 2900XT vergelijken,(in andere topics) en dan roepen ze de 8800GTX maakt nog steeds gehakt van de Ati's 2900XT kaart... oke.. is misschien "soms" ook zo... maar wat vergelijken ze met elkaar??!!
de goedkoopste 8800GTX kost: 433€
de goedkoopste 2900XT kost: 279€
dat is gewoon appels met peren vergelijken! ik vind Ati gewoon het allerbeste in de prijs/prestatie verhouding!

ps: alleen al om het feit dat nvidia er alles aan doet om ati voor te blijven en eerder haar kaarten op de markt te brengen zou ik al een Ati kopen. want vind Nvidia de laatste jaren erg triest wat dat betreft dus zeker een 2950XT for me
[ Voor 22% gewijzigd door MauSS op 15-10-2007 20:39 ]
A world without gadgets is no world ;)
Uhm das een beetje een kromme beredenering die je als je hem nog eens leest ook zelf niet erg sterk zult vindenMauSS schreef op maandag 15 oktober 2007 @ 20:29:
even een opmerking:
ps: alleen al om het feit dat nvidia er alles aan doet om ati voor te blijven en eerder haar kaarten op de markt te brengen zou ik al een Ati kopen. want vind Nvidia de laatste jaren erg triest wat dat betreft dus zeker een 2950XT for mehoef geen 8800GT van zielige mensjes...

Ik denk dat je bedoelt dat Nv zichzelf koste wat kost door middel van cheats (FX5800 3D mark) en video decoding geouwehoer van laatst : http://www.theinquirer.ne...-fiddled-video-benchmarks
Ik verkondig niet dat AMD/ATI clean is maar Nvidia uit zich in iedergeval arroganter
[ Voor 5% gewijzigd door Hekking op 15-10-2007 20:48 ]
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Juist dat bedoelde ik,...!Hekking schreef:
[...]
Ik verkondig niet dat AMD/ATI clean is maar Nvidia uit zich in iedergeval arroganter
Vind het geen kromme beredenering want zo "is" het gewoon gesteld met Nvidia.
En ik vind niet dat ze zich sportief opstellen, ze doen zo "overdreven" hun best om telkens Ati voor te willen zijn dat het storend is..
en als Nvidia sportief zou zijn zou ik het ook zeggen!
iemand trouwens die test gezien op amdzone.com ?
ze testen er de Unreal Tournament 3 beta met de volgende videokaarten:
GeForce 8800GTS 640MB
GeForce 8800GTS 320MB
GeForce 8600GTS
GeForce 8600GT
GeForce 7900GTX
GeForce 7900GT
GeForce 7600GT
Radeon 1950Pro
Radeon 2600XT
Apart dat ze de 8800GTX en 2900XT en pro niet hebben getest...

[ Voor 52% gewijzigd door MauSS op 15-10-2007 23:26 ]
A world without gadgets is no world ;)
AMDZone is geen grote site als Anandtech, Tom's, TechReport of Xbitlabs. Ze zijn dus puur afhankelijk van videokaarten die ze toevallig hebben liggen of toegestuurd hebben gekregen. Ze klagen geregeld over het feit dat AMD ze niets toestuurd..
Nvidia is wat brutaler in de markt, ati wil het allemaal zelf doen
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Ik vind het maar een beetje een duffe site die AMD Zone. De meeste hardware sites schaffen zelf de hardware aan als ze het niet gesponsord krijgen gewoonweg omdat ze dan hun lezers alsnog de beste vergelijkingen kunnen geven. Dat hun website toevallig "AMD" in hun naam heeft staan wil niet automatisch zeggen dat ze ook meteen alles voor niks moeten krijgen.Da_DvD schreef op maandag 15 oktober 2007 @ 23:43:
AMDZone is geen grote site als Anandtech, Tom's, TechReport of Xbitlabs. Ze zijn dus puur afhankelijk van videokaarten die ze toevallig hebben liggen of toegestuurd hebben gekregen. Ze klagen geregeld over het feit dat AMD ze niets toestuurd..
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Gatver, dat cheaten met die video benchmarks is idd een smerig trucje geweest!Hekking schreef op maandag 15 oktober 2007 @ 20:47:
[...]
Ik denk dat je bedoelt dat Nv zichzelf koste wat kost door middel van cheats (FX5800 3D mark) en video decoding geouwehoer van laatst : http://www.theinquirer.ne...-fiddled-video-benchmarks
Ik verkondig niet dat AMD/ATI clean is maar Nvidia uit zich in iedergeval arroganter
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Hardware aanschaffen kost geld.. een kleine site heeft niet genoeg advertentie inkomsten om dat te bekostigen, denk ik. Duffe site? Ja dat welCJ schreef op dinsdag 16 oktober 2007 @ 00:56:
[...]
Ik vind het maar een beetje een duffe site die AMD Zone. De meeste hardware sites schaffen zelf de hardware aan als ze het niet gesponsord krijgen gewoonweg omdat ze dan hun lezers alsnog de beste vergelijkingen kunnen geven. Dat hun website toevallig "AMD" in hun naam heeft staan wil niet automatisch zeggen dat ze ook meteen alles voor niks moeten krijgen.
Nja het maakt mij niet uit zolang die RV670 maar sneller is. Shaderbased AA is gewoon the way to go. Huidige games hebben alleen wat DX10 features maar zijn niet full DX10. En er is gewoon een probleem met de oude manier van AA en bepaalde DX10 technieken de enige manier om daar omheen te kunnen is Shaders based AA.
Het maakt mij ook niet uit wat AMD gebruikt al laten ze het de CPU doen als de performance maar gewoon goed is. En dat is nu niet het geval. Als ze dat kunnen fixen zonder hardware AA prima als ik maar dezelfde IQ houd en hogere performance krijg. Hopelijk doen ze ook meteen iets aan de Texture fillrate want die is ook wat laag. Een of twee texture units er bij zou erg prettig zijn dan zitten ze een beetje op het niveau van nVidia's GTX nog niet eens de ultra.
Het maakt mij ook niet uit wat AMD gebruikt al laten ze het de CPU doen als de performance maar gewoon goed is. En dat is nu niet het geval. Als ze dat kunnen fixen zonder hardware AA prima als ik maar dezelfde IQ houd en hogere performance krijg. Hopelijk doen ze ook meteen iets aan de Texture fillrate want die is ook wat laag. Een of twee texture units er bij zou erg prettig zijn dan zitten ze een beetje op het niveau van nVidia's GTX nog niet eens de ultra.
[ Voor 11% gewijzigd door Astennu op 16-10-2007 09:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik las dit en dit is misschien een beetje offtopic maar ze hebben wel gelijk. AMD en Intel zijn een giga bedreiging voor nVidia vooral nu intel ook nog een met VGA gaat beginnen. Misschien dat ze daarom zo scherp zijn en proberen alles en iedereen voor te zijn en zo agressief zijn ? Anyway willen ze het gaan halen moeten denk ik ook cpu's gaan maken of iets soort gelijks. Echter wordt het denk ik heel moeilijk om die markt binnen te komen. Voor mij verklaart dit wel een beetje hun gedrag.FEAR or Countdown to extintion?
Nvidia fears Intel and AMD and especially for its future and this is what it passed to its partners. The company is doing everything possible to educate its partners and customers about the importance of graphics as this is the company's only chance. Nvidia wants to take the power of the CPU and to focus customer’s minds on graphics.
Nvidia showed many of its partners that even with a low end CPU you will gain a lot if you simply plug in a better graphics card.
Nvidia doesn’t plan to make a CPU, but AMD and Intel will both soon have graphics, they already have a solid chipset business, 30+ years of CPU experience and this is something that Nvidia cannot compete with.
Intel is preaching that OEMs and System integrators should use its platform and Centrino is one of the most successful things that Intel ever did. AMD also has this platform concept and by the time, there won’t be much space in the chipset business for Nvidia as Intel and AMD simply don’t want it around.
More than ever Nvidia cannot afford to lose to ATI, as this would be a complete disaster for Graphzilla.
En weet iemand of crossfire X ook al support heeft om de IGP samen te laten werken met de losse kaarten zoals nVidia's Hybrid SLI ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Fraps wil bij mij niet werken, maar ik kan wel zeggen dat de Unreal 3 Demo als een trein loopt op de 2900XT, 1920 1200, met alle instellingen max en 16x AF (geen idee of AA via CCC ook gepakt wordt, maar dat merk je toch niet tijdens het spelen.
) Zelfs met flink wat explosies en rondvliegende meuk zijn er geen fps drops te bespeuren.
Moet je in console stat FPS gebruiken. Er zit wel een FPS cap op 62 frames per sec. En volgens mij als je onder de 22 komt gaat hij de shadow details omlaag drukken zag zo iets staan in de .inf file. Dus dat zou de benshmark resulds kunnen beïnvloeden.
Gister ff zitten spelen met Vehicle CTF En ik had wel eens wat drops naar 35 fps op 1920-1200 met 16x AF. Maar ik merkte er eigenlijk weinig van. De 8800 GTX zal dan wel wat minder droppen of zo. Wel jammer dan de HD2900 XT even snel is als een GTS zonder AA. Normaal is i dan een stuk sneller. Hopelijk driver probleem maar als ik CJ hoor is het de texture fillrate die te kort schiet.
Ik vind het echt een geweldig spel. En ik vraag me af hoe het straks in nog grotere maps gaat lopen. Hopelijk is de RV670 een stuk sneller in UT3
en dan gewoon twee van die dingen
. Misschien installeer ik zelfs vista als dual boot om dan met AA te kunnen spelen.
En ik houd er trouwens van dat je die reclame kan overslaan door op je muisknop te bashen. Hoef niet elke keer die stomme nVidia en Intel propaganda te zien
Gister ff zitten spelen met Vehicle CTF En ik had wel eens wat drops naar 35 fps op 1920-1200 met 16x AF. Maar ik merkte er eigenlijk weinig van. De 8800 GTX zal dan wel wat minder droppen of zo. Wel jammer dan de HD2900 XT even snel is als een GTS zonder AA. Normaal is i dan een stuk sneller. Hopelijk driver probleem maar als ik CJ hoor is het de texture fillrate die te kort schiet.
Ik vind het echt een geweldig spel. En ik vraag me af hoe het straks in nog grotere maps gaat lopen. Hopelijk is de RV670 een stuk sneller in UT3
En ik houd er trouwens van dat je die reclame kan overslaan door op je muisknop te bashen. Hoef niet elke keer die stomme nVidia en Intel propaganda te zien
[ Voor 11% gewijzigd door Astennu op 16-10-2007 11:31 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De marketing van AMD is weer op volle gang. Vandaag een hele grote poster ontvangen van AMD met Ruby erop...
Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)
Mij is ook één beloofd, nog eens bellen waar die blijft.vigilante888 schreef op dinsdag 16 oktober 2007 @ 11:37:
De marketing van AMD is weer op volle gang. Vandaag een hele grote poster ontvangen van AMD met Ruby erop...
owh ? heeft iemand er een foto van ? moet ik maar weer eens op jacht gaan
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Heeft iemand hier al een passief gekoelde 2400/2600 AGP gezien???
PCI Express heb ik er genoeg van gevonden maar AGP niet.........
PCI Express heb ik er genoeg van gevonden maar AGP niet.........
Misschien kan ik er wel twee regelenAstennu schreef op dinsdag 16 oktober 2007 @ 11:52:
owh ? heeft iemand er een foto van ? moet ik maar weer eens op jacht gaan
Oeh would be nice
we kunnen die eventueel wel ruilen tegen die ruby pop. Mijn kamer is er wat te klein voor
poster is in dat opzicht makkelijker.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Is er een Ruby doll? Toch niet opblaasbaar?Astennu schreef op dinsdag 16 oktober 2007 @ 13:26:
Oeh would be nicewe kunnen die eventueel wel ruilen tegen die ruby pop. Mijn kamer is er wat te klein voor
poster is in dat opzicht makkelijker.
I say we take off and nuke the entire site from orbit. It's the only way to be sure.
Beetje offtopic, maar dat verhaal van nVidia klopt wel. Ze zijn volgens de Tweakers frontpage inderdaad bezig met een x86 processor oftewel CPU. Release wordt verwacht in 2008. Dat wordt wel leuk dan, dat worden Intel, AMD en nVidia totaal oplossingen voor PCs.Ik las dit en dit is misschien een beetje offtopic maar ze hebben wel gelijk. AMD en Intel zijn een giga bedreiging voor nVidia vooral nu intel ook nog een met VGA gaat beginnen. Misschien dat ze daarom zo scherp zijn en proberen alles en iedereen voor te zijn en zo agressief zijn ? Anyway willen ze het gaan halen moeten denk ik ook cpu's gaan maken of iets soort gelijks. Echter wordt het denk ik heel moeilijk om die markt binnen te komen. Voor mij verklaart dit wel een beetje hun gedrag.
Bron: nieuws: 'Nvidia werkt aan cpu'
Software Developer, checkout my bitcoin software at my website www.haasonline.com (Trade Bots and more...)
Nee dat niet hij is ongeveer 1.8 meter van karton. Kun je neer zetten in een winkelboesOne schreef op dinsdag 16 oktober 2007 @ 13:34:
[...]
Is er een Ruby doll? Toch niet opblaasbaar?
Klopt ja je hoort er alleen weinig over de laatste tijd. Ik vind het persoonlijk wel goed als nVidia ook cpu's gaat maken dan heb je 3 keuzes. Mja echt groot zullen ze niet snel worden aangezien je altijd Intel nog hebt. En nVidia licentie geld moet gaan betalen voor x86 en SSE en zo. Maar hopelijk wordt het aandeel van Intel dan kleiner en dat van AMD en nVidia groter. Alleen maar beter voor ons de consument.Stephan224 schreef op dinsdag 16 oktober 2007 @ 13:43:
[...]
Beetje offtopic, maar dat verhaal van nVidia klopt wel. Ze zijn volgens de Tweakers frontpage inderdaad bezig met een x86 processor oftewel CPU. Release wordt verwacht in 2008. Dat wordt wel leuk dan, dat worden Intel, AMD en nVidia totaal oplossingen voor PCs.
Bron: nieuws: 'Nvidia werkt aan cpu'
[ Voor 60% gewijzigd door Astennu op 16-10-2007 14:39 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Een pijnlijke HL EP2 review:

Zonder AA ziet het er wel iets beter uit maar dit is dus het probleem X1950 XTX is gewoon even snel met AA ingeschakeld
.
Nog even een Zonder AA om de pijn te verzachten:

Zonder AA ziet het er wel iets beter uit maar dit is dus het probleem X1950 XTX is gewoon even snel met AA ingeschakeld
Nog even een Zonder AA om de pijn te verzachten:

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Eerder had ik benchmarks gepost van de RV670 (officiele naam ik trouwens bekend, jullie zullen verrast zijn) en de 8800GT. Ik heb weer geupdate benchmarks gezien, waaronder ook de 8800GTS 512 (vervanger van de 640MB op basis van nieuwe chip). Ik moet zeggen dat qua snelheid mijn vorige indicatie goed klopt, helaas. Het zal voornamelijk weer op prijspunt aankomen.
Uhmm 8800 GTS 512 MB. Lijkt er dus op dat die ook de G92 chip gebruikt en dus een 256 Bit bus ipv die 320 Bit ?
En je maakt ons nu wel erg nieuwsgierig hoor
We moeten nog 4 weken wachten
En je maakt ons nu wel erg nieuwsgierig hoor
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik vraag me toch af wanneer die 2900 pro een beetje verkrijgbaar is want ik wacht er al 1,5 week op
Ik zou de bestelling cancelen! Over 2 weken heb je voor hetzelfde geld een snellere kaart...
Is de 8800gts 512mb nu de 8800gt met 512mb geheugen?@The source,wat was je vorige indicatie dan?
Nee, er komen drie uitvoeringen van de G92, een GT met 256MB, een GT met 512MB en een GTS met 512MB. Zie ook http://www.hardware.info/...8800GTS_op_basis_van_G92/
Inmiddels heb ik mijn bestelling inderdaad gecanceld dan. Ik heb geen vertrouwen meer in die kaart.ormagon schreef op dinsdag 16 oktober 2007 @ 16:34:
Ik zou de bestelling cancelen! Over 2 weken heb je voor hetzelfde geld een snellere kaart...
Wat komt er over 2 weken nou precies uit?
Ah ik heb bedacht dat ik maar een 6600gt kaartje uit een andere computer leen voor de tussentijd en lekker wacht op wat vernieuwends
[ Voor 43% gewijzigd door Fernoráto op 16-10-2007 17:05 ]
ik heb de 2900pro ook gecancelled, volgens mij is hij nergens meer te krijgen.
wilde toen een 2e hands kaartje en kon in de regio kiezen tussen 2900xt en 8800gts 640mb, beide 275 euro.
ik twijfelde al zoooo lang tussen die twee, maar heb uiteindelijk de 2900xt toch maar gekozen (ondanks de steeds maar slechte reviews qua AA en dx10).
helaas reageerde die gozer niet (en mijn x1900xt 512 was al opgehaald) dus ben ik toch voor de Asus 8800gts 640 gegaan.
GEEN SPIJT VAN! ding is echt retesnel en overclockbaar van 500/1600 naar 625/2000 en superstil.
voorlopig ben ik wel klaar voor crysis, volgende keer misschien weer ATi.
wilde toen een 2e hands kaartje en kon in de regio kiezen tussen 2900xt en 8800gts 640mb, beide 275 euro.
ik twijfelde al zoooo lang tussen die twee, maar heb uiteindelijk de 2900xt toch maar gekozen (ondanks de steeds maar slechte reviews qua AA en dx10).
helaas reageerde die gozer niet (en mijn x1900xt 512 was al opgehaald) dus ben ik toch voor de Asus 8800gts 640 gegaan.
GEEN SPIJT VAN! ding is echt retesnel en overclockbaar van 500/1600 naar 625/2000 en superstil.
voorlopig ben ik wel klaar voor crysis, volgende keer misschien weer ATi.
Bij Zercom staat de HD2900 pro op dit moment aangegeven als direct leverbaar.. Maar goed, beter wachten op de nieuwe kaarten van volgende maand idd.
anathema
eergisteren nog naar een computerbeurs geweest hier in belgie daar stond er iemand die uitgevochten werd omdat hij 5 2900 pro's had, zijn prijs was bijna die van een 2900xt dusja

Heeft er trouwens niemand opgemerkt dat de 8600gts het wel azeer slecht doet in de gpu performance voor hl2 ep2
linkie:
http://www.anandtech.com/video/showdoc.aspx?i=3122&p=3
Heeft er trouwens niemand opgemerkt dat de 8600gts het wel azeer slecht doet in de gpu performance voor hl2 ep2
linkie:
http://www.anandtech.com/video/showdoc.aspx?i=3122&p=3
[ Voor 35% gewijzigd door betaplayer op 16-10-2007 18:08 ]
https://www.instagram.com/anafollotofbricks/
Verwijderd
Symptonen: |
Na het installeren van de drivers draait windows kwa graphics algeheel traag. Dit valt te merken aan o.a. de volgende punten:
|
Hoe te checken of jij het AGP probleem hebt: |
|
De fix voor het AGP probleem vanaf driver versie 7.9: |
Doe hetzelfde voor de Secondary monitor, reboot daarna, en het probleem is opgelost. |
Theorie oorzaak: |
Na wat onderzoek ben ik zelf tot de volgende conclusie gekomen:
Succes en veel plezier! Edit: Voor degene die zich afvragen waarom deze post er als een topic start eruit ziet: Dat was het ook Om voor mij onbekende reden is mijn oude topic hierin gezet (Het is niet echt een nieuwsdiscussie maar een oplossing voor een hardware / driver probleem als je het mij vraagt, beetje rare keuze). @mod: Volgende keer graag melden, kon het nergens meer vinden. |
[ Voor 67% gewijzigd door Verwijderd op 18-10-2007 19:31 ]
Verwijderd
hmm minstens even goed als een 2600xt dus gewoon mainstream denk ik.betaplayer schreef op dinsdag 16 oktober 2007 @ 17:58:
eergisteren nog naar een computerbeurs geweest hier in belgie daar stond er iemand die uitgevochten werd omdat hij 5 2900 pro's had, zijn prijs was bijna die van een 2900xt dusja![]()
Heeft er trouwens niemand opgemerkt dat de 8600gts het wel azeer slecht doet in de gpu performance voor hl2 ep2![]()
linkie:
http://www.anandtech.com/video/showdoc.aspx?i=3122&p=3
Shit! ik check net bij zercom (want daar had ik hem besteld) en ondanks dat hij gister geannuleerd is, blijkt hij nu verzonden naar mij!anathema schreef op dinsdag 16 oktober 2007 @ 17:39:
Bij Zercom staat de HD2900 pro op dit moment aangegeven als direct leverbaar.. Maar goed, beter wachten op de nieuwe kaarten van volgende maand idd.
wat een mafkezen, ik heb gisteren gemaild EN gebeld voor annulering (hij stond toen ook nog gewoon op 2 weken levertijd)
Iemand een HD2900PRO overnemen?
Kan je er niet beter bij posten wat je precies oplost? Als drivers niet werken met (oudere) (AGP) kaarten, dan zullen ze er wel niet voor bedoeld zijn, denk ik dan en zullen ze ook weinig uithalen qua performance..
Ik ken het probleem misschien niet hoor, want misschien is het echt wel heel nuttig, maar dan is het wel handig als je ook even de situatieschets maakt waarvoor de fix precies bedoeld is.
edit: netjes veranderd!
Ik ken het probleem misschien niet hoor, want misschien is het echt wel heel nuttig, maar dan is het wel handig als je ook even de situatieschets maakt waarvoor de fix precies bedoeld is.
edit: netjes veranderd!
[ Voor 3% gewijzigd door Hann1BaL op 16-10-2007 19:57 ]
is het onder rembours ?meljor schreef op dinsdag 16 oktober 2007 @ 19:25:
[...]
Shit! ik check net bij zercom (want daar had ik hem besteld) en ondanks dat hij gister geannuleerd is, blijkt hij nu verzonden naar mij!
wat een mafkezen, ik heb gisteren gemaild EN gebeld voor annulering (hij stond toen ook nog gewoon op 2 weken levertijd)
Iemand een HD2900PRO overnemen?
nee! heb hem vooruit betaald, zou binnen 3 dagen geleverd worden (2x bevestigd gehad via mail) en na betaling ineens meer dan 2 weken. heb dus na een dikke week net een gts 640 gekocht

Verwijderd
Daar heb je een punt 
Na het lezen van comments bij de 7.10 drivers las ik zelf voor het eerst over de AGP bug.
Ik zal de symptonen er even bij zetten!
edit: Dank!
Na het lezen van comments bij de 7.10 drivers las ik zelf voor het eerst over de AGP bug.
Ik zal de symptonen er even bij zetten!
edit: Dank!
[ Voor 4% gewijzigd door Verwijderd op 17-10-2007 10:36 ]
Verwijderd
dan kun je nu kiezen en een beetje testenmeljor schreef op dinsdag 16 oktober 2007 @ 19:30:
nee! heb hem vooruit betaald, zou binnen 3 dagen geleverd worden (2x bevestigd gehad via mail) en na betaling ineens meer dan 2 weken. heb dus na een dikke week net een gts 640 gekocht
inderdaad, ongeopend retourneren was dacht ik ook mogelijk.
Of de HD2600 XT kan eindelijk zijn kracht eens laten zienbetaplayer schreef op dinsdag 16 oktober 2007 @ 17:58:
eergisteren nog naar een computerbeurs geweest hier in belgie daar stond er iemand die uitgevochten werd omdat hij 5 2900 pro's had, zijn prijs was bijna die van een 2900xt dusja![]()
Heeft er trouwens niemand opgemerkt dat de 8600gts het wel azeer slecht doet in de gpu performance voor hl2 ep2![]()
linkie:
http://www.anandtech.com/video/showdoc.aspx?i=3122&p=3
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Misschien leuk om de officiele naam mee te delenThe Source schreef op dinsdag 16 oktober 2007 @ 15:22:
Eerder had ik benchmarks gepost van de RV670 (officiele naam ik trouwens bekend, jullie zullen verrast zijn) en de 8800GT. Ik heb weer geupdate benchmarks gezien, waaronder ook de 8800GTS 512 (vervanger van de 640MB op basis van nieuwe chip). Ik moet zeggen dat qua snelheid mijn vorige indicatie goed klopt, helaas. Het zal voornamelijk weer op prijspunt aankomen.
'You like a gay cowboy and you look like a gay terrorist.' - James May
Even weer zo een standaard keuze vraag, maar na lang zoeken kom ik er toch niet uit.
Ik heb het volgende systeem:
Mobo: GigaByte GA-P35-DS3R, P35
Cpu: Intel Core 2 Duo E6750
Hdd: Samsung 500GB SATA II
Mem: Geil PC6400 4GB
Voeding Zalman 600watt heatpipe.
Nu zit ik keihard te dubben over welke VGA ik wil. Mijn budget reikt tot zo'n 200 euro max. De volgende opties had ik mezelf voorgesteld:
Radeon X1950 Pro 512MB DDR3
Radeon X1900 XT 512MB DDR3
Nvidia XFX 8600GTS XXX edition
Ik hecht zelf weinig waarde aan DX10, ik wil enkel een vga die goed COD4 gaat draaien. Is het verschil tussen de 1900 en 1950 serie groot qua temp, prestaties en verbruik? De 8600GTS is de snelste versie die verkrijgbaar is van deze serie, maar ik zie em nergens terug in bechmarks.
Wat is wijsheid? Voor welke kaart zal ik gaan?
Alvast hartelijk dank!
Ik heb het volgende systeem:
Mobo: GigaByte GA-P35-DS3R, P35
Cpu: Intel Core 2 Duo E6750
Hdd: Samsung 500GB SATA II
Mem: Geil PC6400 4GB
Voeding Zalman 600watt heatpipe.
Nu zit ik keihard te dubben over welke VGA ik wil. Mijn budget reikt tot zo'n 200 euro max. De volgende opties had ik mezelf voorgesteld:
Radeon X1950 Pro 512MB DDR3
Radeon X1900 XT 512MB DDR3
Nvidia XFX 8600GTS XXX edition
Ik hecht zelf weinig waarde aan DX10, ik wil enkel een vga die goed COD4 gaat draaien. Is het verschil tussen de 1900 en 1950 serie groot qua temp, prestaties en verbruik? De 8600GTS is de snelste versie die verkrijgbaar is van deze serie, maar ik zie em nergens terug in bechmarks.
Wat is wijsheid? Voor welke kaart zal ik gaan?
Alvast hartelijk dank!
Ik gok op HD2950GTX, en voor de topmodellen dan XT en XTXFnF schreef op dinsdag 16 oktober 2007 @ 20:04:
[...]
Misschien leuk om de officiele naam mee te delen
[ Voor 9% gewijzigd door Jejking op 16-10-2007 20:11 ]
Verwijderd
de 2950Pronickk. schreef:
Even weer zo een standaard keuze vraag, maar na lang zoeken kom ik er toch niet uit.
Ik heb het volgende systeem:
Mobo: GigaByte GA-P35-DS3R, P35
Cpu: Intel Core 2 Duo E6750
Wat is wijsheid? Voor welke kaart zal ik gaan?
dan heb jij een DX10.1 kaart verbruikt weinig stroom en een hele goede prijs/prestatie verhouding!
Van wat ik gehoord heb zit er een 3 in de naam.Jejking schreef op dinsdag 16 oktober 2007 @ 20:11:
[...]
Ik gok op HD2950GTX, en voor de topmodellen dan XT en XTX
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat zou wel erg zijn! Er is toch niks dat dat rechtvaardigd?
Van een HD3x00 serie verwacht ik een nieuwe generatie, niet een dubieuze update van de R600
Van een HD3x00 serie verwacht ik een nieuwe generatie, niet een dubieuze update van de R600
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Verklaar je eens nader CJ
. Gaat het hier echt om een 3xxx serie? Dat zou heel apart zijn gezien het feit dat de prestaties amper boven de R600 zal zitten. Ook zijn de eerste kaarten in een nieuwe serie meestal de topmodellen (denk aan de R700) en geen RV.
[ Voor 58% gewijzigd door ormagon op 16-10-2007 21:47 ]
AMD launches three new TV Wonders
650 Combo USB and TV Wonder 600 PCI/PCI Express
AMD has launched three TV cards, the ATI TV Wonder 650 Combo USB and the TV Wonder 600 in PCI and PCI Express flavors.
The TV Wonder 650 Combo USB includes two TV tuners which allow users to watch Digital TV/HDTV, unencrypted Digital TV (ClearQAM) cable programming, analog TV, and listen to FM broadcasts. Of course, with two tuners you can watch and record a digital TV program while watching/recording an analog TV channel. You can turn your notebook into DVR and HD TV for $149.
The Wonder 600 PCI and TV Wonder 600 PCI Express TV tuners feature ClearQAM but have a single tuner. Although not as feature packed as the 650, the 600 is cheaper, and the MSRP is $99.
Bron: Fudzilla
650 Combo USB and TV Wonder 600 PCI/PCI Express
AMD has launched three TV cards, the ATI TV Wonder 650 Combo USB and the TV Wonder 600 in PCI and PCI Express flavors.
The TV Wonder 650 Combo USB includes two TV tuners which allow users to watch Digital TV/HDTV, unencrypted Digital TV (ClearQAM) cable programming, analog TV, and listen to FM broadcasts. Of course, with two tuners you can watch and record a digital TV program while watching/recording an analog TV channel. You can turn your notebook into DVR and HD TV for $149.
The Wonder 600 PCI and TV Wonder 600 PCI Express TV tuners feature ClearQAM but have a single tuner. Although not as feature packed as the 650, the 600 is cheaper, and the MSRP is $99.
Bron: Fudzilla
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
1950XT 256(170 euro)nickk. schreef op dinsdag 16 oktober 2007 @ 20:11:
Even weer zo een standaard keuze vraag, maar na lang zoeken kom ik er toch niet uit.
Ik heb het volgende systeem:
Mobo: GigaByte GA-P35-DS3R, P35
Cpu: Intel Core 2 Duo E6750
Hdd: Samsung 500GB SATA II
Mem: Geil PC6400 4GB
Voeding Zalman 600watt heatpipe.
Nu zit ik keihard te dubben over welke VGA ik wil. Mijn budget reikt tot zo'n 200 euro max. De volgende opties had ik mezelf voorgesteld:
Radeon X1950 Pro 512MB DDR3
Radeon X1900 XT 512MB DDR3
Nvidia XFX 8600GTS XXX edition
Ik hecht zelf weinig waarde aan DX10, ik wil enkel een vga die goed COD4 gaat draaien. Is het verschil tussen de 1900 en 1950 serie groot qua temp, prestaties en verbruik? De 8600GTS is de snelste versie die verkrijgbaar is van deze serie, maar ik zie em nergens terug in bechmarks.
Wat is wijsheid? Voor welke kaart zal ik gaan?
Alvast hartelijk dank!
Sneller dan de 3 hierboven iig denkik zo en cheap(stille AC Accelero X2 koeler is aan te raden)
Het zou niet mis zijn als de RV670 een HD 3600 Pro/XT wordt...ormagon schreef op dinsdag 16 oktober 2007 @ 21:44:
Verklaar je eens nader CJ. Gaat het hier echt om een 3xxx serie? Dat zou heel apart zijn gezien het feit dat de prestaties amper boven de R600 zal zitten. Ook zijn de eerste kaarten in een nieuwe serie meestal de topmodellen (denk aan de R700) en geen RV.
Kijk eens hier:
Joepi in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
In die quote staat:
Radeon 3000 series will use 55nm process. Therefore, if AMD doesnt demand to release the 45nm core quad processor and 55nm R700 graphic core together then Radeon 3000 (R700) will be released in the first half of 2008. ATI will release R700 as soon as possible, the former ATI Radeon x1000 and ATI Radeon 2000 series are all later than NVIDIA.
De RV670 was 55nm. Het lijk mij dan logisch dat de RV670 dan mid van de HD3000 wordt, en dat later de high-end uitkomt als de R700, in eerste helft 2008. Maar het blijft een speculatie van mij. Ik gok op 3600
[ Voor 43% gewijzigd door BlackWolf666 op 17-10-2007 00:45 ]
Dit topic is gesloten.