PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Meestal is dat zo weer voorbij, maar misschien duurt het nu wat langer. Moet ik dadelijk zo'n X-doos erbij kopen...Help!!!! schreef op 27 september 2004 @ 15:45:
Het idee dat zo'n *gare* console![]()
betere graphics tevoorschijn tovert dan mijn peperdure pc'tje zou ik toch wel ernstig minder vinden....
[ Voor 3% gewijzigd door edward2 op 27-09-2004 16:35 ]
Niet op voorraad.
Yep. Klopt voor zover ik weet. R520 is gewoon R3x0 architectuur met zeer veel pipelines (waarschijnlijk 24) en volledige SM3.0 support (en waarschijnlijk zelfs SM3.0+), dus ook volledige FP32 (zonder fallback naar FP16 of FP24).Help!!!! schreef op 27 september 2004 @ 15:45:
Volgens dit artikel zou de Xbox2 bij introductie ergens in 2005 wellicht een voorsprong nemen op de dan op de markt zijnde PC graphics.
Tevens zou dit betekenen dat het ATI xbox ontwerp idd geavanceerder is dan de R520? Zoiets staat ook in de TS
R500 daarentegen is vanaf de grond opnieuw opgebouwd (als R400, later hernoemd naar R500). En wij zien de resultaten dus pas in R600 op de desktopmarkt.
Dus kortom R500 is vooruitstrevender/geavanceerder dan R520.
Over Rollercoaster Tycoon 3. Ben benieuwd wat de performance verschillen zijn tussen een X800XT PE en GF6800Ultra, zeker nu dit een van de games is waar het ATi logo supergroot bij het opstarten verschijnt. Is ATi echt sneller of is RCT3 de eerste GITG waar nV veel sneller in is, net zoals ATi vaak veel sneller is dan nV in TWIMTBP games?
Moet wel zeggen dat dit een frisse wind is na het zo vaak zien van het TWIMTBP logo.
[ Voor 22% gewijzigd door CJ op 27-09-2004 16:36 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
(zie de counter op www.futuremark.com)
Kunnen we zien hoe de X800's het doen.
[ Voor 34% gewijzigd door Wildfire op 27-09-2004 18:09 ]
zie ook Nv topic
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
LOL. gelukkig zijn die X dozen nog altijd goedkoper dan een high end graphics card.edward2 schreef op 27 september 2004 @ 16:07:
[...]
Meestal is dat zo weer voorbij, maar misschien duurt het nu wat langer. Moet ik dadelijk zo'n X-doos erbij kopen...
Wel heb je bij een console altijd te maken met de minder scherpe resolutie vd TV tov een beeldscherm. Ook spelen FPShooters nog altijd fijner op een pc. Daar houd ik me dan maar aan vast....

Balen dus. Toch snap ik niet dat ze dat R500 ontwerp niet gelijk in de desktop kunnen toepassen. Zo moeilijk/anders kan dat toch niet zijn.CJ schreef op 27 september 2004 @ 16:22:
[...]
Yep. Klopt voor zover ik weet. R520 is gewoon R3x0 architectuur met zeer veel pipelines (waarschijnlijk 24) en volledige SM3.0 support (en waarschijnlijk zelfs SM3.0+), dus ook volledige FP32 (zonder fallback naar FP16 of FP24).
R500 daarentegen is vanaf de grond opnieuw opgebouwd (als R400, later hernoemd naar R500). En wij zien de resultaten dus pas in R600 op de desktopmarkt.
Dus kortom R500 is vooruitstrevender/geavanceerder dan R520.
Ben heeeel benieuwd wat de invloed van 3dc gaat zijn. Eigenlijk vind ik dat de enige echt zinvolle en veelbelovende nieuwe feature vd X800 serie !CJ schreef op 27 september 2004 @ 16:22:Over Rollercoaster Tycoon 3. Ben benieuwd wat de performance verschillen zijn tussen een X800XT PE en GF6800Ultra, zeker nu dit een van de games is waar het ATi logo supergroot bij het opstarten verschijnt. Is ATi echt sneller of is RCT3 de eerste GITG waar nV veel sneller in is, net zoals ATi vaak veel sneller is dan nV in TWIMTBP games?
Moet wel zeggen dat dit een frisse wind is na het zo vaak zien van het TWIMTBP logo.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat valt vies tegen volgens mij. Een console moet iets volgens bepaalde resoluties kunnen laten zien die doorgaans een stuk lager liggen dan die van pc-monitoren. Het zou bv dus kunnen zijn dat een R500 supersnel draait op de lage TV resoluties, maar dus niet genoeg juice heeft voor pc-resoluties. En waarschijnlijk heeft R600 dan wel genoeg power om alles op goede snelheid te tonen op de hoge resoluties die pc-monitoren aankunnen.Help!!!! schreef op 27 september 2004 @ 18:54:
[...]
Balen dus. Toch snap ik niet dat ze dat R500 ontwerp niet gelijk in de desktop kunnen toepassen. Zo moeilijk/anders kan dat toch niet zijn.![]()
[...]
Een andere reden is waarschijnlijk het wachten op DX Next en SM4.0. R600 zal zoals het er nu naar uit ziet waarschijnlijk wel volledig SM4.0 compliant zijn, en R500 niet helemaal (aangezien de specs nog niet finalized zijn).
Edit
Nog niet vermeld in dit topic (geloof ik), maar hier is ATi's reactie op de afkraak PP slides van nVidia: http://www.xbitlabs.com/n...splay/20040924093334.html
[ Voor 10% gewijzigd door CJ op 27-09-2004 20:47 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nou, hier al heel de dag dezelfde letter en de teller telt nog steeds af... momenteel staat 'ie op 38420... iets meer dan 10.5 uur...Puppetmaster schreef op 27 september 2004 @ 18:41:
ik snap niks van die countdown teller, steeds verschillende letters voor het aftel-gebeuren. en bij een nieuwe letter begint het tellertje gewoon opnieuw
zie ook Nv topic
-- Edit: nu is de letter verdwenen en is er nog 27.5 uur te gaan.
[ Voor 9% gewijzigd door Wildfire op 28-09-2004 11:31 ]
Heb je ze al geprobeerd dan?epo schreef op 28 september 2004 @ 00:45:
[...]
yep, maar lijkt me handiger om te wachten op 4.10, deze drivers brengen niet zoveel extras.
Dit stond er op rage3d:
Ik bekijk ze morgen wl.Stu and myself have been playing with these drivers for a while now, and you should be seeing some pretty large gains guys, let me know how you get on.
Niet op voorraad.
Anoniem: 38733
In de toendertijd gelekte HL2 beta kwam ik geen 3Dc instelling tegen, en in de Tribes Vengeance demo die een klein maandje geleden uitkwam ook niet, in Rollercoaster T. ook al niets.Ben heeeel benieuwd wat de invloed van 3dc gaat zijn. Eigenlijk vind ik dat de enige echt zinvolle en veelbelovende nieuwe feature vd X800 serie !
Als het érgens in zou moeten zitten zouden het demo's en beta's moeten zijn lijkt mij, het is immers de ideale gelegenheid om het uit te testen voor de makers.
Ik durf het bijna niet te zeggen maar als het een doodgebloed kindje blijkt te zijn (net als Ati's True form) dan kijk ik niet gek meer op, het duurt gewoon te lang eer dat we er iets daadwerkelijk in de praktijk van gaan zien.
Maar hopelijk heb ik het mis en komt het alsnog in de vorm van patches.
Anoniem: 38733
Ik heb enkel even het OpenGL gedeelte (atioglxx.dll) van de nieuwe beta geprobeerdyep, maar lijkt me handiger om te wachten op 4.10, deze drivers brengen niet zoveel extras.
en is zeker weer een flinke vooruitgang in Doom3 t.o.v. 4.9!
Timedemo 1:
4.9 = 46.0fps
nieuwe beta = 52.0fps
(1280x1024, 4xAA/8xAF (AF in CP = application controlled, High Quality in-game, geen Humus tweak))
Ben nu trouwens érg benieuwd of Edward2 met zijn X800XT zijn 6800U voorbij gaat
in Doom3.
[ Voor 27% gewijzigd door Anoniem: 38733 op 28-09-2004 07:33 ]
Ik kan iig bij RCT3 "Compress textures" kiezen. Het kan natuurlijk een andere vorm van compressie zijn, maar het kan ook 3Dc zijn
UT2004 15% sneller
TribesV demo idem
[ Voor 8% gewijzigd door edward2 op 28-09-2004 10:52 ]
Niet op voorraad.
Eerst: 47,9fps (1280, 16AF, 6AA)
Nu: 53,5fps (1280, 16AF, 6AA)
Beide met humusfix volgens mij.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Anoniem: 93354
1024x768 4x/8x 4.9 = 53,1fps
1024x768 4x/8x 4.? = 57,9fps
Alleen jammer dat er geen een dx spel is dat nog werkt

Ik vraag me af wanneer ik eens wat plezier van mij xt-pe kan gaan hebben....
Volgens mij kan je beter de humusfix uitzetten (GLprogs deleten), nu overide die de shadercall van de drivers.Thund3r schreef op 28 september 2004 @ 11:38:
Doom3:
Eerst: 47,9fps (1280, 16AF, 6AA)
Nu: 53,5fps (1280, 16AF, 6AA)
Beide met humusfix volgens mij.
[ Voor 3% gewijzigd door edward2 op 28-09-2004 13:40 ]
Niet op voorraad.
Zie Edwards bericht, een klein beetje hogerop.SI4live schreef op 28 september 2004 @ 12:51:
Mag ik een link naar die beta drives?
[ Voor 26% gewijzigd door CJ op 28-09-2004 12:52 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 93354
Je hebt wel een goede dx9c install?Anoniem: 93354 schreef op 28 september 2004 @ 13:53:
Zijn er meer mensen die met die beta drivers geen css en rtc3 meer kunnen spelen? Als ik btw dat opengl bestand van de beta's vervang voor die in de 4.9 drivers zitten dan haal ik een fps van 62,3 in doom3. Met de beta's was dat 59 en met de orgineele 4.9 53,1. Nadeel is alleen dat ik dan alsnog geen dx spellen kan spelen.
Niet op voorraad.
[ Voor 100% gewijzigd door edward2 op 28-09-2004 14:14 ]
Niet op voorraad.
Anoniem: 45862
Anoniem: 93354
Weet iemmand of ati ook een email voor tech support heeft? Ik wil toch eens vragen of hun weten waarom mijn kaart slecht presteert.
[ Voor 63% gewijzigd door Anoniem: 93354 op 28-09-2004 15:30 ]
Anoniem: 45862
Oh die heb ik al zien zittenAnoniem: 93354 schreef op 28 september 2004 @ 15:25:
Kijken of er een rage theater chip opzit.
Weet iemmand of ati ook een email voor tech support heeft? Ik wil toch eens vragen of hun weten waarom mijn kaart slecht presteert.
Anoniem: 45862
Want ik hoor mensen praten over 2048 x ???? met alles aan met 150 fps.
met een amd 64 3000 en 512 mb ddr.
[ Voor 8% gewijzigd door Anoniem: 45862 op 28-09-2004 17:36 ]
Anoniem: 93354
Anoniem: 45862
Ik heb alles op low gezet en alle opties uit. Reso op 1024x768 en ik had gemiddeld fps rond de 60. Drops tot 30 dit klopt niet volgens mij.
Anoniem: 38733
Volgens mij had je dan helemaal geen X800 hoeven te kopen, een 9600 of 9800 voldoet nog uitstekend op lage resos.
1024 is behoorlijk cpu limited. Pas op hogere resos met veel AA/AF ga je de gigantische power van de X800 merken.
[ Voor 27% gewijzigd door Anoniem: 38733 op 28-09-2004 18:14 ]
als je even 2 maandjes wacht dropt de prijs zeker tot 400 euro ( misschien nog wel minders) beetje dom vind ik dat.
En dan heb ik het nog niet eens over de concurrentie tussen ati en nvidia
[ Voor 3% gewijzigd door Polycom op 28-09-2004 18:15 ]
Anoniem: 38733
Ja, en als je nog een jaartje wacht kost ie nog maar 200 euro. Maar weet je wat, wacht nóg een jaartje extra dan ligt ie voor 49 euro in de uitverkoopbak bij de Media markt.Pu_Dy schreef op 28 september 2004 @ 18:14:
ik vind het sowieso gek dat je nu zo'n duure videokaart koopt..
als je even 2 maandjes wacht dropt de prijs zeker tot 400 euro ( misschien nog wel minders) beetje dom vind ik dat.

Ik hoop niet dat je het erg vind dat ík ondertussen met een X800 game ok?
[ Voor 9% gewijzigd door Anoniem: 38733 op 28-09-2004 18:24 ]
Anoniem: 45862
Misschien met het oog op toekomst, waar je wel een betere TFT of CRT koopt?Anoniem: 38733 schreef op 28 september 2004 @ 18:13:
Wat ik me trouwens afvraag is waarom velen met een X800 op 1024 blijven spelen.
Volgens mij had je dan helemaal geen X800 hoeven te kopen, een 9600 of 9800 voldoet nog uitstekend op lage resos.
1024 is behoorlijk cpu limited. Pas op hogere resos met veel AA/AF ga je de gigantische power van de X800 merken.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
oeps, laat maar
[ Voor 84% gewijzigd door Gugger op 28-09-2004 20:26 ]
"Its a Backstreet Boys world and at the end of the day, you just want to go home and kill yourself." - Billy Corgan (Smashing Pumpkins)
had mijn X800pro verkocht aan iemand, en nu meld die me dat het kaartje niets meer doet.
liet de pc een uurtje alleen, en toen hij terug kwam was het scherm zwart.
alles geprobeerd, maar het kaartje weigert dienst.
VGA silencer zat er goed op (zelf gemonteerd) dus hier verwacht ik geen problemen.
molex eruit gelaten, geen boodschap.
iemand een idee wat er kapot is ?
zijn voeding is een Chieftec 360 watt
A64 3200+
rest geen idee.
[ Voor 8% gewijzigd door Gamer op 28-09-2004 21:14 ]
Maar eigenlijk is dit topic niet voor zulke vragen bedoeld
[ Voor 41% gewijzigd door Pubbert op 28-09-2004 21:22 ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
krijg hem terug opgestuurd, zal hem hier nog wel eens testen.
ps, die XT-Pe die ik hier heb doet het eigenlijk niet zo goed, overclockt zeer slecht.
550/575 is max haalbare, zelfs die PRO deed beter
had je nou windows wel of niet opnieuw geinstalled??Anoniem: 93354 schreef op 28 september 2004 @ 17:58:
Als je het mij vraagt zit er ergens in een stukje software een grote bug mbt de x800 serie. Jouw fps zit ongeveer er tussen in van wat je leest. Sommige halen idd boven de 100fps. Andere halen nog minder fps dan jouw (ala me met 35fps met een x800xt-pe).
Het vernieuwde "Get In The Game" programma begint nu eindelijk haar vruchten af te werpen.
Gespot in het grote RCT3 topic: http://home.planet.nl/~karab067/ati.JPG Een karakter met een ATi t-shirt. Wel een stuk origineler dan een draaiend logo aan het begin van elke game.
Maar goed, over logo's gesproken.... Rollercoaster Tycoon 3 is één van de eerste games (zo niet de eerste) waarin bij het opstarten beeldvullend het ATi logo te zien is. En ook draait de game volgens veel forums beter op ATi kaarten dan op nV kaarten.
We weten allemaal dat HL2 een echte ATi "GITG"-game is, maar Vivendi heeft er nog eentje op zak, namelijk Tribes Vengeance. Vivendi en ATi gaan nu een gezamenlijk offensief beginnen om Tribes Vengeance to promoten:
http://www.gamespot.com/news/2004/09/27/news_6108962.htmlVivendi teams with ATI for Tribes: Vengeance marketing
Publisher, graphics card manufacturer will co-promote multiplayer battle game next month.
Vivendi Universal Games today announced that the company will partner with graphics card manufacturer ATI Technologies to market its upcoming PC title Tribes: Vengeance. The two companies will collaborate in their efforts to promote the multiplayer battle game, which uses the Unreal engine, through "advertising campaigns, special events, and online evangelism." Tribes: Vengeance will be released on October 5 in the US.
Van al deze drie games worden zeer hoge verkoopcijfers verwacht en er zal veel geld in reclamecampagnes worden gestoken om te laten zien op welke kaarten deze games beter draaien. Waarschijnlijk gaat ATi zich ook prominenter presenteren in aanstormende GITG-titels als Serious Sam 2, Black & White 2 en Sid Meiers Pirates.
Dan nog wat geruchten van The Inq. Het schijnt dat een 6800Ultra zo'n 5000 punten scoort in 3DM2K5, terwijl een X800XT maar 4500 punten scoort met Cat. 4.9. Maar met de nieuwe hotfix drivers, schijnen de ATi scores gestegen te zijn naar 5800 punten.
Een GeForceFX 5950Ultra schijnt ongeveer 1270 punten te scoren, terwijl een Radeon9600XT 1570 punten scoort. Waarschijnlijk komt dit doordat de 9600XT een betere pure DX9 ondersteuning heeft (wat ook te zien is wanneer Half Life 2 in DX9 mode wordt gedraaid op de FX serie van nV).
http://www.theinquirer.net/?article=18734
Catalyst 4.10 schijnt dus nogal wat grote performanceboosts met zich mee te brengen. En om maar even in de driver-scene te blijven... nVidia probeerde ATi zwart te maken door het verhaal de wereld in te helpen dat ATi drivers niet meer zouden kunnen voldoen aan de WHQL certificering en dat ze daarom Geometry Instancing weer uit zouden moeten schakelen om er toch aan te voldoen. Volgens The Inq, die gesproken heeft met MS, is dit dikke onzin en zijn het juist de Forceware drivers die elke WHQL test gefaald heeft. Met name de FX reeks schijnt voor problemen te zorgen.
http://www.theinquirer.net/?article=18730
[ Voor 27% gewijzigd door CJ op 29-09-2004 00:35 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
3DCenter heeft een update geplaatst in hun artikel: "Doom3: Why Is The Radeon X800 Series Behind GeForce6"?
Tot nu toe dacht iedereen dat het vooral kwam door technieken als UltraShadow en de speciale 32x0 modus tijdens Z/Stencil passes. Dit blijkt dus niet de belangrijkste reden te zijn van de voorsprong van de GeForce6 serie in Doom3.
Ze komen tot twee conclusies....Nvidia seems to have used optimizations in their drivers, similar to those which already helped to win Q3A benches for quite a long time now. The driver does intercept and replace CPU demanding calls with less demanding ones. Special optimizations probably favor both, the Q3A and Doom 3 engine. In addition, Nvidia could have shown off quite some creativity in terms of replacing shaders. The company seems to have found a solution that allows for replacement of shaders without affecting image quality.
1. De performanceverschillen zijn niet zo zeer ontstaan door de NV40 architectuur.
2. ATi zou dit dus ook moeten kunnen doen voor hun Radeon serie.
Dit brengt mij natuurlijk op het volgende... Catalyst AI. Die doet dit eigenlijk al... dus dat zou betekenen dat ATi waarschijnlijk zeer goed op de hoogte is van de shaderreplacements en andere optimalisaties van nVidia, en om een beetje mee te komen moeten ze wel 'oog om oog, tand om tand' gaan vechten anders is het geen eerlijk gevecht meer.
Bron: http://www.3dcenter.org/a.../07-30_english.php#update
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 38733
ik gisteren gedownload heb...
http://www2.ati.com/drivers/hotfix/wxp-w2k-8-07-018380E.exe
(gisteren stond 018211E.exe op de Ati server)
Volgens Dave Baumann van Beyond3d.com geldt deze vooruitgang enkel voor de AGP versie van de X800XT, de PCI-versie scoorde zonder de hotfix driver al erg goed. De 'memory allocation bug' die Ati meldt in de hotfix lijkt dus AGP verwant te zijn.Dan nog wat geruchten van The Inq. Het schijnt dat een 6800Ultra zo'n 5000 punten scoort in 3DM2K5, terwijl een X800XT maar 4500 punten scoort met Cat. 4.9. Maar met de nieuwe hotfix drivers, schijnen de ATi scores gestegen te zijn naar 5800 punten.
[ Voor 64% gewijzigd door Anoniem: 38733 op 29-09-2004 08:11 ]
CJ schreef op 29 september 2004 @ 02:22:
Ze komen tot twee conclusies....
1. De performanceverschillen zijn niet zo zeer ontstaan door de NV40 architectuur.
2. ATi zou dit dus ook moeten kunnen doen voor hun Radeon serie.
Dit brengt mij natuurlijk op het volgende... Catalyst AI. Die doet dit eigenlijk al... dus dat zou betekenen dat ATi waarschijnlijk zeer goed op de hoogte is van de shaderreplacements en andere optimalisaties van nVidia, en om een beetje mee te komen moeten ze wel 'oog om oog, tand om tand' gaan vechten anders is het geen eerlijk gevecht meer.
Bron: http://www.3dcenter.org/a.../07-30_english.php#update
Overseen? Denk eerder dat het express is ontwikkeld in samenwerking met nVidia om de benchmarks te winnen. Beniewd of dit muisje weer een staartje krijgtAs for a general statement towards replacement of shaders: One can't demand shaders to be executed "as they are" nowadays. In general, built-in shader optimizations, which don't change the final visual results are always valid. It gets more complicated in terms of hand optimized techniques. Still, as long as there's no counterproof, we assume that Nvidia is only making use of things to improve performance, that have been overseen during the programming phase of the game. Anyway, hand optimizations for any benchmark is something to take very seriously, because Doom 3 is one of the default benchmarks for almost any review out there.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
ATi komt goed uit de bus:

http://techreport.com/etc/2004q3/3dmark05/index.x?pg=5
Edit: Hehe, en nVidia komt nu natuurlijk meteen met een SLI score van de GF6800U omdat ze het met een single GPU niet kunnen winnen.
[ Voor 72% gewijzigd door CJ op 29-09-2004 18:46 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ATi in de tegenaanval.... als reactie op de gelekte presentatie was het natuurlijk een kwestie van afwachten op een counter van ATi. Nou, het is er hoor....
Ze spelen het nu wel hard tegen hard en komen met feiten waar je niet onderuit kunt.Dear partners,
In the past few days you've seen a lot of negative marketing against X700 series from NVIDIA. I am happy to send you this latest presentation, our answer to our competition's FUD. You will find lots of facts and data that speak for the truth. I am also attaching the latest press acclaims for the X700 series. No doubt we can proudly say that X700 is THE solution for $149 ~ $199 market.
....
Let the truth speak for itself...
Regards,
Hangmei Chen
Sr. Market Development Manager, AIB Partner Marketing

Lol @ What are they hiding from now?
En daarnaast quoten ze Beyond3D over de 4x2 architectuur van de 6600GT, Firingsquad over de voordelen van meer vertexshaders en Hexus voor de superieure video decoding. En daarnaast gaan ze rechtstreeks in op de presentatie van nVidia.
"NVIDIA trying to demonstrate future performance with old benchmarks". En ze noemen de GF6600GT een "one trick pony" omdat het maar in 1 game echt ver voorop loopt (Doom3).
En dan gaan ze verder met "... and the Pony just left the show", en laten ze zien dat dankzij de o.a. Cat AI de X800XT PE net zo snel is in Doom3 als de 6800U. Dit wordt gevolgd door scores van recente games met 4xAA en 8xAF, en vooral de standaard 6600 moet het ontzien ">Regular GeForce6600 performance scores less than all X700 versions".
Alle slides kunnen bekeken worden op http://www.hardocp.com/
Echt komisch dit.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zo zo, die spelen hardCJ schreef op 29 september 2004 @ 18:08:
ati's tegenaanval
[ Voor 83% gewijzigd door GeforceDDQ op 29-09-2004 18:14 ]
301SQN
Erg mooi weerwoordCJ schreef op 29 september 2004 @ 18:08:
Wooooohoooo. Dat dit hier nog niet gepost was....
ATi in de tegenaanval.... als reactie op de gelekte presentatie was het natuurlijk een kwestie van afwachten op een counter van ATi. Nou, het is er hoor....
[...]
Ze spelen het nu wel hard tegen hard en komen met feiten waar je niet onderuit kunt.
[afbeelding]
Lol @ What are they hiding from now?
En daarnaast quoten ze Beyond3D over de 4x2 architectuur van de 6600GT, Firingsquad over de voordelen van meer vertexshaders en Hexus voor de superieure video decoding. En daarnaast gaan ze rechtstreeks in op de presentatie van nVidia.![]()
"NVIDIA trying to demonstrate future performance with old benchmarks". En ze noemen de GF6600GT een "one trick pony" omdat het maar in 1 game echt ver voorop loopt (Doom3).
En dan gaan ze verder met "... and the Pony just left the show", en laten ze zien dat dankzij de o.a. Cat AI de X800XT PE net zo snel is in Doom3 als de 6800U. Dit wordt gevolgd door scores van recente games met 4xAA en 8xAF, en vooral de standaard 6600 moet het ontzien ">Regular GeForce6600 performance scores less than all X700 versions".
Alle slides kunnen bekeken worden op http://www.hardocp.com/
Echt komisch dit.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Tis maar 1300 punten meer hoor, ik haalde 59xx met m'n x800 Pro @ XTPE @ stockspeeds. Is nog steeds een flink percentage, maar minder dan verwacht imo. Maarja, bij die score wordt de proc misschien weer meer de bottleneck met 2 monsterkaartenCJ schreef op 29 september 2004 @ 17:18:
Edit: Hehe, en nVidia komt nu natuurlijk meteen met een SLI score van de GF6800U omdat ze het met een single GPU niet kunnen winnen.De score is 7229 van een SLI GF6800U. Iets meer als 2000 punten meer dan een X800XT PE haalt dus. Valt een beetje tegen.
[ Voor 5% gewijzigd door Okyah op 29-09-2004 18:26 ]
Alone at last
Just nostalgia and I
We were sure to have a blast
Hmm weer iets nieuwere drivers dus, ff kijken. De hotfix gaf al mooie performanceverbeteringen in oa Doom3, TribesV, UT2004, Unreal2 en Aquamark
[ Voor 34% gewijzigd door edward2 op 29-09-2004 18:38 ]
Niet op voorraad.
Maja, zo gaat het nog wel ff door waarschijnlijk... Volgend jaar, áls er al een nieuwe GPU uitkomt/leverbaar wordt, zal het vuur nog wel harder gaan branden. En nu maar eens die 05 downen...
Tja tis wel redelijk waar en misschien is nVidia de boel again aan het bedriegen met shaderreplacements, maar mijn stokpaardje is en blijft dat ATI gewoon lame bezig is want die hele X800XT PE is nog steeds niet normaal te krijgen (zeker in NL) tenzij je absurd onredelijk veel moeite doet.CJ schreef op 29 september 2004 @ 18:08:
....en laten ze zien dat dankzij de o.a. Cat AI de X800XT PE net zo snel is in Doom3 als de 6800U. Dit wordt gevolgd door scores van recente games met 4xAA en 8xAF, en vooral de standaard 6600 moet het ontzien ">Regular GeForce6600 performance scores less than all X700 versions".
Alle slides kunnen bekeken worden op http://www.hardocp.com/
Echt komisch dit.
In mijn ogen moet die hele X800XT PE vooralsnog uit alle reviews geschrapt worden omdat het een PAPERLAUNCH VAN DE EERSTE ORDE is.
FACE IT de 6800Ultra is ook moeilijk verkrijgbaar maar aanmerkelijk makkelijker.
En ja ik ben er gefrusteerd en geirriteerd van.
The truth is out there and this is the truth. Don't blame the messenger.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Als je er moeite voor doet heb je er toch zo 1Help!!!! schreef op 29 september 2004 @ 19:30:
[...]
Tja tis wel redelijk waar en misschien is nVidia de boel again aan het bedriegen met shaderreplacements, maar mijn stokpaardje is en blijft dat ATI gewoon lame bezig is want die hele X800XT PE is nog steeds niet normaal te krijgen (zeker in NL) tenzij je absurd onredelijk veel moeite doet.
In mijn ogen moet die hele X800XT PE vooralsnog uit alle reviews geschrapt worden omdat het een PAPERLAUNCH VAN DE EERSTE ORDE is.
FACE IT de 6800Ultra is ook moeilijk verkrijgbaar maar aanmerkelijk makkelijker.
En ja ik ben er gefrusteerd en geirriteerd van.
The truth is out there and this is the truth. Don't blame the messenger.
De 4.10 ? is trouwens lekker voor 3dmark 2003, ik ging van 4200 naar 5183
[ Voor 5% gewijzigd door Pubbert op 29-09-2004 19:43 ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Ik merkte er niets van bij 2k3 met een x800, maar daar is prob de proc de bottleneck bij mij. Bij 2k5 haal ik ieg een prettige score met de 4.10bThund3r schreef op 29 september 2004 @ 19:42:
[...]
De 4.10 ? is trouwens lekker voor 3dmark 2003, ik ging van 4200 naar 5183
Heb Doom3 nog niet geprobeerd met deze driver, maar dat ga ik zo ook even doen denk ik
Alone at last
Just nostalgia and I
We were sure to have a blast
Anoniem: 93354
Ik blijft erbij dat je abnormale moeite moet doen om zo'n kaart te krijgen. Ik heb geen zin om continu allerlei shops af te bellen in de hoop dat ik wellicht op mijn knietjes dik EUR 500+ mag neertellen voor een klereding dat was beloofd voor ultimo mei. We zijn nu inmiddels een volle 4 maanden verder en nog is de leverbaarheid bar slecht. Ik geloof er niks van dat er meer dan 100 zijn verkocht in NL aan anderen dan werknemers van de diverse shops. Zit ik waarschijnlijk nog erg hoog...Thund3r schreef op 29 september 2004 @ 19:42:
[...]
Als je er moeite voor doet heb je er toch zo 1Gewoon kwestie van wat zaken bellen. 2 klasgenoten hebben er nu ook 1, beide bij een andere zaak gehaald. De vraag is gewoon zo groot naar die kaart, de leveringen die binnen komen gaan ook meteen weer weg, daarom lijkt het alsof hij niet verkocht word.
De 4.10 ? is trouwens lekker voor 3dmark 2003, ik ging van 4200 naar 5183
De X800PRO heb ik nu sinds begin juli en deze bevalt ook prima dus ik ga nu anno begin oktober geen dikke 500 Plus pLUs meer betalen voor een X800XT PE. Misschien probeer ik het weer bij de R480 ofzo.
pff ga als 3dmark2005 binnen is maar ns kijken hoeveel punten een X800pro oplevert....
[ Voor 8% gewijzigd door Help!!!! op 29-09-2004 19:58 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Upgraden van een X800 Pro naar X800 XT PE is ook nutteloos hoor.Help!!!! schreef op 29 september 2004 @ 19:56:
[...]
Ik blijft erbij dat je abnormale moeite moet doen om zo'n kaart te krijgen. Ik heb geen zin om continu allerlei shops af te bellen in de hoop dat ik wellicht op mijn knietjes dik EUR 500+ mag neertellen voor een klereding dat was beloofd voor ultimo mei. We zijn nu inmiddels een volle 4 maanden verder en nog is de leverbaarheid bar slecht. Ik geloof er niks van dat er meer dan 100 zijn verkocht in NL aan anderen dan werknemers van de diverse shops. Zit ik waarschijnlijk nog erg hoog...
De X800PRO heb ik nu sinds begin juli en deze bevalt ook prima dus ik ga nu anno begin oktober geen dikke 500 Plus pLUs meer betalen voor een X800XT PE. Misschien probeer ik het weer bij de R480 ofzo.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Precies, 'jagen', alle pricewatches en de telefoon bij de hand en bellen maar..Thund3r schreef op 29 september 2004 @ 19:42:
[...]
Als je er moeite voor doet heb je er toch zo 1Gewoon kwestie van wat zaken bellen. 2 klasgenoten hebben er nu ook 1, beide bij een andere zaak gehaald. De vraag is gewoon zo groot naar die kaart, de leveringen die binnen komen gaan ook meteen weer weg, daarom lijkt het alsof hij niet verkocht word.
De 4.10 ? is trouwens lekker voor 3dmark 2003, ik ging van 4200 naar 5183
Ik heb ze allebei en zeker al een maandje of 2
Niet op voorraad.
Idd zeker met mijn configuratie. De winst zal redelijk klein zijn echter ik vond deze kaart (XT PE) toch de betere keuze ondanks een meerprijs. Mede vanwege de betere verkoopbaarheid tzt.Thund3r schreef op 29 september 2004 @ 19:58:
[...]
Upgraden van een X800 Pro naar X800 XT PE is ook nutteloos hoor.
Mijn irritatie betreft het feit dat (ATI) in benchmarks de X800XT PE voortdurend wordt aangehaald maar deze kaart gewoon supersuperslecht leverbaar is. En ik heb destijds echt wel redelijke moeite gedaan! De 6800ultra is beter leverbaar en daarmee een reeele kandidaat in een benchmark.
For all i know kan ATI net zo goed de tapeout vd R520 insturen en dik winnen maar dat ding is evenmin verkrijgbaar.
Met recht gefeliciteerd.edward2 schreef op 29 september 2004 @ 19:59:
[...]
Precies, 'jagen', alle pricewatches en de telefoon bij de hand en bellen maar..
Ik heb ze allebei en zeker al een maandje of 2
Tuurlijk als je echt alles uit de kast trekt, jan en alleman dagelijks afbelt en bereid bent een extra premium te betalen boven een toch al hoge adviesprijs dan kun je em best krijgen maar dat is niet mijn interpretatie van een enigszins redelijk verkrijgbaar produkt. Al helemaal niet 4 maanden na beloofde introductie.
Ik begrijp best dat anderen zeggen: leer er mee leven maar ik vind het gewoonweg irritant en niet reeel om je te beroepen op performance die alleen voor diegene die ALLES eraan doet, te kopen is.
Nu ik toch op dreef ben
Behalve een scheiding wil ik ook nog een berichtje achter elke bar in een benchmark diagram: "paperlaunch card, almost impossible to come by now and in foreseeable future." & "Stockcard"

[ Voor 62% gewijzigd door Help!!!! op 29-09-2004 22:02 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Niet op voorraad.

LOL.STIMPPYYY schreef op 29 september 2004 @ 20:17:
Wij hebben toch echt de x800XT PE PCI-E versie, die nog schaarsers is, 5 op voorraad
Die zou ik best willen maar ik heb AGP


btw: wie is wij ? Linkje?
[ Voor 5% gewijzigd door Help!!!! op 29-09-2004 20:27 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Heb hem nog niet toegevoegd, maar onze leverancier heeft er 5 op voorraad, zit ook wel een behoorlijk prijskaartje aan


Anoniem: 38733
SANTA CLARA, CA—SEPTEMBER 29, 2004—NVIDIA Corporation (Nasdaq: NVDA), a worldwide leader in graphics and digital media processors, today announced that the Company has set the bar for 3dMark™05, the latest PC performance benchmark from Futuremark® Corporation. In benchmark tests performed by NVIDIA using 3dMark05, the NVIDIA® GeForce™ 6800 Ultra SLI™ achieved an industry high-score of 7229¹.
Ze noemen hun snelste videokaart de 6800Ultra Sli.
http://www.nvidia.com/object/IO_16083.html
[ Voor 90% gewijzigd door Anoniem: 38733 op 29-09-2004 21:21 ]
Toch mooi, dat ze eindelijk fatsoenlijk er gebruik van beginnen te makenOok is er een bug geplet waardoor grafisch intensieve applicaties (zoals 3DMark05) nu beter gebruik kunnen maken van het videogeheugen op videokaarten met 256MB RAM. Voor de volledigheid zijn hieronder de release notes te vinden van Catalyst 8.07 beta:
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
He hebben jullie de XT PE AGP op voorraad: http://www.megabite-it.co...t_info.php?products_id=29STIMPPYYY schreef op 29 september 2004 @ 20:38:
www.megabite-it.com/catalog
Heb hem nog niet toegevoegd, maar onze leverancier heeft er 5 op voorraad, zit ook wel een behoorlijk prijskaartje aan479 Eur. Ex. BTW


PS 1:
na installatie van http://www2.ati.com/drivers/hotfix/wxp-w2k-8-07-018380E.exe laadt ATI traytools niet meer bij mij.
Melding is: "Can not load low level device driver. Please restart application."
Heb voorgaande Catalyst en traytools v371 grondig verwijderd.
Heeft iemand hetzelfde probleem icm een X800pro ??
PS 2:
icm met standaard niet overklokte X800pro en 8.07beta scoor ik 4538 3Dmark2005's.
[ Voor 12% gewijzigd door Help!!!! op 29-09-2004 21:41 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
idd...en een verhoging van 80-90% moet ook nog mogelijk zijn met de juiste drivers/optimalisatiesThund3r schreef op 29 september 2004 @ 21:11:
Toch mooi, dat ze eindelijk fatsoenlijk er gebruik van beginnen te makenAls je nu al een score verhoging van 15-30% ziet in 3Dmark05
ja, is alleen jammer dat je dan 2x een nvidia kaartje moet kopen en een bordje waar er 2 in kunnen.Anoniem: 38733 schreef op 29 september 2004 @ 21:11:
Nvidia claimed al weer de snelste te zijn in 3DMark05.
SANTA CLARA, CA—SEPTEMBER 29, 2004—NVIDIA Corporation (Nasdaq: NVDA), a worldwide leader in graphics and digital media processors, today announced that the Company has set the bar for 3dMark™05, the latest PC performance benchmark from Futuremark® Corporation. In benchmark tests performed by NVIDIA using 3dMark05, the NVIDIA® GeForce™ 6800 Ultra SLI™ achieved an industry high-score of 7229¹.
Ze noemen hun snelste videokaart de 6800Ultra Sli.![]()
http://www.nvidia.com/object/IO_16083.html
kost gelukkig niet veel meer tegenwoordig
een OW voor blaten in de IT? laat IT dan maar voortaan links liggen :(
Stomme leverancierHelp!!!! schreef op 29 september 2004 @ 21:16:
[...]
He hebben jullie de XT PE AGP op voorraad: http://www.megabite-it.co...t_info.php?products_id=29![]()

gelukkig, stel dat jullie er zomaar een paar hadden slingeren na mijn betoog van hierboven... hahaSTIMPPYYY schreef op 29 september 2004 @ 21:39:
[...]
Stomme leverancierhad natuurlijk weer levering datum opgegeven die niet klopt
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Of Nintendo revolution. Die gaat ook de nieuwe ATI chip gebruiken.edward2 schreef op 27 september 2004 @ 16:07:
[...]
Meestal is dat zo weer voorbij, maar misschien duurt het nu wat langer. Moet ik dadelijk zo'n X-doos erbij kopen...
Ik zou er niet zonder kunnen.
"The more you take the less you feel, The less you know the more you believe, The more you have the more it takes today"
als ze het zo spelen zal het ook wel niet lang duren voor er een alienware 9was het gloof ik he?) met dual ati kaart een score neer zet, ati is nogal fel tegen nvidia de laatste tijd geloof ikchucky666 schreef op 29 september 2004 @ 21:25:
[...]
ja, is alleen jammer dat je dan 2x een nvidia kaartje moet kopen en een bordje waar er 2 in kunnen.
kost gelukkig niet veel meer tegenwoordig
PSN: DutchTrickle PVoutput
Project Reveille en de teaser. Dual X800XT.Maverick schreef op 29 september 2004 @ 22:59:
[...]
als ze het zo spelen zal het ook wel niet lang duren voor er een alienware 9was het gloof ik he?) met dual ati kaart een score neer zet, ati is nogal fel tegen nvidia de laatste tijd geloof ik
Edit En de 6800Ultra SLI opstelling van nVidia is al weer verslagen door een X800XTPE op 741 Mhz core en 648 Mhz mem.
http://service.futuremark.com/compare?dm05=3175
[ Voor 16% gewijzigd door CJ op 29-09-2004 23:19 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 77% gewijzigd door epo op 30-09-2004 00:42 ]
@ CJ
Project Reveille is toch gewoon gebaseerd op zo'n Alienware SLI systeem?
Dat betekend toch dat elke PCI-E videokaart erin gepropt kan worden?
Waarom hebben ze dan nog steeds geen score neergezet?
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Is gamen en msn tegelijk
Ik geloof dat jou de bedoeling van het ATi Nieuws & Discussie topic een beetje ontgaat.epo schreef op 30 september 2004 @ 00:01:
Heb je aandelen van ATI ofzo ??
nVidia brengt het nieuws in een officieel persbericht dat ze het record hebben dankzij SLI. Ik breng hier het nieuws dat dat record inmiddels verbroken is door een kaart die gemaakt is door de fabrikant in dit topic titel. Niets aandelen, gewoon feiten.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Volgens mij slaap je met je radeon of nietCJ schreef op 30 september 2004 @ 00:32:
[...]
Ik geloof dat jou de bedoeling van het ATi Nieuws & Discussie topic een beetje ontgaat.
nVidia brengt het nieuws in een officieel persbericht dat ze het record hebben dankzij SLI. Ik breng hier het nieuws dat dat record inmiddels verbroken is door een kaart die gemaakt is door de fabrikant in dit topic titel. Niets aandelen, gewoon feiten.
?
zal wel weer
Wat is eigenlijk het antwoord van NVIDIA op de X300?
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Hehe, dan zou ik z'n eerdere posts in dit topic (en voorgaande topics) maar eens lezen.Althalus schreef op 30 september 2004 @ 00:53:
ik ging er eigenlijk vanuit dat hij bedoelde dat je erzo veel van wist, dat je wel aandelen in ATi moet hebben.
?
zal wel weer
Die komt pas aan het einde van het jaar. NV44 als het goed is. ATi komt misschien ook nog met RV351 uit, een AGP variant van de X300 (RV370).Wat is eigenlijk het antwoord van NVIDIA op de X300?
Edit
3DMark2005 gaat waarschijnlijk weer voor wat rellen zorgen. De benchmark maakt namelijk gebruik van DST op nVidia kaarten. DST, oftewel Depth Stencil Texture, is een hardwarematige functie die er voor versnelling van het renderen van shadowmaps zorgt.
De IQ is met DST slechter, dan wanneer DST uitgeschakeld wordt op de GeForce6 serie. En wat nog belangrijker is... DST zorgt voor een performance winst van 10 tot 16%.
Waarom dit voor een rel gaat zorgen? Futuremark heeft gezegd dat ze geen IHV-specifieke functies zouden ondersteunen... En laat DST nou net een nV specifiek iets zijn... en ook nog eens een specificatie die buiten de DirectX 9 specs valt. Toch heeft Futuremark er voor gekozen om dit toch te gebruiken.
En het vreemde is dat 3Dc dus niet gebruikt wordt (wegens IHV-specifiek zijn), maar dat 3Dc dus wel in WGF 1.0 is opgenomen, en ook in een toekomstige versie van DX zal komen! Dit kan niet gezegd worden van DST.
Sites dienen dus zonder DST op GeForce kaarten te testen om een apples-to-apples vergelijking te krijgen.
enSo while DSTs improve performance on compatible hardware, to the tune of anywhere between 10% and 16% in our tests, they most certainly do not give good output in 3DMark05's case, compared to the case where they're turned off. Again, they're ON by default on compatible hardware, increasing the chances of a non apples-to-apples comparison between hardware than can do DST acceleration, and hardware that can't.
http://www.hexus.net/cont...JRD04NzgmdXJsX3BhZ2U9Nw==When you also understand that Futuremark declined to put 3Dc support into 3DMark05, something that'd help reduce vertex load on a vertex-fetch-limited benchmark, for the precise reason that it's not a part of DirectX, is galling. Neither is NVIDIA's DST or PCF method of PSM acceleration, so why's that in there?
3Dc is a ratified part of WGF 1.0. It'll at least be in DirectX at some point in the future. The same can't be said of the NVIDIA acceleration of PSMs in 3DMark05.
ATi's Richard Huddy heeft er al op gereageerd:
ATI welcomes the introduction of 3DMark 2005 and we are pleased to observe that, yet again, ATI's hardware has been shown to be the fastest in the market today. The victory is all the more impressive when you take into account the fact that our main competitor, by default, runs a special vendor-specific fast path which is of lower quality (see the discussion on PCF and DST), and disabling that path for them improves ATI's lead by almost 10% of the total score. We're disappointed to see that Futuremark didn't choose to add support for 3Dc texture compression which would have demonstrated an even greater advantage for ATI hardware and technology.
We invite everyone to benchmark in the same way as we like gamers to be able to play their games; use high resolutions, turn all the settings to max and select the highest detail levels. That should sort the men from the boys!
And one final thing... Benchmarks don't just test graphics cards, they also test drivers. Every review should use drivers which are available to the general public and never use drivers which are produced just to win benchmarks. ATI is proud to announce that the drivers we have recommended for use in this review are all available from ATI.com
Thanks,
Richard "7 of 5" Huddy
European Developer Relations Manager, ATI.
[ Voor 80% gewijzigd door CJ op 30-09-2004 01:45 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ik beschik zelf niet over z'n monster althans nog niet...
Ik was gister in denbosch bij de ecl die boden een club3d x800pro 256mb aan voor 500 konden mij nix over het geheugen vertellen vivo ns etc...
ik zelf heb nu dit
Video Adapter
Model : RADEON 9500 PRO / 9700
Total Memory : 128MB (128MB Video) (118MB AGP)
Texture Memory : 246MB
Supports DIME Texturing : Yes
Video Chipset : RADEON 9700 AGP (0x4E45)
RAMDAC Chipset : Internal DAC(400MHz)
Video BIOS : 113-94216-102
VGA Compatible : No
Current Video Mode
Video Mode : 1024x768 16M+ TrueColour (32-bit)
Refresh Rate : 75Hz
Virtual Desktop Size : 1024x768
Video Driver
Model ID : ati2mtag.sys
Version : 6.14.10.6476
Supported Windows Version : 4.00
Video Acceleration : Yes, All Functions
Screen Saver Active : Yes, 15 min timeout
Screen Saver Name : (None)
Low Power Saving Active : Yes, 10 min timeout
Power Off Saving Active : Yes, 10 min timeout
(dus geen id op hoeveel hij loopt 400@??)
Februari 2003 Dell systeem oem se kaart neem ik aan? het stond toen op lijsie van Dell Als
Ati Readon 9700TX 150euro erbij had je een Pro...
Voor de rest beschik ik:
p4 2.8ghz GEEN HT
Mobo:
System Chipset
Model : Dell Computer Corp 82845G/GL/GV Brookdale Host-Hub Interface Bridge (A1-step)
Bus(es) : X-Bus AGP PCI IMB USB SMBus/i2c
Front Side Bus Speed : 4x 133MHz (532MHz data rate)
Max FSB Speed / Max Memory Speed : 4x 133MHz / 2x 166MHz
In Order Queue Depth : 8 req(s)
(Dunno of dat o.k is)
512meg
goed... valt er nog wat te doen met deze kaart opkrikken naar een pro of wat? niet dat ik nu ontevreden ben...
maar als ik zie dat d3 in low quality (jah LOW ;-0) op 60fps blijft hangen is het voor mij onverstandig om aan al die nieuwe generatie 3d spellen te beginnen....
Als ik dit in verkeerde topic zet zeg het me ff danku
voor de rest ocze verder zondag krijg ik bezoek van iemand met xfx6800gt stock maar die zou ik weleens onder handen willen nemen volg namelijk ook zeer aandachtig nvidia topic
P.S tweakers don't sue mij on Dell hehe twas pc prive project van mammie volgende upgrade word wel moeite waard hier goed en uitgebreid op tweakers neer te zetten!
edit:
niemand zin om te reageren of is dit ding echt te traag of te oud etc voor jullie supersonische monsters
kneem aan dat ik niet in een foute thread zit so... nieuwe maken doe ik niet of is dat beter van wel?
[ Voor 9% gewijzigd door Pimmuz op 30-09-2004 09:53 ]
kan dat ''DST'' niet uitgezet worden dan ??CJ schreef op 30 september 2004 @ 01:22:
[...]
De IQ is met DST slechter, dan wanneer DST uitgeschakeld wordt op de GeForce6 serie. En wat nog belangrijker is... DST zorgt voor een performance winst van 10 tot 16%.
Anoniem: 38733

Iedere Nv eigenaar mag daarom dan ook nog eens 10/15% van haar score aftrekken.

Overigens, ik schreef dit al in het Nv topic, check de Far Cry screens eens onderaan
de volgende pagina (uit een review van Xbitlabs):
http://www.xbitlabs.com/a...o/display/farcry30_4.html
Xbitlab's commentaar: ATI RADEON X800-series produces smoother shadows in FarCry when compared to NVIDIA GeForce 6800-series.
NVIDIA seems to have a driver bug that results in very rough shadows in the game.
Als ik zo eens naar de shadows op de Nvidia gun kijk dan is dit helemaal geen driver bug maar gewoon DST.

[ Voor 91% gewijzigd door Anoniem: 38733 op 30-09-2004 08:26 ]
Laten we het ermaar op houden dat de zaak nu in evenwicht is, en FYI hardware acceleratie is beter, zelfs als het er minder uitziet (wat mij niet eens opviel en wat waarschijnlijk driverbug is).
[ Voor 31% gewijzigd door Sjah op 30-09-2004 08:38 ]
Ondertussen heb ik 3DMark 2005 eens uitvoerig getest in combinatie met de Catalyst 4.11 beta drivers (KOTOR en 256MB gfx mem hotfix) en de Catalyst A.I. mogelijkheden. Standaard zou je dit moeten kunnen zetten via de CCC. Echter, de Cat 4.11 Beta word alleen "geleverd" met de oude en vertrouwde Ati Control Panel. Zodoende heb ik in de registry de CatalystAI value veranderd.
Cat 4.11 icm CatalystAI = 0 :
1
2
3
4
5
6
7
8
9
| 3DMark Score 4712 3DMarks CPU Score 4112 CPUMarks GT1 - Return To Proxycon 22.1 fps GT2 - Firefly Forest 13.2 fps GT3 - Canyon Flight 23.0 fps CPU Test 1 2.1 fps CPU Test 2 3.6 fps |
Cat 4.11 icm CatalystAI = 1 :
1
2
3
4
5
6
7
8
9
| 3DMark Score 4722 3DMarks CPU Score 4311 CPUMarks GT1 - Return To Proxycon 22.1 fps GT2 - Firefly Forest 13.2 fps GT3 - Canyon Flight 23.1 fps CPU Test 1 2.1 fps CPU Test 2 3.9 fps |
Cat 4.11 icm CatalystAI = 2 :
1
2
3
4
5
6
7
8
9
| 3DMark Score 4682 3DMarks CPU Score 4128 CPUMarks GT1 - Return To Proxycon 21.9 fps GT2 - Firefly Forest 13.1 fps GT3 - Canyon Flight 22.9 fps CPU Test 1 2.1 fps CPU Test 2 3.6 fps |
Kortom, Catalyst A.I. doet het in Catalyst 4.11 beta en het zorgt voor beter scores
Anoniem: 38733
Welke betere scores, zie nou niet echt spectaculaire verschillen tussen 0, 1 en 2, en helemaal niet in de fps. Behalve je CPU score in 1, die is iets beter.Kortom, Catalyst A.I. doet het in Catalyst 4.11 beta en het zorgt voor beter scores Op het eerste gezicht kon ik geen enkele verschillen zien, de IQ zag er naar mijn mening hetzelfde uit.
Btw, A.I. is geacht niet te werken in off. benchmarks, aldus Ati. Dit verklaart waarschijnlijk ook waarom je geen verschil in IQ ziet, en geen verschil in fps.
[ Voor 12% gewijzigd door Anoniem: 38733 op 30-09-2004 09:49 ]
De performancehitverschil is voor zover ik weet te verwaarlozen op 4xAF. En daar draait het hier helemaal niet om. AF is iets wat beide fabrikanten ondersteunen. De manier waarop ze het doen ligt hier dus niet ter sprake. Bij AF kan je tenminste zeggen dat beide IHV's het hardwarematig ondersteunen.Sjah schreef op 30 september 2004 @ 08:22:
Wat een gezeik weer, dan heb ik er nog een voor je maar dan tegen Ati. Wat dacht je ervan dat 4xAF aanstaat in '05? Ati scoort minder performancehit in AF dan de 6800, toch? Maar AA waar nVidia weinig verliest staat UIT. Daar hoor ik de Ati-boys niet over.
Laten we het ermaar op houden dat de zaak nu in evenwicht is, en FYI hardware acceleratie is beter, zelfs als het er minder uitziet (wat mij niet eens opviel en wat waarschijnlijk driverbug is).
DST is een hardwarematige functie die nVidia-only is, en ook nog eens niet in DX of WGF 1.0 zit. En of dit ooit gaat gebeuren is nog maar de vraag. Futuremark heeft altijd gezegd dat ze geen IHV-specifieke dingen zouden ondersteunen aangezien dit oneerlijk zou zijn en niet typerend voor overal gameplay.
3Dc zit echter al in WGF 1.0 en zal dus in een toekomstige DX worden opgenomen. En zelfs in DX9c wordt de nieuwe 3Dc texture format al ondersteunt dmv een FourCC code. Je zou dus denken dat eerder 3Dc in 3DMark2005 zou zijn opgenomen dan DST, vooral aangezien nVidia straks ook 3Dc zal moeten ondersteunen in hun hardware.
Als er gebenchmarkt wordt en de tester wil exact gelijke renderingperformance zien en niet te vergeten identieke screens, dan dient DST gewoon uitgeschakeld te worden. Of wil je zeggen dat je dit (DST off):

wilt vergelijken met dit (DST on):

Het hele punt van 3DMark2005 is dat ze ook identieke beelden tevoorschijn moeten kunnen toveren. Dat gebeurt hier niet wanneer DST is ingeschakeld.
DST kan in 3DMark2005 gewoon worden uitgeschakeld en een aantal sites heeft al aangegeven dat ze dit dus ook uit zullen zetten in hun tests. De ruime voorsprong die ATi nu al heeft zal dus in apples-to-apples vergelijkingen nog groter worden.
En het ziet er inderdaad naar uit dat DST de groffe schaduwen produceert in Far Cry. X-Bit Labs noemt het zelfs bij naam. in hun 3DM2k5 artikel... Op zich zou dit dan wel een 'verantwoording' kunnen zijn, waarom DST wel aan zou moeten staan, want immers 'het werkt ook in echte games'. Maar dat doet 3Dc ook in Far Cry (patch 1.3), Half Life2, Tribes Vengeance, Black & White 2, Serious Sam 2 etc.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
TribesV is bv nu al duidelijker sneller op de X800XT PE (minimaal30%)
Niet op voorraad.
OnzinCJ schreef op 30 september 2004 @ 10:12:
[...]
De performancehitverschil is voor zover ik weet te verwaarlozen op 4xAF.
Het draait sommigen/velen er om dat nVidia bevoordeelt wordt. Dat Ati zich vwb AF erachter kan verschuilen dat nVidia het ook heeft, doet er niks aan af dat Ati daar vruchten plukt. nVidia plukt geen enkele vrucht van zijn efficiente AA.En daar draait het hier helemaal niet om. AF is iets wat beide fabrikanten ondersteunen. De manier waarop ze het doen ligt hier dus niet ter sprake. Bij AF kan je tenminste zeggen dat beide IHV's het hardwarematig ondersteunen.
Nvidia heeft veel meer hardwarematige functies aan boord die r420 niet biedt, je kan het ook omdraaien en zeggen dat Ati nog goed weg komt door dat alleen dit kleine dingetje is meegenomen in '05.DST is een hardwarematige functie die nVidia-only is, en ook nog eens niet in DX of WGF 1.0 zit. En of dit ooit gaat gebeuren is nog maar de vraag. Futuremark heeft altijd gezegd dat ze geen IHV-specifieke dingen zouden ondersteunen aangezien dit oneerlijk zou zijn en niet typerend voor overal gameplay.
Hier wijs ik weer op het feit dat FM nVidia ook bepaald niet gematst heeft voor het feit dat ze nu al veel dingen hebben die Ati pas vanaf Mei(?) aan boord heeft.3Dc zit echter al in WGF 1.0 en zal dus in een toekomstige DX worden opgenomen. En zelfs in DX9c wordt de nieuwe 3Dc texture format al ondersteunt dmv een FourCC code. Je zou dus denken dat eerder 3Dc in 3DMark2005 zou zijn opgenomen dan DST, vooral aangezien nVidia straks ook 3Dc zal moeten ondersteunen in hun hardware.
ik vind het verschil nou niet zo groot, en wie weet komt nVidia wel met een statement dat dit in toekomstige drivers verholpen zal zijn. Wacht nou maar eerst op een eventuele reactie voor ze aan de hoogste boom te hangen.Als er gebenchmarkt wordt en de tester wil exact gelijke renderingperformance zien en niet te vergeten identieke screens, dan dient DST gewoon uitgeschakeld te worden. Of wil je zeggen dat je dit (DST off):
[afbeelding]
wilt vergelijken met dit (DST on):
[afbeelding]
Het hele punt is om gameperformance te meten, en als deze feature vaak aanstaat in games, en FM het iqverschil niet dermate verontrustend acht, ach waarom niet dan...Het hele punt van 3DMark2005 is dat ze ook identieke beelden tevoorschijn moeten kunnen toveren. Dat gebeurt hier niet wanneer DST is ingeschakeld.
Ook alleen maar dankzij een nieuwe driver die wel heel plots precies gister ten tonele verscheen. Ik wacht af....DST kan in 3DMark2005 gewoon worden uitgeschakeld en een aantal sites heeft al aangegeven dat ze dit dus ook uit zullen zetten in hun tests. De ruime voorsprong die ATi nu al heeft zal dus in apples-to-apples vergelijkingen nog groter worden.
[ Voor 5% gewijzigd door Sjah op 30-09-2004 11:16 ]
[ Voor 30% gewijzigd door Pubbert op 30-09-2004 12:09 ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
En wiens schuld is het dat de AF minder efficient is bij nVidia dan bij ATi? Is er een merkbaar IQ verschil?Sjah schreef op 30 september 2004 @ 11:10:
[...]
Het draait sommigen/velen er om dat nVidia bevoordeelt wordt. Dat Ati zich vwb AF erachter kan verschuilen dat nVidia het ook heeft, doet er niks aan af dat Ati daar vruchten plukt. nVidia plukt geen enkele vrucht van zijn efficiente AA.
Ja maar daar draait het niet om. Futuremark heeft aangegeven dat ze geen IHV specifieke functies zouden ondersteunen.Nvidia heeft veel meer hardwarematige functies aan boord die r420 niet biedt, je kan het ook omdraaien en zeggen dat Ati nog goed weg komt door dat alleen dit kleine dingetje is meegenomen in '05.
Als je het hebt over SM3 support... 3DMark2005 heeft SM3.0 support, maar net zoals dat ook in Far Cry gebeurd, wordt het alleen gebruikt om performance te winnen. En nog verliezen ze het van ATi.Hier wijs ik weer op het feit dat FM nVidia ook bepaald niet gematst heeft voor het feit dat ze nu al veel dingen hebben die Ati pas vanaf Mei(?) aan boord heeft.
SM3.0 support is overigens geen IHV specifieke functie. Het is een algemene DX9 functie. Dus is het niet vreemd dat dit ondersteund wordt, net zo min als het vreemd is dat ook SM2.0b ondersteund wordt. DST is geen DX9 specificatie. 3Dc is wel een WGF specificatie.
En nogmaals... Futuremark hamert er zelf op dat ze geen IHV specifieke functies zouden ondersteunen, maar het bij de DX specs zouden houden. Doen ze dat door DST te ondersteunen?
Net zoals er al zo lang wordt gewacht op een driver die dit probleem ook in Far Cry fixed? En hoeveel beta's zijn we inmiddels al wel niet verder sinds het probleem bekend is gemaakt in FC?ik vind het verschil nou niet zo groot, en wie weet komt nVidia wel met een statement dat dit in toekomstige drivers verholpen zal zijn. Wacht nou maar eerst op een eventuele reactie voor ze aan de hoogste boom te hangen.
En zelf zie ik dus het verschil tussen de hard edges van nVidia en soft edges heel erg goed. Je kan het gewoon niet missen in de schaduwen. Maar het kan aan mij liggen dat ik ze goed zie...
Het is de gewoonte om te gaan miereneuken en met difference-images te werken bij bijvoorbeeld filtering... dus waarom hier ook niet even:

Ik blijf mezelf maar herhalen hier... geen IHV specifieke functies. Als ze DST ondersteunen, dan zouden ze ook 3Dc in de game moeten hebben gestopt... want als deze feature vaak aan gaat staan in games, en het IQ verschil is er niet, ach waarom ook niet dan...Het hele punt is om gameperformance te meten, en als deze feature vaak aanstaat in games, en FM het iqverschil niet dermate verontrustend acht, ach waarom niet dan...
Helaas is het IQ verschil bij DST er nu wel.
Net zoals nVidia op het laatste moment de 66.29 de deur uit pushte? Zowel de ATi 8.07 drivers als de nV 66.29 zijn de dag voor het verschijnen van 3DMark2005 door FM goed gekeurd. En als je de diverse sites/fora een beetje goed gelezen had, dan had je geweten dat de PCI Express X800XT PE kaarten altijd al rond de 5800 punten scoorden met oudere drivers.Ook alleen maar dankzij een nieuwe driver die wel heel plots precies gister ten tonele verscheen. Ik wacht af....
De reden die ATi aanvoerde over het fixen van een memory bug (waardoor niet de hele 256MB goed gebruikt werd) is dus wel heel erg plausibel. En het is helemaal niet vreemd dat ze op het laatste moment een driver releasen die dit fixed, vooral wanneer er een benchmark uit komt die een heel vertekend beeld kan geven over de werkelijke performance. Tel daarbij op dat volgens bepaalde sites de 8.07 drivers de IQ verbeterden over de 8.051 en d'r valt weinig meer te zeuren.
Ik hoop voor nV dat ze het kunnen fixen. Van een benchmark mag je verwachten dat het naast gameperformancevergelijking ook gelijke IQ toont.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
UT2004 (20-20% sneller) Doom3 weer een paar fps sneller tov de Humus fixThund3r schreef op 30 september 2004 @ 12:03:
Is er nog een verdere vooruitgang met de 807 driver? UT2004 en Doom3 zouden ook sneller lopen?
Doom3 speelt nu sneller op m'n XT
Niet op voorraad.
Anoniem: 38733
De performance van de 6800GT in 3DMark05 met alle shaderversie's:CJ schreef op 30 september 2004 @ 12:14:
Als je het hebt over SM3 support... 3DMark2005 heeft SM3.0 support, maar net zoals dat ook in Far Cry gebeurd, wordt het alleen gebruikt om performance te winnen. En nog verliezen ze het van ATi.

Bron: beyond3d.com
[ Voor 24% gewijzigd door Anoniem: 38733 op 30-09-2004 12:21 ]
Anoniem: 38733
Futuremark's approved drivers voor 3DMark05:Sjah schreef op 30 september 2004 @ 11:10:
Ook alleen maar dankzij een nieuwe driver die wel heel plots precies gister ten tonele verscheen. Ik wacht af....
http://www.futuremark.com/community/drivers/?approved
Dat is Ati's schuld want zij verdommen het om hun betere algorithmes aan nVidia te geven.CJ schreef op 30 september 2004 @ 12:14:
[...]
En wiens schuld is het dat de AF minder efficient is bij nVidia dan bij ATi? Is er een merkbaar IQ verschil?
Misschien heeft Ati FM wel ingefluisterd dat zij er ook mee komen.En Ati zat ook in de FM-board, ze zijn erbij geweest toen dit beslist werd.Ja maar daar draait het niet om. Futuremark heeft aangegeven dat ze geen IHV specifieke functies zouden ondersteunen.
Als je naar die grafiek hierboven van B3D kijkt wint nVidia er niks op vergelekenmet 2.0b, dus het is mij duidelijk dat het voordeel wat SM3 kan hebben niet in '05 naar voren komt.Als je het hebt over SM3 support... 3DMark2005 heeft SM3.0 support, maar net zoals dat ook in Far Cry gebeurd, wordt het alleen gebruikt om performance te winnen. En nog verliezen ze het van ATi.
Dat hoop ik met je mee.Ik hoop voor nV dat ze het kunnen fixen. Van een benchmark mag je verwachten dat het naast gameperformancevergelijking ook gelijke IQ toont.
Dit topic is gesloten.