Het grote GeForce FX topic (Deel 4)

Pagina: 1 ... 8 ... 11 Laatste
Acties:
  • 2.098 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Verwijderd

Als ik dit zo lees kan ik beter een Radeon 9800 kopen dan een FX 5900 of heb ik dat mis? Want de 9800 is nog goedkoper over het algemeen (club 3d FX5900: 329 euro bij computerland, Sapphire radeon 9800: € 315,-)

Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Verwijderd schreef op 16 september 2003 @ 23:15:
Als ik dit zo lees kan ik beter een Radeon 9800 kopen dan een FX 5900 of heb ik dat mis? Want de 9800 is nog goedkoper over het algemeen (club 3d FX5900: 329 euro bij computerland, Sapphire radeon 9800: € 315,-)
Dat heb je heel goed gezien :Y) ;)
swampy schreef op 16 september 2003 @ 21:27:
[...]


Tja, maar ja...wie koopt er dan ook een FX5200 :-p

Je moet toch echt in de bieten salade geboren zijn om een FX5200 te durven kopen!
Ik heb een 5200... maar ja, wel de 128 bit's versie en die erg goed wil overclocken (kan het niet vaak genoeg zeggen >:) 250/400 @ 312/512 wat nog hoger kan zelfs

[ Voor 38% gewijzigd door Mojo op 16-09-2003 23:28 ]

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Holy sh*t, wat ik nou lees, de laatste patch van Tomraider AOD is na verzoek van NVidia van de Eidossite gehaald omdat deze, door oa b3d bij reviews, door de aanwezigheid van een benchmarkoptie, werd gebruikt. Dat de patch veel verbetreringen met zich mee bracht is niet bealngrijk voor NV.

Dit is echt erg.....

Niet op voorraad.


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

edward2 schreef op 17 September 2003 @ 00:56:
Holy sh*t, wat ik nou lees, de laatste patch van Tomraider AOD is na verzoek van NVidia van de Eidossite gehaald omdat deze, door oa b3d bij reviews, door de aanwezigheid van een benchmarkoptie, werd gebruikt. Dat de patch veel verbetreringen met zich mee bracht is niet bealngrijk voor NV.

Dit is echt erg.....
Ach ja...nvidia moet gewoon zwaar cheaten om nog op de markt te blijven.

...waar blijft die Nv40....waar ze WEL genoeg shaders op hebben gezet.

hell de FX werkt wel maar slechte keuzes hebben de performance niet hoog genoeg gekregen. De FX5950 Ultra waarschijnlijk bezit al iets betere performance....maar de performance doorbraak moet echt met de nv40 komen!

There is no place like ::1


  • Madrox
  • Registratie: Mei 2002
  • Laatst online: 23-08 22:42

Madrox

Oh, Pharaoh!

Snap werkelijk niet waarom dit topic zo "groot" moet zijn :+

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


Verwijderd

edward2 schreef op 17 September 2003 @ 00:56:
Holy sh*t, wat ik nou lees, de laatste patch van Tomraider AOD is na verzoek van NVidia van de Eidossite gehaald omdat deze, door oa b3d bij reviews, door de aanwezigheid van een benchmarkoptie, werd gebruikt. Dat de patch veel verbetreringen met zich mee bracht is niet bealngrijk voor NV.

Dit is echt erg.....
Moet je deze draad op Beyond3D eens zien.

http://www.beyond3d.com/forum/viewtopic.php?t=7942

Goeie genade wat is dit errug. Ik heb een Nforce 2 en een Ti 4200 in mijn computer maar ik begin nu echt al mijn respect voor Nvidia te verliezen.

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Tja, het begint nu inderdaad een beetje sneu voor woorden te worden.

Dit is wat er op Gamersdepot stond:

NVIDA's Money Lures EIDOS To Pull Patch Discuss
EIDOS Interactive, the publisher for Tomb Raider: Angel of Darkness issued a patch a couple of weeks ago for the game which happened to include a way to use the game as a DX9 benchmark. Since it shows NVIDIA hardware performing slower than ATI, EIDOS has pulled it down. Remember, this is a "Way it's meant to be played" game, which means NVIDIA has paid EIDOS marketing money. Keep in mind, that this patch improved performance on both ATI and NVIDIA hardware. Here's a bs statement from EIDOS Europe:
"It has come to the attention of Eidos that an unreleased patch for Tomb Raider: AOD has unfortunately been used as the basis for videocard benchmarking. While Eidos and Core appreciate the need for modern benchmarking software that utilizes the advanced shading capabilities of modern graphics hardware, Tomb Raider: AOD Patch 49 was never intended for public release and is not a basis for valid benchmarking comparisons. Core and Eidos believe that Tomb Raider: AOD performs exceptionally well on NVIDIA hardware." - Paul Baldwin, Eidos"
Ik wilde NV40 eerst nog een kans geven, maar ik begin nu toch werkelijk te twijfelen of ik ooit nog wel eens een nVidia kaart zou willen kopen. Dan heb ik liever een kaart die wat langzamer is en mooier beeld geeft van een fabrikant die zich niet verlaagd tot dit soort dingen, dan een kaart van een fabrikant die er alles aan doet om zijn kaart zo goed mogelijk uit de test te laten komen door niet zulke nette middelen.

Dit soort dingen zijn natuurlijk gewoon heel erg sneu. Een patch uit de lucht laten halen die performance op alle kaarten omhoog doet schieten, is gewoon broodroof. Mensen hebben betaald voor de game en willen natuurlijk dat het goed draait. Die hebben recht op zo'n patch. Dan hoor je dit soort dingen niet te doen. En alleen maar omdat nV kaarten ongunstig uit de ingebouwde benchmark komen.

"Core and Eidos believe that Tomb Raider: AOD performs exceptionally well on NVIDIA hardware." :/ Blijkbaar zet nVidia er wel grote druk achter.

Overigens begint dit nu wel heel erg op een nV bash-topic te lijken, maar in mijn ogen hebben ze het er zelf naar gemaakt door dit soort geintjes. Daar mag natuurlijk gewoon over gediscussieerd worden. En ik vrees dat het einde nog lang niet in zicht is. :| Gelukkig maken ze nog wel leuke moederborden. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • SG
  • Registratie: Januari 2001
  • Laatst online: 14-09 07:40

SG

SG surft naar info hardewaren

Nou ja als de nV40 wel ATI r420 duidelijk voorbij gaat dan is al die heisa vergeten en vergeven.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Intronic
  • Registratie: Juni 2002
  • Laatst online: 16-08 08:44
Nee, wie zegt dat ze dan niet gewoon doorgaan met wat ze nu doen?

  • xabre16v
  • Registratie: April 2003
  • Niet online
Nou gelukkig had ik die patch net optijd gedownload. :)

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

:) Het is maar wat je wild, wacht maar tot de FX5900 wel op volle toeren kan draaien :) Dan wordt het in eens heel stil hier gok ik. Als je een Ati koopt ipv een Nvidia is dat de zelfde overweging die je overweegt tussen een Intel & AMD, amd redelijk goeie basic preformance en lekker goedkoop & intel stuk duurder maar stabieler en waaravn je weet dat die gewoon een betere preformance levert. Dat zal je straks gaan zien, ik kon een half jaartje...

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Tja CJ, en dan te bedenken dat ze erg nauw hebben samen gewerkt met Revenerd van B3d op die patch, zodat er kon worden gebenched :o

Dat is dus echt onder druk van de nVidia centen terug getrokken !!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Fr0zenFlame schreef op 17 September 2003 @ 10:05:
:) Het is maar wat je wild, wacht maar tot de FX5900 wel op volle toeren kan draaien :) Dan wordt het in eens heel stil hier gok ik. Als je een Ati koopt ipv een Nvidia is dat de zelfde overweging die je overweegt tussen een Intel & AMD, amd redelijk goeie basic preformance en lekker goedkoop & intel stuk duurder maar stabieler en waaravn je weet dat die gewoon een betere preformance levert. Dat zal je straks gaan zien, ik kon een half jaartje...
Moeilijk he om te accepteren :+

  • xabre16v
  • Registratie: April 2003
  • Niet online
Jezus Falcon88 wat een onzin kraam jij uit. :{

In dat draadje op B3D denkt B3D erover om helemaal te stoppen met het reviewen van alle NVidia producten. Kan me voorstellen ook.

[ Voor 60% gewijzigd door xabre16v op 17-09-2003 10:29 ]


  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

quote: Laa-Yosh
I only hope that it will not get even worse - TWIMTBP games getting some 'optimizations' to suddenly make them run slower on ATI hardware...
quote: DaveBaumann
That type of thing has already happened. Have you heard of the problem with the water shader in Tiger Woods 2003? It works on NVIDIA's boards, but not any others. Evidently there is a device ID detect in there - if you change another shader enabled board to an NVIDIA device id it runs the NVIDIA shader, not only that but it runs it fine - change the device ID of an NVIDIA board to a non-NVIDIA board and it breaks. Ask EA who wrote that shader code.
zelfde draad.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Dit bedrijf is bezig zijn eigen graf te graven, zij kunnen zich dit soort gedrag helemaal niet verloorloven, en veel credits hebben ze niet meer....

Niet op voorraad.


  • boesOne
  • Registratie: April 2001
  • Laatst online: 14-09 10:21

boesOne

meuh

Fr0zenFlame schreef op 17 september 2003 @ 10:05:
:) Het is maar wat je wild, wacht maar tot de FX5900 wel op volle toeren kan draaien :) Dan wordt het in eens heel stil hier gok ik. Als je een Ati koopt ipv een Nvidia is dat de zelfde overweging die je overweegt tussen een Intel & AMD, amd redelijk goeie basic preformance en lekker goedkoop & intel stuk duurder maar stabieler en waaravn je weet dat die gewoon een betere preformance levert. Dat zal je straks gaan zien, ik kon een half jaartje...
Sorry hoor, maar als jij heel lang wil gaan wachten totdat de fx5900 op volle toeren draait, zou ik wel brood meenemen, want dat kan nog wel ff duren :)

Je vergelijking met intel & AMD is ook fraai. AMD ..basic performance.. 8)7
en intel 'waarvan je weet dat die betere performance levert' . enlighten us ..

Ik denk dat we de nV3x maar heel snel moeten vergeten.. en hopen dat de nV4x weer ouderwets is a la de nV2x serie..

I say we take off and nuke the entire site from orbit. It's the only way to be sure.


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Fr0zenFlame schreef op 17 september 2003 @ 10:05:
:) Het is maar wat je wild, wacht maar tot de FX5900 wel op volle toeren kan draaien :) Dan wordt het in eens heel stil hier gok ik.
*Proest* :D

Waarom denk je dat nVidia over een maandje al de NV38, oftewel de opvolger van FX5900, presenteert? Als er echt nog zo veel verborgen kracht in FX5900 zit, dan zou NV38 (FX5950 volgens de laatste geruchten) niet nodig zijn om ATi bij te kunnen benen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

-boesOne- schreef op 17 September 2003 @ 11:57:
[...]


Sorry hoor, maar als jij heel lang wil gaan wachten totdat de fx5900 op volle toeren draait, zou ik wel brood meenemen,
hahahah :Y)

Niet op voorraad.


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

CJ schreef op 17 September 2003 @ 12:01:
[...]


*Proest* :D

Waarom denk je dat nVidia over een maandje al de NV38, oftewel de opvolger van FX5900, presenteert? Als er echt nog zo veel verborgen kracht in FX5900 zit, dan zou NV38 (FX5950 volgens de laatste geruchten) niet nodig zijn om ATi bij te kunnen benen.
De FX5950 zou inderderdaad sneller en beter moeten zijn.....maar....zijn de problemen GRONDIG aangepakt!

Weet je dat de FX5900 oorspronkelijk was uitgebracht om "alle performance problemen op te lossen"

Wat nu het geval is dat voor elke DX9 game je moet wachten op nvidia om een "optimale" driver te maken....en je weet wat die doen....IQ zwaar omlaag brengen.

Misschien dat de FX5950 meer shaders bevat, maar echte structurele veranderingen zouden we pas moeten zin in de NV40.

Nvidia moet ( en heeft al eens ) gewoon toegeven dat ze fouten gemaakt hebben waardoor hun FX serie niet goed is. En die fouten ZITTEN IN DE HARDWARE. Geen enkele driver kan dat probleem oplossen.

Wat Nvidia moet doen is de Nv40 uitbrengen met 2 x zoveel shaders als ati's 9800 Pro kaartje. En bijbehorende veranderingen...tuurlijk is de shader van nvidia intelligenter en beter programeerbaar...maar als je te weinig shaders op je kaart zet ( nvidia heeft er 4, de DX9 standaard vraagt om 5 op zijn minst ). Dan moet je niet zeiken als de resultaten tegenvallen.

Nvidia has a long way to go before it's the best again!

En voor je me een ati fan gaat noemen...mij maakt het niet uit welk merk er op de doos staat...als het maar levert wat het zou moeten leveren. En op de FX doos stond DX9....en je krijgt geen DX9!

Gelukkig heb ik maar een GF 4 ti....de laatste...goede...stabiele...family van nvidia!

[ Voor 15% gewijzigd door swampy op 17-09-2003 13:03 ]

There is no place like ::1


  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Fr0zenFlame schreef op 17 September 2003 @ 10:05:
:) Het is maar wat je wild, wacht maar tot de FX5900 wel op volle toeren kan draaien :) Dan wordt het in eens heel stil hier gok ik.
Jezus Christus man, hoe oud is die fx-architectuur nu al wel niet?!? Denk je nou echt dat daar met drivers nog spectaculaire winst te halen valt? Ja, misschien als ze allerlei effecten niet renderen of alles in 16-bits doen :+ ...... Maar als het wel heel veel extra performance geeft wordt het hier echt niet stil hoor, dan staat iedereen te roepen dat ze toch zo'n geweldige kaart hebben gekocht en dat ze het altijd al wel geweten hebben..... :+

Erg jammer, ik was vroeger zo'n grote Nvidia-fan.... Ze hadden vroeger bijvoorbeeld met die chipset die op de Diamond Viper lag echt een klapper. Toen dacht ik nog: "kijk, zo moet het, een bedrijf dat voor een laag bedrag hoge prestaties levert.". En in mijn naïviteit ik ATI maar afkraken om hun cheats destijds.
Nou ben ik er zo langzamerhand wel van overtuigd dat elk groot bedrijf moeite zal doen via slinkse trucjes om de waarheid iets mooier te brengen dan ie is (Nvidia en ATI maken/maakten zich hier allebei schuldig aan), maar als Nvidia gaat proberen om benchmarks tegen te houden oid, moeten ze wel beseffen dat ze wel heel veel aan geloofwaardigheid inleveren....

Pfff, zo dat is er weer uit!

@ Swampy:
Gelukkig heb ik maar een GF 4 ti....de laatste...goede...stabiele...family van nvidia!
Ik ook! Fijn he! Maar waarschijnlijk voorlopig ook de laatste die ik ga kopen.

[ Voor 8% gewijzigd door Naluh! op 17-09-2003 13:08 ]

Specs


  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

http://www.anandtech.com/#20525 Zelfs Anand meld het nieuws ;)

  • Dracul
  • Registratie: Juni 2000
  • Laatst online: 29-07 14:24

Dracul

Ooh yeah!

Quote van http://www.warp2search.com/ :

One more to add to the list then.
So lets see, the poor performance of the NV3X is now the fault of the following:
ATI
Microsoft
Futuremark
Shadermark
Valve
Lara Croft
The Tooth Fairy
Sadam Hussain
and Einstien (his laws are so inconvienient arent they?!)
but not Nvidia, oh no not nvidia !!! LOL

The best thing nvidia can do is shut up and get on with repairing the damage done to them by this horrible product and the PR dept, by making the NV40 the product it needs to be.

Verwijderd

Nouw das lekker duz... zit ik met n gf fx 5200 met 64 bit... had er toen tog 90 euro voor betaald... n vriend van me had n Point of View Geforce 4 mx440 gekocht voor 35 euro en die presteerd veel bter... voel me tog wel genaaid... weet iemand mischien wat ik eraan ken doen om me prestaties tog wat op te krikke??? alvast bedankt. ( Heb btw al een coolermaster fan op die videokaart gezet want dr zat nog nix op).

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Verwijderd schreef op 17 September 2003 @ 17:25:
Nouw das lekker duz... zit ik met n gf fx 5200 met 64 bit... had er toen tog 90 euro voor betaald... n vriend van me had n Point of View Geforce 4 mx440 gekocht voor 35 euro en die presteerd veel bter... voel me tog wel genaaid... weet iemand mischien wat ik eraan ken doen om me prestaties tog wat op te krikke??? alvast bedankt. ( Heb btw al een coolermaster fan op die videokaart gezet want dr zat nog nix op).
Een idioot vinden die de FX5200 van je overkoopt en zelf een GF4 MX460 halen :-)

Hell zolang je het op marktplaats.nl verkoopt hoef je er toch niet bij te zeggen dat hij maar 64 bits is.....grinzz

[ Voor 9% gewijzigd door swampy op 17-09-2003 17:28 ]

There is no place like ::1


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Verwijderd schreef op 17 September 2003 @ 17:25:
Nouw das lekker duz... zit ik met n gf fx 5200 met 64 bit... had er toen tog 90 euro voor betaald... n vriend van me had n Point of View Geforce 4 mx440 gekocht voor 35 euro en die presteerd veel bter... voel me tog wel genaaid... weet iemand mischien wat ik eraan ken doen om me prestaties tog wat op te krikke??? alvast bedankt. ( Heb btw al een coolermaster fan op die videokaart gezet want dr zat nog nix op).
Hmm heb ik toch geluk gehad.... Je ziet veel mensen met een 64 bit geval. Mijn Point Of View op een beurs gekocht door een vriend (was er zelf niet bij beetje via telefoon overleggen) en blijkt gelukkig dat het een 128 bits was (waar je dan veel later achter komt)

[ Voor 3% gewijzigd door Mojo op 17-09-2003 19:19 ]

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Voor de nVidia fans is er ook goed nieuws: als ze de CineFX engine aanpassen zodat de NV4x gelijkwaardig presteert aan een 9800 bij 'gewone' DX9/OGL2 code, dan is hij *veel* sneller als het codepad geoptimaliseerd wordt.

Dus als ATi het rustig aan doet en nVidia levert een goed stukje werk af, dan kunnen jullie straks juichen.

En hoe meer concurrenten hoe beter, want je ziet wel wat er gebeurd als een bedrijf een monopoliepositie denkt te hebben.

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
DiGuru schreef op 17 september 2003 @ 18:08:

En hoe meer concurrenten hoe beter, want je ziet wel wat er gebeurd als een bedrijf een monopoliepositie denkt te hebben.
Zo is dat, dus voor alle die-hard nvidia fans: je moet maar zo denken, als ATI het hartstikke goed doet en de markt totaal beheerst worden jullie geliefde FX-kaarten vanzelf ook een stuk goedkoper ;) .

Maar even zonder gekheid, concurrentie is leuk voor de consument, die heeft dan wat te kiezen, en als goede consument hecht ik veel waarde aan prijs/prestatie-verhouding, en daarom kies ik voorlopig niet voor een (nieuwe) kaart van Nvidia.

Specs


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

DiGuru schreef op 17 September 2003 @ 18:08:
Voor de nVidia fans is er ook goed nieuws: als ze de CineFX engine aanpassen zodat de NV4x gelijkwaardig presteert aan een 9800 bij 'gewone' DX9/OGL2 code, dan is hij *veel* sneller als het codepad geoptimaliseerd wordt.

Dus als ATi het rustig aan doet en nVidia levert een goed stukje werk af, dan kunnen jullie straks juichen.

En hoe meer concurrenten hoe beter, want je ziet wel wat er gebeurd als een bedrijf een monopoliepositie denkt te hebben.
Yep de shaders werken wel en goed genoeg...maar het zijn er niet genoeg en de opzet is daarom niet optimaal!

En daar is iets waar nvidia iets mee kan...als ze meer shaders op de kaart zetten...en het een beetje optimaliseren...dan moet die met gemak over de ATI heen presteren!

There is no place like ::1


  • boesOne
  • Registratie: April 2001
  • Laatst online: 14-09 10:21

boesOne

meuh

swampy schreef op 17 September 2003 @ 19:06:

Yep de shaders werken wel en goed genoeg...maar het zijn er niet genoeg en de opzet is daarom niet optimaal!

En daar is iets waar nvidia iets mee kan...als ze meer shaders op de kaart zetten...en het een beetje optimaliseren...dan moet die met gemak over de ATI heen presteren!
Psies. en precies daarom is de nV3x een mislukking op DX9 gebied.
Nifty core, maar gewoon niet bruut genoeg.

DX9 games maken zeer intensief gebruik van de pixelshaders [daar zijn aardige effecten mee te bereiken].. het enige wat nV moet doen is de 3x serie ditchen en zorgen dat de 4x genoeg shaders heeft..

Nu duurt het best lang voor een core af is. Er zullen dus nogal wat designbeslissingen zijn genomen die je niet 123 weer terugdraait.. ben benieuwd..

I say we take off and nuke the entire site from orbit. It's the only way to be sure.


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

-boesOne- schreef op 17 September 2003 @ 19:14:
[...]


Psies. en precies daarom is de nV3x een mislukking op DX9 gebied.
Nifty core, maar gewoon niet bruut genoeg.

DX9 games maken zeer intensief gebruik van de pixelshaders [daar zijn aardige effecten mee te bereiken].. het enige wat nV moet doen is de 3x serie ditchen en zorgen dat de 4x genoeg shaders heeft..

Nu duurt het best lang voor een core af is. Er zullen dus nogal wat designbeslissingen zijn genomen die je niet 123 weer terugdraait.. ben benieuwd..
In rauwe kracht OWNED nvidia gewoon over Ati, maar ja...met gehandicapte shaders kom je niet echt ver. Zelf de FX5200 zou best nog aardig presteren als het goede shaders zou hebben.

Tja, maar ja..nvidia zou in de nv40 met 2x8 shaders gaan werken...laten we dat maar hopen. En natuurlijk dat zij DX9 ietsje netter gaat ondersteunen.

En voor iedereen met een FX...tja...jammer he....

There is no place like ::1


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Toch ook best interessante point of view in dit artikel:

http://www.theinquirer.net/?article=11552

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

swampy schreef op 17 september 2003 @ 19:22:

En voor iedereen met een FX...tja...jammer he....
Nou ik heb een Asus FX5900 Ultra en ik ben zeer tevreden over deze kaart.
Dus niet iedereen is er niet blij mee.
Alles werkt goed en snel en de volgende kaart wordt gewoon weer van nVidia.

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Verwijderd

danplo schreef op 17 september 2003 @ 21:44:
[...]


Nou ik heb een Asus FX5900 Ultra en ik ben zeer tevreden over deze kaart.
Dus niet iedereen is er niet blij mee.
Alles werkt goed en snel en de volgende kaart wordt gewoon weer van nVidia.
Welke DX9-games heb je al gespeeld?

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Solitaire, Minesweeper en Reversi at 1000 fps met 8xAA en 8xAF? ;)

Grapje. :) Het maakt ook helemaal niet uit toch? Als je zelf maar tevreden bent over de kaart, dat is het belangrijkste.

Uit het feit dat ATi op dit moment 97% van de hi-end markt (kaarten duurder dan €300,-) beheerst, kan je veel afleiden. En als je de forums leest van NV-minded sites als www.nvnews.net dan weet je dat zelfs de veel die-hard nV-fans hun respect verloren hebben voor nV.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Verwijderd schreef op 17 september 2003 @ 22:07:
[...]


Welke DX9-games heb je al gespeeld?
Wel ik sluit mij bij Danplo aan, ook tevreden fx5900ultra bezitter. Nog geen seconde spijt van. En ik heb Gunmetal gespeeld , 3Dmark2003 , en nu recentelijk die aquamark zien draaien hier , nergens problemen mee en tot hiertoe wat deze 3 betreft nog geen major achterstand gezien tegenover een ato 9800pro in een gelijkaardig systeem als het mijne. Dus nog heel tevreden klant. Hoewel ik moet toegeven dat ik wat depressief word van alle negatieve commotie rondom die fx in HL2,dx9,enz, heb ik toch nog steeds veel vertrouwen in het driverteam van nvidia.

Voorlopig met detonator 45.33 ( beta dus ) geen problemen in games, prima prestaties en geen image quality problemen. Behalve natuurlijk de trill filtering in UT2003 die je dan maar oplost door een hogere AF :*)

Mijn Specs


  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Verwijderd schreef op 17 September 2003 @ 22:07:
[...]


Welke DX9-games heb je al gespeeld?
Ik denk géén, zoals de meeste mensen 8)

Toch lijkt al het andere er opeens niet meer toe te doen. Iedereen heeft het alleen nog maar over pixel shader 2.0. Wel vermakelijk. Is er iemand die denkt dat er binnenkort ook maar één spel uit gaat komen wat niet op zijn minst fatsoenlijk zal draaien op Nvidia kaarten?

Yeah well. The Dude abides.


  • Kr3Kr
  • Registratie: Maart 2002
  • Laatst online: 13-09 17:19

Kr3Kr

Melpomene

welke raden jullie me aan

Asus VGA ASUS 128Mb V9520 Home Theater
of
Asus VGA ASUS 256Mb V9560/TD

ze hebben bijna dezelfde prijs

Gregor van Egdom Krekr


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Biff schreef op 17 September 2003 @ 22:50:
[...]

Is er iemand die denkt dat er binnenkort ook maar één spel uit gaat komen wat niet op zijn minst fatsoenlijk zal draaien op Nvidia kaarten?
Elk nieuw spel zal wel fatsoenlijk willen draaien op een nVidia kaart. Alleen zal je misschien af en toe alles op medium detail moeten zetten (of zelfs lager op de FX5200/5600), op DX8.1/DX8.0 mode moeten draaien of hackdrivers moeten gebruiken die op een lagere precisie werken.

Als je appels met appels wilt vergelijken en dus alles op hi-quality zet op ATi en nV kaarten, dan krijgt de FX5900 het in ieder geval moeilijk in: HL2, Far Cry en Halo. Allemaal DX9 titels, en zeker niet de kleinste titels.

Het gerucht gaat trouwens dat ATi ook een setting zal maken die identiek is aan de lower precision drivers van nVidia. nV zou dan een koekje van eigen deeg krijgen. Dus de user zal dan kunnen kiezen voor extra performance doordat alles op een lagere precisie wordt berekend. De snelheidswinst zal op ATi kaarten dan enorm zijn. Maar goed, da's allemaal maar een gerucht.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

danplo schreef op 17 September 2003 @ 21:44:
[...]


Nou ik heb een Asus FX5900 Ultra en ik ben zeer tevreden over deze kaart.
Dus niet iedereen is er niet blij mee.
Alles werkt goed en snel en de volgende kaart wordt gewoon weer van nVidia.
Ach de volgende kaart die je zou kopen zou toch al in de Nv4x of de Nv5x serie liggen, dan hebben ze hun fouten wel goed gemaakt!

Ach het is gewoon jammer dat de DX9 prestaties van de FX serie...ondermaats is. Tja....dat is een klein probleempje...

[ Voor 13% gewijzigd door swampy op 17-09-2003 23:45 ]

There is no place like ::1


  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

swampy schreef op 17 September 2003 @ 23:43:
[...]


Ach de volgende kaart die je zou kopen zou toch al in de Nv4x of de Nv5x serie liggen, dan hebben ze hun fouten wel goed gemaakt!

Ach het is gewoon jammer dat de DX9 prestaties van de FX serie...ondermaats is. Tja....dat is een klein probleempje...
Ja precies.
En ik maak me niet druk, want ik koop toch elk jaar een nieuwe nVidia kaart.
Deze draaid nu gewoon lekker en zal op de HL2 en Doom 3 en Vele andere spellen gewoon goed draaien.
En ik ga er ook gewoon vanuit dat ik alles op hoogste setting kan zetten.
Ben nu alweer aan het uitkijken naar de nieuwe andere kaartjes.
Ja ik weet het ik ben nVidia verslaafd.

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

danplo schreef op 18 September 2003 @ 00:09:
[...]


Ja precies.
En ik maak me niet druk, want ik koop toch elk jaar een nieuwe nVidia kaart.
Deze draaid nu gewoon lekker en zal op de HL2 en Doom 3 en Vele andere spellen gewoon goed draaien.
En ik ga er ook gewoon vanuit dat ik alles op hoogste setting kan zetten.
Ben nu alweer aan het uitkijken naar de nieuwe andere kaartjes.
Ja ik weet het ik ben nVidia verslaafd.
Als je effe wacht dan kan je de vruchten van de Nv40 serie bekijken :-)

There is no place like ::1


  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Ik Heb mijn FX5900 Ultra pas 2 weekie ofzo, ondanks alles tegenvallers van ijn voorgangers FX5200 ^5600 lijkt mij dit gewoonweg de beste kaart, oke op DX9 presteerd ie lager vanwege die shaders maar het is gewoon een next generation kaart die nu nog op halve toeren draaid, natuurlijk zal de N4 no veel beter zijn maargoed over ongeveer een half jaar heb je ook een intel prescott en dan weer een andere, en zo blijf je maar door gaan..

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Verwijderd

Ik ben opzoek naar een nieuwe video kaart en zit ernstig te denken aan de Gainward GF FX5800 en die wil ik aanschaffen bij Gistron.

Nu wil ik mijn kaart hoofdzakelijk gaan gebruiken voor FS2002/2004 en misschien dat er mensen zijn met ervaringen met deze combinatie (spel met videokaart)? Ook gebruik ik hem met Falcon 4, maar eigenlijk ook wel (maar minder) voor Vietcong, Americas Army etc.

Adviezen over de kaart zijn welkom :)

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Verwijderd schreef op 18 September 2003 @ 10:29:
Ik ben opzoek naar een nieuwe video kaart en zit ernstig te denken aan de Gainward GF FX5800 en die wil ik aanschaffen bij Gistron.

Nu wil ik mijn kaart hoofdzakelijk gaan gebruiken voor FS2002/2004 en misschien dat er mensen zijn met ervaringen met deze combinatie (spel met videokaart)? Ook gebruik ik hem met Falcon 4, maar eigenlijk ook wel (maar minder) voor Vietcong, Americas Army etc.

Adviezen over de kaart zijn welkom :)
Je moet afgaan op wat je zelf wil en ene menning vormen op basis van feiten en benchmarks die er zijn. Dat hier wordt gezecht dat de ati beter presteert is gebaseerd op het fet dat de ati gewoon 100% goed met DX9 overweg kan, de FX is echter een next gen video kaart die nu min of meer backwards comaptible is met DX9 (draaid gewoon op mindere modus) en dus is die dan net iets minder als de Ati, maar als je naar de feiten kijkt dan is de FX5900 simpel we gewoon een betere kaar, waarvan de shaders niet zijn sterkste punt is, daar kan Nvidia dan ook weer van leren van Ati, maar das dan ook alles...

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Verwijderd schreef op 18 September 2003 @ 10:29:
Ik ben opzoek naar een nieuwe video kaart en zit ernstig te denken aan de Gainward GF FX5800 en die wil ik aanschaffen bij Gistron.

Nu wil ik mijn kaart hoofdzakelijk gaan gebruiken voor FS2002/2004 en misschien dat er mensen zijn met ervaringen met deze combinatie (spel met videokaart)? Ook gebruik ik hem met Falcon 4, maar eigenlijk ook wel (maar minder) voor Vietcong, Americas Army etc.

Adviezen over de kaart zijn welkom :)
Serieus een FX 5800 ? Koop je er wel oordoppen bij ;)
Flight Sim vraagt om FSAA, en de FSAA van de Radeon is beter dan die van de FX.
Dus, een Radeon 9800.

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Fr0zenFlame schreef op 18 september 2003 @ 10:49:
[...]


maar als je naar de feiten kijkt dan is de FX5900 simpel we gewoon een betere kaar
Welke feiten?
Voor mij telt nog steeds het zwaarst, dat ik al meerdere keren heb gehoord van mensen welke beide kaarten hebben getest, dat de FX 5900 misschien wat hogere pieken heeft qua FPS, maar ook diepere dalen. De Radeon is veel constanter en dat is erg belangrijk voor spel-plezier.
de FX is echter een next gen video kaart die nu min of meer backwards comaptible is met DX9
Dus de FX 5900 is een DX10 kaart?
Je kan beter zeggen dat de FX serie een DX 8.1 kaart is welke een beetje met DX9 overweg kan ;)

[ Voor 21% gewijzigd door hjs op 18-09-2003 11:01 ]


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

HJs, ga nou eens aan je werk ;)

Niet op voorraad.


  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Dus de FX 5900 is een DX10 kaart?
Je kan beter zeggen dat de FX serie een DX 8.1 kaart is welke een beetje met DX9 overweg kan
Dat zeg ik niet. Ik weet niet wat DX10 gaat worden, maar het staat wel fast dat DX9 niet de video kaart op Full Preformance kan onder steunen. En dan kan je zeggen dta nVidia deze compatible had moeten maken met DX9, maar ook andersom ;) Hier staat de kracht van de kaart natuurlijk los van.

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Fr0zenFlame schreef op 18 September 2003 @ 12:10:
[...]


Dat zeg ik niet. Ik weet niet wat DX10 gaat worden, maar het staat wel fast dat DX9 niet de video kaart op Full Preformance kan onder steunen.
Sorry hoor, maar dat is toch wel de grootste onzin die ik tot nu toe gehoord heb. :/

Er is een standaard gedefinieerd die al jaren lang gebruikt wordt. Dat is DirectX. Jaren lang maakt nVidia kaarten volgens die specificaties, maar ook andere fabrikanten zoals ATi, SiS, Matrox, S3, etc maakten kaarten die deze DX specs ondersteunen.

Dus wie ondersteunt wie nou? De FX hoort DX9 volledig te ondersteunen. En dat doet-ie niet. Ten eerste mist-ie daarvoor een aantal kernfuncties van DX9 zoals Multiple Render Targets. Ten tweede is de GPU, ondanks z'n 'vooruitstrevende' design, gewoonweg te zwak om DX9 op volle kracht te kunnen aanschouwen. Zelfs op volle kracht is de FX te langzaam wanneer het aankomt op DX9.

De videokaart hoort de standaard te ondersteunen en niet omgekeerd.

Als we straks de Volari kaarten en Deltachrome kaarten hebben van XGI en Via/S3, dan hebben we 4 hi end kaarten, waarvan 3 perfect de specs van DX9 volgen. En die ene? Tja...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Dus wie ondersteunt wie nou? De FX hoort DX9 volledig te ondersteunen. En dat doet-ie niet. Ten eerste mist-ie daarvoor een aantal kernfuncties van DX9 zoals Multiple Render Targets. Ten tweede is de GPU, ondanks z'n 'vooruitstrevende' design, gewoonweg te zwak om DX9 op volle kracht te kunnen aanschouwen. Zelfs op volle kracht is de FX te langzaam wanneer het aankomt op DX9.
Ik zou wel is willen weten waar je die onzin vandaan haald, geef mij is een bron waaruit blijkt dat de hardware config te zwak zou zijn?

[ Voor 3% gewijzigd door Fr0zenFlame op 18-09-2003 12:42 ]

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Bron? Kijk eens op Beyond3D of op NVnews.net. En hoe vaak is het al niet gezegd dat de FX te weinig pixelshader engines heeft om huidige DX9 games op volle glorie te kunnen spelen? Hoe vaak is er al niet vermeld dat de FX-serie functies mist die wel een belangrijk onderdeel zijn van DX? Dat is allemaal hardware matig.

Vergelijk HL2 maar eens op een FX en op een Radeon op volle precisie met alle DX9 toeters en bellen aan. Wie wint met dubbel zo veel framerates? En waardoor komt het? Het komt niet door HL2, want die is gemaakt met HLSL zodat-ie DX9 volledig ondersteunt. 1 keer raden waar het aan ligt... tip: het ligt niet aan de drivers, want de drivers proberen op dit moment de schade te beperken door de precisie omlaag te gooien.

Nogmaals: lees het forum van Beyond3D er eens op na. Daar steek je veel van op.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • DarkShadow
  • Registratie: Juli 2000
  • Laatst online: 21:42
hier een meeltje dat bonusweb meelde naar john carmack met de vraag of het in doom III ook zo zit als in halflife 2:
Hi John,

No doubt you heard about GeForce FX fiasco in Half-Life 2. In your opinion, are these results representative for future DX9 games (including Doom III) or is it just a special case of HL2 code preferring ATI features, as NVIDIA suggests?


Unfortunately, it will probably be representative of most DX9 games. Doom has a custom back end that uses the lower precisions on the GF-FX, but when you run it with standard fragment programs just like ATI, it is a lot slower. The precision doesn't really matter to Doom, but that won't be a reasonable option in future games designed around DX9 level hardware as a minimum spec.

John Carmack
Dat ziet er dus zeker niet zo heel goed uit voor nvidia, ik snap trouwens niet wat er hier soms gezeurt wordt dat de geforce 5900fx de beste kaart is, alleen niet voor directx 9, dat is dan erg jammer, want alle grote nieuwe games gaan die shaders gebruiken (stalker, far cry als ik me niet vergis), dat is toch de toekomst.
En dat directx 9 de fx serie niet goed ondersteund is helemaal de grootste onzin die ik heb gehoor,d het hoort toch echt andersom te zijn hoor, directx is de standaard en niet nvidia, ze moeten gewoon niet zo dom arrogant gaan doen...

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

hjs schreef op 18 september 2003 @ 10:51:
[...]


Serieus een FX 5800 ? Koop je er wel oordoppen bij ;)
Flight Sim vraagt om FSAA, en de FSAA van de Radeon is beter dan die van de FX.
Dus, een Radeon 9800.
Zo eenvoudig is het niet. Die 5800s zijn voor een prikkie te koop. En de bottleneck is bij FlightSim altijd de CPU. Je kunt dus rustig een mooie AA mode zoals 4xS pakken, die er héél goed uitziet. Verder is de anisotropische filtering van Nvidia altijd duidelijk fraaier dan die van ATI.

Maar da's niet het ergste. Ik had zelf ook in eerste instantie een 9800 Pro gekocht voor Flight Sim. Stellige beweringen dat ATI zijn drivers nu op orde zou hebben ten spijt was het weer precies hetzelfde verhaaltje als met m'n 8500 - duidelijke problemen, en vooral óók in Flight Sim. Zo knipperen de menus en beelden op m'n 2e monitor. Helemaal triest is dat de ATI niet één view breed over 2 VGA-uitgangen kan spreiden. Dat maakte hem wat mij betreft compleet nutteloos voor Flight Sim.

Yeah well. The Dude abides.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

swampy schreef op 17 September 2003 @ 19:22:
[...]


In rauwe kracht OWNED nvidia gewoon over Ati,
Dat is ook niet altijd zo, meestal niet zelfs.

Alleen in multitexturering met 2 texturelayers is nVdia sneller 4x2 versus 8x1.

In ruwe shader performance is de R9800 véél sneller en dàt is de toekomst, niet alleen maar fillrate en (fysieke)bandbreedte.

Niet op voorraad.


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

edward2 schreef op 18 september 2003 @ 13:44:
[...]


Dat is ook niet altijd zo, meestal niet zelfs.

Alleen in multitexturering met 2 texturelayers is nVdia sneller 4x2 versus 8x1.

In ruwe shader performance is de R9800 véél sneller en dàt is de toekomst, niet alleen maar fillrate en (fysieke)bandbreedte.
Tja, pas vanaf de nv40 weten we zeker of nvidia goed prestaties wil gaan leveren in gewone DX9 ofdat ze stug doorgaan met hun Cg!

En ja, de FX gpu mag op sommige punten wel veranderen......

There is no place like ::1


  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

DarkShadow schreef op 18 September 2003 @ 13:23:
hier een meeltje dat bonusweb meelde naar john carmack met de vraag of het in doom III ook zo zit als in halflife 2:


[...]


Dat ziet er dus zeker niet zo heel goed uit voor nvidia, ik snap trouwens niet wat er hier soms gezeurt wordt dat de geforce 5900fx de beste kaart is, alleen niet voor directx 9, dat is dan erg jammer, want alle grote nieuwe games gaan die shaders gebruiken (stalker, far cry als ik me niet vergis), dat is toch de toekomst.
En dat directx 9 de fx serie niet goed ondersteund is helemaal de grootste onzin die ik heb gehoor,d het hoort toch echt andersom te zijn hoor, directx is de standaard en niet nvidia, ze moeten gewoon niet zo dom arrogant gaan doen...
Het is andersom hoor, DirectX standaarden komen tot stand na het bekijken wat de ontwerpen van de fabrikanten kunnen. Daar wordt dan een laagste gemene deler uit getrokken. ATI doet minder, maar wat ze doen doen ze sneller. En vooral ATI heeft dus invloed gehad op DX9 - zo is de oorspronkelijk vereiste 32-bit precisie verlaagd naar 24-bit omdat hun design geen 32 aankon. Dat past dus prima in hun straatje - Nvidia zit er of boven of onder qua precisie. Er is echter niemand die er aan twijfelt dat 32-bit in de toekomst nodig is. De pixel shaders en vertex shaders van Nvidia zijn geavanceerder in ontwerp - maar ook dat is voor wat uiteindelijk DX9 genoemd is verspilde moeite gebleken.

Yeah well. The Dude abides.


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
DarkShadow schreef op 18 september 2003 @ 13:23:
hier een meeltje dat bonusweb meelde naar john carmack met de vraag of het in doom III ook zo zit als in halflife 2:


[...]

want alle grote nieuwe games gaan die shaders gebruiken (stalker, far cry als ik me niet vergis), dat is toch de toekomst.
Klopt. Alleen moet je bij Stalker niet vreemd gaan opkijken als het sneller draait op een FX. Stalker is namelijk zo'n beetje door nVidia zelf geschreven. Lees dit maar eens:

http://www.rage3d.com/boa...b1e1ba1&threadid=33711306
Then i saw another post where the STALKER developer is actually claiming that their PS2.0 shaders are Faster on Nvidia hardware.. STALKER is basically being hand coded by NVidia themselves. The developer has made much mention of how Hard Nvidia has been working with them on it.

There is Virtually only ONE way that the Shader code could be faster on Nvidia hardware. Nvidia Hand coded shaders in such a way they INTENTIONALY Knew would be slow on ATi hardware.. then NO EFFORT was given to have an Equal time given to an Ati path.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • boesOne
  • Registratie: April 2001
  • Laatst online: 14-09 10:21

boesOne

meuh

Biff schreef op 18 September 2003 @ 13:52:
[...]


Het is andersom hoor, DirectX standaarden komen tot stand na het bekijken wat de ontwerpen van de fabrikanten kunnen. Daar wordt dan een laagste gemene deler uit getrokken. ATI doet minder, maar wat ze doen doen ze sneller. En vooral ATI heeft dus invloed gehad op DX9 - zo is de oorspronkelijk vereiste 32-bit precisie verlaagd naar 24-bit omdat hun design geen 32 aankon. Dat past dus prima in hun straatje - Nvidia zit er of boven of onder qua precisie. Er is echter niemand die er aan twijfelt dat 32-bit in de toekomst nodig is. De pixel shaders en vertex shaders van Nvidia zijn geavanceerder in ontwerp - maar ook dat is voor wat uiteindelijk DX9 genoemd is verspilde moeite gebleken.
Ze zijn geavanceerder, dat wel, maar ze zijn gewoon niet krachtig genoeg. Vraag is of je wel wat hebt aan geavanceerde shaders die geen zwaar werk kunnen verrichten.
Want dingen als per pixel lighting zoals in D3 vragen nogal wat power van de shaders.

I say we take off and nuke the entire site from orbit. It's the only way to be sure.


  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

CJ schreef op 18 September 2003 @ 14:00:
[...]


Klopt. Alleen moet je bij Stalker niet vreemd gaan opkijken als het sneller draait op een FX. Stalker is namelijk zo'n beetje door nVidia zelf geschreven. Lees dit maar eens:
Precies.
En dit is ook weer andersom gebeurd met HL2.
Deze is in mijn ogen gewoon beter gemaakt voor ATI.
Dit omdat ze er veel meer geld voor hebben ingestoken.

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

Geen enkel bedrijf zal zijn software optimaliseren voor een product zodra dat product 1 van de martkspelers is. Daarmee schiet een softwarebedrijf in zijn eigen voet want een (groot) deel van de markt kan dat dan niet spelen.
Valve verdient er echt meer aan dan Ati kan lappen.

  • skullsplitter
  • Registratie: Juni 2001
  • Laatst online: 27-08 20:50

skullsplitter

Eat brain, high fibre!

Vraagje: waar kan ik leuke techdemo's van Nvidea's FX werk vinden (die ook op een ATi draaien zodat ik thuis lekker kan vergelijken)

www.avpnews.com


Verwijderd

danplo schreef op 18 september 2003 @ 14:16:
[...]


Precies.
En dit is ook weer andersom gebeurd met HL2.
Deze is in mijn ogen gewoon beter gemaakt voor ATI.
Dit omdat ze er veel meer geld voor hebben ingestoken.
Sorry hoor, maar als je het nieuws van de afgelopen paar dagen hebt gevolgd dan weet je dat dit dus echt niet het geval is. Volgens Gabe Newell, de oprichter van Valve software, gebruikt HL2 zo'n beetje de standaard DirectX9 instructie set waar het betreft recente ATI grafiche kaarten. Voor Nvidia produkten heeft Valve daareentegen een complete speciale instructie set moet coderen om het maar een beetje te laten werken op de Geforce FX kaarten. Als ik me goed herinner heeft Newell dan ook nog eens gezegd dat dit laatste vijf keer zoveel werk kostte als het optimaliseren voor ATI kaarten.

Het is inderdaad zo dat HL2 zal worden gebundled met een serie ATI rpodukten, maar om nu te zeggen dat HL2 beter loopt met ATI gaat dus echt een beetje te ver.

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Het is inderdaad zo dat HL2 zal worden gebundled met een serie ATI rpodukten, maar om nu te zeggen dat HL2 DAAROM beter loopt met ATI gaat dus echt een beetje te ver.

;) HL2 loopt nu eenmaal beter op een Radeon.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Ik wilde een paar plaatjes maken, maar tekenen op een computer is nooit mijn sterkste kant geweest. Ik vertel het dus gewoon maar.

Een 9800 heeft dus 4 vertex shaders die informatie aanleveren naar 8 pixel shaders die per klokpuls 1 texture operatie en 1 24-bit berekening kunnen doen. Dat is ook het enige stukje van de 9800 dat 24-bit is, alle andere berekeningen zijn 32 bit.

Een FX heeft 1-3 vertex shaders die informatie aanleveren aan 1 pijplijn, die blokjes van 4 pixels (2x2) verwerkt. Dat is dus niet zo efficient, want bijvoorbeeld aan de randen van driehoekjes worden niet alle 4 die pixels ook gebruikt.

Op die pixels kan 1 berekening of 2 texture operaties worden uitgevoerd. En bij de 5900 hebben ze er nog een FPU achtergezet, waardoor je 2 texture ops en 1 berekening, of 2 berekeningen uit kan voeren. Maar dan alleen als die instructies ook op die manier achter elkaar staan.

Deze 4 pixels worden dus tegelijkertijd berekend. Dat betekent dat er minder transistors nodig zijn en daardoor kan nVidia ook veel meer mogelijkheden bieden. Maar die mogelijkheden gaan ten koste van de rauwe kracht.

Een 9800 doet dus maximaal 8 texture ops en 8 berekeningen per klokpuls, een FX5900 doet maximaal 8 texture ops en 4 berekeningen, of 8 berekeningen.

Nou staan de instructies nooit zo netjes achter elkaar dat ook alle bewerkingen worden uitgevoerd, maar als de DX9/OGL2 compilers worden aangepast om de instructies netjes te verdelen dat een FX5900 maximaal presteert, gaan gelijk de prestaties van een 9800 ook omhoog.

Een FX5900 is alleen sneller als een Radeon als er iedere keer konsequent eerst twee texture ops worden gedaan en dan 1 berekening. Dat kan hij in 1 keer, bij een 9800 moeten de pixels dan 2 keer door de pijplijn. In alle andere gevallen is een 9800 sneller.

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
danplo schreef op 18 September 2003 @ 14:16:
[...]


Precies.
En dit is ook weer andersom gebeurd met HL2.
Deze is in mijn ogen gewoon beter gemaakt voor ATI.
Dit omdat ze er veel meer geld voor hebben ingestoken.
Urhm. Niet dus. :/

Valve koos voor ATi omdat het geen zin had om een deal te sluiten met een kaartenfabrikant die kaarten maakt waarop je game bagger loopt. Wacht maar tot je de resultaten van HL2 op de Deltachrome en Volari ziet... als HL2 daar wel goed op loopt, dan zal je misschien eindelijk inzien dat er dus niets waar is van het 'optimaliseren' voor ATi kaarten, maar dat er juist geoptimaliseerd is voor DX9.

En op de Shader Days hebben andere gamedevelopers ook toegegeven dat ze blij waren dat er EINDELIJK één grote developer de resultaten durfde vrij te geven en durfde te zeggen wat de anderen dus ook al dachten.

Lees dit stukje van een andere developer (van Silent Hill) maar eens:
http://www.beyond3d.com/forum/viewtopic.php?t=7873

Of dit artikel over de Shaderdays die georganiseerd werden door ATi, Intel en Microsoft: http://www.beyond3d.com/misc/hl2/

[ Voor 9% gewijzigd door CJ op 18-09-2003 14:38 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Verwijderd

Biff schreef op 18 September 2003 @ 13:37:
[...]


Zo eenvoudig is het niet. Die 5800s zijn voor een prikkie te koop. En de bottleneck is bij FlightSim altijd de CPU. Je kunt dus rustig een mooie AA mode zoals 4xS pakken, die er héél goed uitziet. Verder is de anisotropische filtering van Nvidia altijd duidelijk fraaier dan die van ATI.

Maar da's niet het ergste. Ik had zelf ook in eerste instantie een 9800 Pro gekocht voor Flight Sim. Stellige beweringen dat ATI zijn drivers nu op orde zou hebben ten spijt was het weer precies hetzelfde verhaaltje als met m'n 8500 - duidelijke problemen, en vooral óók in Flight Sim. Zo knipperen de menus en beelden op m'n 2e monitor. Helemaal triest is dat de ATI niet één view breed over 2 VGA-uitgangen kan spreiden. Dat maakte hem wat mij betreft compleet nutteloos voor Flight Sim.
5800 goedkoop!!! Dat ding is 469,90 euro man!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

CJ, leuke link van Deano, vooral dat stukje over MS en DX & WHQL. Dat het allemaal strengere gaat worden. Nuttig, erg nuttig.

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Verwijderd schreef op 18 september 2003 @ 14:39:
[...]

5800 goedkoop!!! Dat ding is 469,90 euro man!
check de pricewatch

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Het terugbrengen van de precisie van berekeningen voor een FX van 32 naar 16 bit heeft 2 redenen: ten eerste duren sommigen 32-bit berekeningen 2 klokpulsen en de 16-bit varianten duren maar 1 klokpuls. Een tweede reden is, dat een register in een FX 1 32-bit of 2 16-bit getallen kan bevatten.

En de hoeveelheid pixelblokjes in de pijplijn van een FX is omgekeerd evenredig aan het aantal registers dat wordt gebruikt. Dus hoe meer 32-bit getallen je gebruikt, hoe meer registers je nodig hebt en hoe minder pixelblokjes er in de pijplijn passen.

En als er weinig pixelblokjes in de pijplijn passen, krijg je opstoppingen.

Je wilt dus op een FX zo weinig mogelijk registers gebruiken en geen 32-bit berekeningn uitvoeren die 2 klokpulsen duren. En dat is net heel apart, want normaal gesproken is het beter en sneller om net zoveel mogelijk registers te gebruiken. Dat scheelt je namelijk extra instructies (en dus klokpulsen) om die registers te vullen.

Zeker als je handmatig die instructies codeert, zul je instinctief geneigd zijn om zoveel mogelijk registers te gebruiken. Alle andere machinecode voor alle andere processoren (want dat is een hedendaagse GPU: een setje parallele processortjes) wordt namelijk op die manier geoptimaliseerd. En voor een FX moeten de programmeurs dus anders leren denken. En dat maakt het niet makkelijker.

Verwijderd

Intronic schreef op 17 September 2003 @ 09:52:
Nee, wie zegt dat ze dan niet gewoon doorgaan met wat ze nu doen?
Dat niet alleen, hoelang hebben ze deze trucs al uitgehaald in het verleden, met hun vroegere kaarten, is gewoon laag bij de grond man, zulke praktijken. :r

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

DiGuru schreef op 18 September 2003 @ 15:06:
Het terugbrengen van de precisie van berekeningen voor een FX van 32 naar 16 bit heeft 2 redenen: ten eerste duren sommigen 32-bit berekeningen 2 klokpulsen en de 16-bit varianten duren maar 1 klokpuls. Een tweede reden is, dat een register in een FX 1 32-bit of 2 16-bit getallen kan bevatten.

En de hoeveelheid pixelblokjes in de pijplijn van een FX is omgekeerd evenredig aan het aantal registers dat wordt gebruikt. Dus hoe meer 32-bit getallen je gebruikt, hoe meer registers je nodig hebt en hoe minder pixelblokjes er in de pijplijn passen.

En als er weinig pixelblokjes in de pijplijn passen, krijg je opstoppingen.

Je wilt dus op een FX zo weinig mogelijk registers gebruiken en geen 32-bit berekeningn uitvoeren die 2 klokpulsen duren. En dat is net heel apart, want normaal gesproken is het beter en sneller om net zoveel mogelijk registers te gebruiken. Dat scheelt je namelijk extra instructies (en dus klokpulsen) om die registers te vullen.

Zeker als je handmatig die instructies codeert, zul je instinctief geneigd zijn om zoveel mogelijk registers te gebruiken. Alle andere machinecode voor alle andere processoren (want dat is een hedendaagse GPU: een setje parallele processortjes) wordt namelijk op die manier geoptimaliseerd. En voor een FX moeten de programmeurs dus anders leren denken. En dat maakt het niet makkelijker.
Aha, das dus waarschijnlijk de voornaamste reden waarom nVidia een eigen standaard heeft (CG)?

Dus simpel gezecht:"Betere programmatuur kan er dus voor zorgen dat die FX goed tot zijn recht komt en het maximale eruit haalt, iets wat die Ati nu al doen, nouja binnen zijn mogelijkheden dan ;)

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

hjs schreef op 18 September 2003 @ 14:46:
[...]


check de pricewatch
Tja dan zou je beter een FX5900 Ultra kunnen kopen, daar is al aan te komen vanaf 50o euro als je het slim speelds ;)

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • Intronic
  • Registratie: Juni 2002
  • Laatst online: 16-08 08:44
Kun je net zo goed een goede kaart kopen :P

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Fr0zenFlame schreef op 18 September 2003 @ 15:40:
[...]


Aha, das dus waarschijnlijk de voornaamste reden waarom nVidia een eigen standaard heeft (CG)?

Dus simpel gezecht:"Betere programmatuur kan er dus voor zorgen dat die FX goed tot zijn recht komt en het maximale eruit haalt, iets wat die Ati nu al doen, nouja binnen zijn mogelijkheden dan ;)
Inderdaad. Om er voor te zorgen dat een FX goed presteert, moet jet het precies goed programmeren. Maar zelfs in het ideale geval waarbij de FX optimaal presteert en de ATi hetzelfde programma uit moet voeren (weinig registers, grote driehoekjes, 2 tex. ops + 1 16-bit berekening, weinig verschillende shaders), zal het verschil tussen die twee maar heel klein zijn. Het is dus echt wachten op de NV4x om het onder DX9/OGL2 beter te doen.

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Fr0zenFlame schreef op 18 September 2003 @ 15:40:
[...]


Aha, das dus waarschijnlijk de voornaamste reden waarom nVidia een eigen standaard heeft (CG)?

Dus simpel gezecht:"Betere programmatuur kan er dus voor zorgen dat die FX goed tot zijn recht komt en het maximale eruit haalt, iets wat die Ati nu al doen, nouja binnen zijn mogelijkheden dan ;)
Ik betwijfel of betere programmatuur er voor kan zorgen.

nV heeft dus Cg... En Tombraider AoD heeft een speciaal Cg pad die specifiek voor nVidia FX kaarten is geschreven, zodat het spel optimaal gebruik maakt van de FX. En raadt eens wat er gebeurde? ATi kaarten presteerden zelfs beter dan de FX wanneer er gebruik werd gemaakt van Cg. De performance zakte wel iets in, maar het was toch altijd nog sneller dan de FX met Cg.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

DiGuru schreef op 18 september 2003 @ 15:59:
[...]


Inderdaad. Om er voor te zorgen dat een FX goed presteert, moet jet het precies goed programmeren. Maar zelfs in het ideale geval waarbij de FX optimaal presteert en de ATi hetzelfde programma uit moet voeren (weinig registers, grote driehoekjes, 2 tex. ops + 1 16-bit berekening, weinig verschillende shaders), zal het verschil tussen die twee maar heel klein zijn. Het is dus echt wachten op de NV4x om het onder DX9/OGL2 beter te doen.
Hmm dat weet ik zo net nog niet, nVidia zou best wel is dwars kunnen leggen en door gaan op CG, er gaan ookal geruchten dat ze afspraken aan het maken zijn me EA Games dus....

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Vergeet niet, dat bij een mix van 2 texture ops + 1 berekening een FX5900 dus 4*3 berekeningen in 1 klokpuls uitvoert, tegenover 8*2 en 8*1 voor een 9800. Over twee klokpulsen doet de FX5900 dus 2*4*3 = 24 en de 9800 8*2 + 8*1 = 24 berekeningen. Net zo veel dus. De FX5900 doet het iets efficienter, maar het is moeilijk om die maximale doorvoer ook te bereiken. En hij verliest wat op andere punten, zoals het renderen van de randen van driehoekjes, waarbij niet alle 4 de pixels ook gebruikt worden.

De eerste resultaten van het optimaliseren van de instructievolgorde zijn dan ook voornamelijk geweest, dat de 9800 OOK beter ging presteren...

edit:
Een texture op is ook een berekening, maar ik had eigenlijk over instructies moeten praten om een onderscheid te maken met wiskundige berekeningen. Nou ja, het is duidelijk wat ik er mee bedoel.

[ Voor 15% gewijzigd door DiGuru op 18-09-2003 16:19 ]


  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Biff schreef op 18 September 2003 @ 13:52:
[...]


Het is andersom hoor, DirectX standaarden komen tot stand na het bekijken wat de ontwerpen van de fabrikanten kunnen. Daar wordt dan een laagste gemene deler uit getrokken. ATI doet minder, maar wat ze doen doen ze sneller. En vooral ATI heeft dus invloed gehad op DX9 - zo is de oorspronkelijk vereiste 32-bit precisie verlaagd naar 24-bit omdat hun design geen 32 aankon. Dat past dus prima in hun straatje - Nvidia zit er of boven of onder qua precisie. Er is echter niemand die er aan twijfelt dat 32-bit in de toekomst nodig is. De pixel shaders en vertex shaders van Nvidia zijn geavanceerder in ontwerp - maar ook dat is voor wat uiteindelijk DX9 genoemd is verspilde moeite gebleken.
Voila , eindelijk iemand die snapt wat er is gebeurd. Oorspronkelijk had directx9 32 bit precisie moeten vereisen. ( toen kwam ook Carmack al uit voor deze precisie , is hij steeds al voorstander van geweest. ) Zo was het allemaal al geplanned. Nu echter heeft Ati een slimme zet uitgehaald en Microsoft kunnen overtuigen dit te verlagen naar 24 bits precisie. Had dit niet plaatsgevonden, kon Ati het helemaal vergeten, hun r300 ontwerp was eigenlijk al klaargestoomd op 24bits. Had Microsoft de 32 bits precisie aangehouden, zou Ati helemaal geen DirectX 9 compliant kaart hebben gehad. Rond deze tijd lag Microsoft ook zwaar in de knoop met Nvidia over de prijzen van Nvidia componenten in de Xbox. Ati heeft volgens mij gewoon een mega deal met Microsoft gesloten, toen al, betreffende de nex gen chip van hun toekomstige xbox2.

Niemand zal dit kunnen bevestigen, maar het zou wel de perfecte verklaring kunnen zijn voor wat nvidia nu meemaakt. Toen heeft Microsoft voor Ati’s zijde gekozen.

Indertijd heeft 3Dfx het onderandere verloren van Ati/nvidia omdat ze deels ook vasthielden aan hun 16 bits, pure performance was het belangrijkste voor hen. Nvidia heeft met het ontwerp van de fx series deze fout geen 2 maal willen herhalen en nu gekozen voor 32 bits precisie , kwaliteit ivp snelheid dus. ( 3DFX "overgekocht" weet je wel ). Nu maakte Microsoft dan de destructieve keuze om maar 24 bits precisie te implementeren teneinde Ati niet de grond in te boren met hun splinternieuw ontwerp en maakte toen ook de deal denk ik toen al betreffende Xbox2 met Ati. Wat dus een doorn is in het oog van de fx.

Nu wordt het nog erger uitgespeeld in de pers en laat men beinvloedbare gamers blijkbaar makkelijk geloven dat Nvidia slechts op 16 bits precisie werkt “omdat ze niet beter zouden kunnen”. Belachelijk gewoon, gezien je eerst de achtergrond van de ganse zaak moet weten natuurlijk.

Ik blijf echter Nvidia vertouwen en zeker in hun driver team. Volgens mij heeft geen enkele hardware op de wereldbol dergelijk goeie driver support als een nvidia grafische kaart. Dat is ook de reden dat ik na mijn radeon9000-test-avontuurtje, toch weer ben gaan kiezen voor Nvidia, louter persoonlijk dan. En is die HL2 niet echt vooruit te branden, dat is dan spijtige zaak ja. Maar als ik zie dat die ati 9800pro ook niet mijn definitie van vloeiend benaderd, denk ik maar voor de nv 40 te zullen gaan.
icrosoft dan de destructieve keuze

Mijn Specs


  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Hier sluit ik me voledig bij aan!!! Ati heb het nooit kunnen winnen van nvidia, allee nu met kartelvroming, iets waar je in Microsoft een perfecte partner aan hebt!!!! Echt wel heel toevalig allemaal met die Xbox shit!

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Het klopt helemaal, dat ATi het niet voor elkaar kreeg om een 32-bit berekening in 1 klokpuls uit te voeren en daarom 24-bit gebruikt. nVidia kreeg dat ook niet voor elkaar en heeft een andere keuze gemaakt. En inderdaad is ATi heel blij dat de huidige DX9 specs 24 bit specificeren omdat zij in de pixel shaders maar 24 bit gebruiken.

Maar zelfs op 16 bit is de maximale doorvoer van een FX5900 4*3 instructies per klokpuls, terwijl dat bij een 9800 8*2 is. Een 9800 is dus gewoon sneller.

edit:
Alhoewel ATi aangeeft dat de pixel shader in een pijplijn van een 9800 drie instructies tegelijkertijd uit kan voeren, zal dat in de praktijk niet vaak gebeuren. Het kan namelijk net zo goed, dat er maar 1 instructie wordt uitgevoerd. Gemiddeld dus 2.


EDIT2: Als we nog dieper gaan, komt ook de instructieset van de verschillende chips om de hoek kijken. Een nVidia kan bijvoolbeeld veel sneller een SIN en een COS uitvoeren dan een ATi. Maar een ATi kan weer meer registers en constanten gebruiken. En die drie gelijktijdige bewerkingen voor een ATi zijn er vergeleken met de instructieset van een nVidia maar 2. Qua instructies per klokpuls maakt het dus verder niet zo veel meer uit en is het weinig zinvol om daar op door te gaan.

[ Voor 47% gewijzigd door DiGuru op 18-09-2003 17:41 ]


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Of DX9 oorspronkelijk 32FP zou hebben of 24FP, daar gaan veel verhalen over (waaronder dat nVidia ruzie kreeg met MS (o.a. over Cg en 32FP) en ze dus uit de onderhandelingen zijn gestapt, waarna ATi gewoon braaf de MS specs volgde). Daar laat ik me verder dus niet over uit.

Maar wat ik wilde zeggen is dat het gamedevelopers vrij staat om FP32 te gebruiken wanneer ze dat willen. En dat hadden ze echt wel gedaan als de performance op FX kaarten daardoor een stuk beter zou zijn. Maar helaas is dat dus niet het geval en moet men kiezen voor mixed modes zoals in HL2.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Tussen haakjes: ik heb tot voor kort ook altijd naar grote tevredenheid nVidia kaarten gehad. Op zich is de CineFX engine heel innovatief, het is echt jammer dat hij zo tegenvalt qua prestatie. Ik zit ook met grote spanning op de NV4x te wachten. Maar ondertussen kun je op een FX5900 ook heel mooi nieuwe spelletjes spelen. Je moet hem gewoon niet gaan zitten vergelijken met 'andere' kaarten.

;)

EDIT: als nVidia wat features van de CineFX schrapt, passen er misschien 2 op 1 chip. Yummie!

[ Voor 13% gewijzigd door DiGuru op 18-09-2003 18:30 ]


  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 20:47
Fr0zenFlame schreef op 18 September 2003 @ 16:42:
[...]


Hier sluit ik me voledig bij aan!!! Ati heb het nooit kunnen winnen van nvidia, allee nu met kartelvroming, iets waar je in Microsoft een perfecte partner aan hebt!!!! Echt wel heel toevalig allemaal met die Xbox shit!
hoe mensen zulke statemants tegenwoordig nog kunnen volhouden is mij compleet onduidelijk 8)7

fanboy zijn van een of ander merk heb je echt alleen jezelf mee hoor! stug volhouden dat iets beter is terwijl het dat niet is zal je zelf ook gaan merken door lagere fps en/of IQ in DX9 games...
de enige die je ermee hebt ben jezelf!

kijk gewoon naar de cijfers en concludeer het logische :Z

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Albinoraptor
  • Registratie: Juli 2000
  • Laatst online: 14-09 13:03
Zo nu zijn het al gehele complot theorieen, dadelijk is het allemaal 2 Pac's en Elvis' schuld die MS runnen van af een eiland in de middellandse zee :+

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

-GF-Annihilator schreef op 18 September 2003 @ 16:32:
[...]


Voila , eindelijk iemand die snapt wat er is gebeurd. Oorspronkelijk had directx9 32 bit precisie moeten vereisen. ( toen kwam ook Carmack al uit voor deze precisie , is hij steeds al voorstander van geweest. )
Maar dan had nVidia toch ook een véél betere fp32 performance moeten hebben om deze praktisch te maken? Alhoewel ik wel eens zulke geluiden heb gehoord, geloof ik niet dat die druk van ATI afkwam, maar eerder een gevolg was van technologische beperkingen mbt performance.

Niet op voorraad.


  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 20:47
edward2 schreef op 18 September 2003 @ 19:06:
[...]


Maar dan had nVidia toch ook een véél betere fp32 performance moeten hebben om deze praktisch te maken? Alhoewel ik wel eens zulke geluiden heb gehoord, geloof ik niet dat die druk van ATI afkwam, maar eerder een gevolg was van technologische beperkingen mbt performance.
juist!
en als de fp32 performance van Nvidia gewoon goed genoeg was geweest was hun fp16 niet eens nodig! ze wisten echter waarschijnlijk zelf ook dat dit niet het geval is.

Nvidia zou imo meer naar Bob Marley moeten luisteren:
"you can fool some people sometimes, but you can't fool all the people all the times..." :+

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nog een tegenslag voor de FX. Binnenkort komt het nieuwe deel uit van de in Amerika zeer populaire Tiger Woods games. Tiger Woods 2004 is een Electronic Arts game, dus je zou verwachten dat de performance super is op de FX aangezien EA en nV een deal hebben gesloten.

Niets is echter minder waar. TW2004 is een DX9 titel, dus dat is al een teken aan de wand. Een beta-tester rapporteert:
I am in possession of final code and the 9800 Pro 128 MB card with P4 2.8 "C"/1 GB DDR Dual Channel, is running the game at 1280x1024x32 with all rendering and texture detail at Maximum at 90-150 fps on my "benchmark course" TPC Scottsdale. If anything, the 9800 Pro is running TW2004 better than I ever expected it to.

If the performance of the 5900 U is the same as the last beta I had (I no longer have a 5900 Ultra, so I make a disclaimer), then the 9800 Pro is running TW2004 at an average of almost double the fps as the 5900 Ultra all settings and resolution being equal. On TPC Scottsdale, the 5900 U averaged 58 fps at the teebox with a closeup of the Golfer in the last beta build. With the 9800 Pro on my rig using Catalyst 3.8 Betas, it is averaging 95 fps at the teebox using FRAPS 2.0
Dit in tegenstelling tot TW2003, waar het water niet met pixelshaders werkte op non-nVidia kaarten... Zou ATi stiekum ook een deal hebben gesloten met EA? :+ Oh ja, leuk detail: de game werd gedraait met Catalyst 3.8.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Chriskonijn
  • Registratie: Augustus 2003
  • Laatst online: 24-07-2016
Er is hier meerdere keren voorbij gekomen dat de NV3x architectuur "gewoon beter" of "geavanceerder" zou zijn en ik vraag me af waarom. De NV3x heeft een paar instructies meer, maar die leveren al met al weinig voordeel. nVidia heeft gegokt op multitexturing, maar het blijkt dat berekeningen in de pixel pipeline toch steeds belangrijker worden (voor per-pixel lighting). Ati heeft misschien een minder gecompliceerde architectuur, maar hierdoor zijn de pipelines niet van elkaar afhankelijk zoals bij nVidia. Ook lijkt het mij makkelijker om meerdere van dit soort pipelines naast elkaar te zetten dan het aanpassen van een architectuur waar alle pipelines van elkaar afhankelijk zijn. Buiten de pixel pipelines zijn er weinig merkbare verschillen tussen de twee chips.

Ati en nVidia waren beide niet toe aan FP32; nVidia heeft nu een 16/32 combinatie met (te) weinig FP32 registers om transistors te besparen en Ati heeft een deel van hun pipeline FP24 gemaakt om transistors te besparen.

Dat "Ati het nooit heeft kunnen winnen van nVidia" is een totaal nutteloos statement overigens. Beide bedrijven doen hun best om een goed product op de markt te zetten en hebben daar goede teams voor. Hoewel ik in eerste instantie veel vertrouwen had in de NV3x als antwoord op de R3x0, hebben de beschikbare benchmarks voor mij inmiddels wel aangetoond dat de R3x0 op dit moment de betere architectuur heeft.

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Puppetmaster schreef op 18 September 2003 @ 18:52:
[...]

hoe mensen zulke statemants tegenwoordig nog kunnen volhouden is mij compleet onduidelijk 8)7

fanboy zijn van een of ander merk heb je echt alleen jezelf mee hoor! stug volhouden dat iets beter is terwijl het dat niet is zal je zelf ook gaan merken door lagere fps en/of IQ in DX9 games...
de enige die je ermee hebt ben jezelf!

kijk gewoon naar de cijfers en concludeer het logische :Z
Als jij kijkt naar de cijfers en de marketing shit slikt, so be it. Ik zie ook de cijfers wel en zie ook wat er allemaal aan benchmarks voorbijscheurt de laatste weken. Echter ik volg het verhaal al van in het begin en dat wou ik hier even bevestigen. Ik heb nu inderdaad net weer een nvidia gekocht, en ben er tevree van. Voor de rest lees ik alles met een vat zout en wacht wel af tot alles hier op mijn pc geinstalleerd staat voor ik begin te panikeren of juichen. (cfr. HL2) Alleen kan ik het niet hebben dat er dan infantiele kinderreacties verschijnen over fanboy zijn of niet. Had Ati mij met hun ati9000 die ik kocht om eens wat anders te proberen, mij kunnen overtuigen, dan had ik nu een 9800pro had gekocht. En dan had ik zeker mensen die een fx hadden gekozen, zeker niet zitten zwartmaken voor nvidia fanboy. Cijfers kan iedereen lezen, marketing nablaten kan ook iedereen, maar es denken voor je iets schrijft lijkt me moeilijker.

Als je je tot dat niveau verlaagd, tja

Als nu blijkt dat die ati 9800pro 2 maal zo snel is in DX9 games, dan ga je mij niet horen het tegendeel proberen te bewijzen. Maar de laatste tijd al deze meldingen van "nvidia cheat met 16 bit" en "komt ervan als je eigenwijs bent" ,"ati kan 32 bit precisie en nvidia niet", dat getuigt pas van ondoordacht marketing slikken en fanboy zijn. En dat heb ik hier op tweakers ook nooit verzwegen in mijn posts. Van dat soort mensen :r ik.

Ik wens iedereen die een ati of matrox kocht , enorm veel plezier aan hun kaart en heb er geen probleem mee als die sneller is/zou zijn. Maar onwaarheden de wereld insturen kan ik niet tegen. Net zoals indertijd den tijde van de eerte Athlons, ik hier in de lokale winkel een verkoper hoorde zeggen dat windows er instabieler op draaide en dat sommige textverwerkers er niet op werkten, toen kreeg ik het ook moeilijk om mijn mond te houden. Die had het ook "van horen zeggen" en had waarschijnlijk ook nog nooit een andere pc verkocht dan ene met Intel cpu. :r

Mijn Specs


  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

http://www.tomshardware.com/graphic/20030918/index.html

en -GF-Annihilator jammer dat je het na de R9000 al hebt opgegeven.
De R9000 is van de vorige generatie (R8500 en die was goed, maar nog niet zo goed als de nVidia kaarten van dat moment), vanaf de R9700 is de ATI pas echt op stoom ;)

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
hjs schreef op 18 September 2003 @ 21:38:
http://www.tomshardware.com/graphic/20030918/index.html

en -GF-Annihilator jammer dat je het na de R9000 al hebt opgegeven.
De R9000 is van de vorige generatie (R8500 en die was goed, maar nog niet zo goed als de nVidia kaarten van dat moment), vanaf de R9700 is de ATI pas echt op stoom ;)
Ja, heb je gelijk in, maar ik kocht niet die ati 9000 om een snelheidsmonster te hebben hoor, maar gewoon om die ati drivers uit te proberen. Ik had een budget klaarliggen om uit te geven maar wou niet zo onmiddellijk +500 euro uitgeven . ik heb die 9000 gekocht voor 120 euro of zo en vond het ideaal om die drivers van ati uit te proberen. Kende totdan ati in desktop nog niet , uiteraard wel in laptops maar ik wou ze eens aan het werk zien in desktops :D .

Mijn Specs


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

hjs schreef op 18 September 2003 @ 21:38:
http://www.tomshardware.com/graphic/20030918/index.html

en -GF-Annihilator jammer dat je het na de R9000 al hebt opgegeven.
De R9000 is van de vorige generatie (R8500 en die was goed, maar nog niet zo goed als de nVidia kaarten van dat moment), vanaf de R9700 is de ATI pas echt op stoom ;)
Daar sla je de spijker op z'n kop, het is zoveel beter geworden met de R3xx, drivers, hardware, features.

Ik had ook gemixte ervaringen t/m de R2xx reeks, maar de R3xx heeft vriend en "vijand" verrast.
Zo sterk als deze kaart met AF en AA presteert is echt superb en driverissues zijn echt zeldzaam geworden...

Maar goed dit is een FX-topic en deze heeft zeker ook een paar grote pluspunten, de AF vind ik beter dan van de ATI en ook de lodbias tweakinstellingen mis ik bij ATI.

En er zijn nog maar weinig dx9 games en nog erg veel dx8 games zoals bv COD, ik kan me voorstellen dat die geweldig spelen met een fx gecombineer met een lodbias van -1,5 :9~

[ Voor 21% gewijzigd door edward2 op 18-09-2003 22:09 ]

Niet op voorraad.


  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Misschien zijn er inderdaad met catalyst 3.6 enz minder problemen met de r3xx series, maar diezelfde drivers gaven met mijn ati9000 toch te veel probleempjes. Uiteraard met 1 kaart te testen weet je niet veel maar het gaf me toch een eerste indruk.

Mijn Specs


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Zeg is het eindelijk een keer afgelopen met dat "gezeur" over de specificaties van de FX en wat er mis aan is en wat niet, ik wordt er net zoals -GF- Annihilator een beetje moe van. Okee ATi is op het moment beter, maar so what, we wachten wel weer op de volgende generatie kaarten. Er zijn heel wat meer argumenten om bijvoorbeeld een geforce te kopen in plaats van de radeon. Misschien omdat er hier en daar toch wat probleempjes zijn met spellen die niet draaien en waarmee je met een FX nooit last van hebt. Kortom hou alsjeblieft op met al dieFX specs en dergelijke, want daar zitten veel mensen die een vraag willen stellen die er niet tussen komen maar niet op te wachten.

(Dit is zeker niet als flame bedoelt, meer om mensen vragen te kunnen laten stellen en ik wordt er een beetje moe van en ik denk niet dat ik de enige ben.)

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dit topic is voor discussie over de FX en vragen er over. Het lijkt me dat dit prima naast elkaar kan bestaan.

Weer wat nieuws over de FX. Samsung schijnt veel samples van 800 Mhz DDR2 reepjes (effectief 1.6 Ghz) naar nVidia gestuurd. Deze worden getest op zo'n 500 NV40 samples... Dat beloofd weer wat voor volgend jaar.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Sorrie, sokje. Ik zal er mee ophouden. De FX-en zijn prima kaarten.

Ik geef toe, dat ik toch een beetje wilde laten zien dat ik wist waar ik het over had nadat ik in het begin flink afgemaakt werd. En daarna vond ik het belangrijk om uit te leggen dat je niet zomaar het aantal pijplijnen naast elkaar kon leggen om te zeggen welke er nu sneller was.

En dat is aardig gelukt, denk ik.

;)

Ik zal me van nu af aan netjes gedragen.

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

sokje schreef op 18 September 2003 @ 22:27:
Zeg is het eindelijk een keer afgelopen met dat "gezeur" over de specificaties van de FX en wat er mis aan is en wat niet, ik wordt er net zoals -GF- Annihilator een beetje moe van. Okee ATi is op het moment beter, maar so what, we wachten wel weer op de volgende generatie kaarten. Er zijn heel wat meer argumenten om bijvoorbeeld een geforce te kopen in plaats van de radeon. Misschien omdat er hier en daar toch wat probleempjes zijn met spellen die niet draaien en waarmee je met een FX nooit last van hebt. Kortom hou alsjeblieft op met al dieFX specs en dergelijke, want daar zitten veel mensen die een vraag willen stellen die er niet tussen komen maar niet op te wachten.

(Dit is zeker niet als flame bedoelt, meer om mensen vragen te kunnen laten stellen en ik wordt er een beetje moe van en ik denk niet dat ik de enige ben.)
Nvidia maakt goed kaarten ..zeker..bijna elke game draait er wel onder ( wat bij ati soms toch echt pas kan na een patch )

En tja, zelf ben ik gewoon nvidia gewend.....

De Nv40 komt eraan ( in welke vorm dan ook ) dus daarmee moet het weer gaan lukken :-)

Zelf heb ik een Nv28 dus een budget Nv4x als vervanging...mmmm....lijkt me geen slecht idee. Tot die tijd klok ik gewoon mijn Nv28 lichtjes over ( 300 GPU inplaats van 275 ). Want het heeft voor mijn nu nog geen zin om te upgraden!

There is no place like ::1


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
edit:
Ik zei het niet goed en het was nog te negatief. Verwijderd.

[ Voor 84% gewijzigd door DiGuru op 18-09-2003 23:56 ]


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

sokje schreef op 18 September 2003 @ 22:27:
Zeg is het eindelijk een keer afgelopen met dat "gezeur" over de specificaties van de FX en wat er mis aan is en wat niet, ik wordt er net zoals -GF- Annihilator een beetje moe van. Okee ATi is op het moment beter, maar so what, we wachten wel weer op de volgende generatie kaarten. Er zijn heel wat meer argumenten om bijvoorbeeld een geforce te kopen in plaats van de radeon. Misschien omdat er hier en daar toch wat probleempjes zijn met spellen die niet draaien en waarmee je met een FX nooit last van hebt. Kortom hou alsjeblieft op met al dieFX specs en dergelijke, want daar zitten veel mensen die een vraag willen stellen die er niet tussen komen maar niet op te wachten.

(Dit is zeker niet als flame bedoelt, meer om mensen vragen te kunnen laten stellen en ik wordt er een beetje moe van en ik denk niet dat ik de enige ben.)
Er worden juist veel inhoudelijke zaken besproken ipv van gezeur, dit is een prima topic met veel technische inhoud en een schoolvoorbeeld hoe zaken met argumenten worden toegelicht, wat ook handig is voor mensen die nog twijfelen over een evt. aankoop, niks mis mee.

Ook was dit topic juist geopend als techthread en niet alleen voor evt. problemen van fx-owners. Maar daar is uiteraard toch ook gewoon ruimte voor.

Aan de andere kant ben ik wel eens dat we nou alle voor en tegens wel gehad hebben en we beter ook vooruit kunnen kijken hoe bv. de NV38 eruit zal gaan zien.

[ Voor 9% gewijzigd door edward2 op 18-09-2003 23:52 ]

Niet op voorraad.

Pagina: 1 ... 8 ... 11 Laatste

Dit topic is gesloten.