[Algemeen] nVidia GeForce Topic! Deel 12 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 3.492 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Anoniem: 115092

Ik vraag me af hoe een single geforce 6800 sli presteerd tov een radeon x850xt pe. Dit omdat de sli variant 40 mhz hoger zou zijn geklocked dan de normale ultra.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.

http://www.beyond3d.com/f...&postorder=asc&highlight=

Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:42
edward2 schreef op donderdag 02 december 2004 @ 12:14:
Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.

http://www.beyond3d.com/f...&postorder=asc&highlight=

Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
Het pakt natuurlijk wel uit in het voordeel voor Ati omdat dit gewoon veel meer perfomance kost. Dit maakt het verschil wel weer duidelijk met de radeon tegenhangers die opeens een stuk sneller lijken te zijn. Het is volgens mij niet de bedoeling geweest om de geforce te dwarsbomen maar het is wel een manier om ervoor te zorgen dat Ati ruim op kop blijft.
Er werd gesproken dat de pixel shader bij Ati veel sterker was en hierdoor het verschil zo groot zou zijn. ik begin dit nu tegen te spreken als de precisie nu zo gedaan is.
Ik ben benieuwd wat de reactie van Valve is.

Acties:
  • 0 Henk 'm!

Anoniem: 115092

Nvidia geforce FX en geforce 6 kaarten gebruiken inderdaad FP 32 in HF2 (verplicht). ATI kaarten gebruiken FP 24, wat de performance ten goede komt (FP 24 is sneller dan FP 32 en het verschil in beeldkwaliteit is minimaal). FP 16 werkt nog iets sneller, alleen dan gaat de beeldkwaliteit er wel ietsje op achteruit, maar dat scheelt niet zo veel.

Voor een geforce FX bezitter is het wel mogelijk om in DX 9 mode te draaien op een acceptabele framerate wanneer er gebruik gemaakt word van FP 16. Dus vooral de geforce FX bezitters worden in dit geval benadeeld.

Voor mensen met een geforce 6 kaart is dit niet zo'n groot probleem, aangezien de prestaties toch al erg hoog waren en het werken met AA en AF in combinatie met de hoogste settings geen problemen opleverde.
Er werd gesproken dat de pixel shader bij Ati veel sterker was en hierdoor het verschil zo groot zou zijn. ik begin dit nu tegen te spreken als de precisie nu zo gedaan is.
Ik ben benieuwd wat de reactie van Valve is.
Inderdaad. En daarbij komt nog eens dat de core van een ATI kaart veel sneller loopt dan die van een Nvidia kaart (520 mhz voor de x800xt tov 400 mhz voor de 6800 ultra). Het is vooral dankzij de klocksnelheid dat een ATI kaart beter presteerd (met de shaders). Een Nvidia haalt per MHZ meer als een ATI.

[ Voor 34% gewijzigd door Anoniem: 115092 op 02-12-2004 13:52 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
edward2 schreef op donderdag 02 december 2004 @ 12:14:
Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.

http://www.beyond3d.com/f...&postorder=asc&highlight=

Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
Alleen de GeForce6 wordt "gedwongen" om op 32-bits te draaien aangezien de GeForce 5 automatisch op DX8.1 overschakelt. Valve heeft gekozen voor FP24 als standaard, wat ook niet vreemd is, aangezien FP24 vanaf het begin van DX9 het minimum was voor full precision.

De GeForce5 en GeForce6 kunnen alleen FP32, FP16 en FX12 (en nog meer ?) aan, terwijl de R3x0/R4x0 serie van ATi intern alles op FP32 doen (behalve in de shaderpipeline) en komt het er uit als FP24, zelfs al krijgt het een partial precisionhint aangereikt.. en dit zonder snelheidsverlies.

GF6 kaarten hebben het voordeel over de GF5 serie dat er weinig performanceverlies is wanneer er geschakeld wordt tussen FP16 en FP32. Wat de uitkomst min of meer is, is dat de FX soms 50% of meer performancewinst krijgt bij het gebruik van FP16, maar dat er wel artifacts kunnen optreden bij gebruik van FP16, wat niet zichtbaar is bij gebruik van FP24/FP32. De performancewinst is echter bij lange na niet genoeg om sneller te zijn dan DX8.1 mode, laat staan het inhalen van de concurrende kaarten uit de 9500-9800 reeks (ze draaien nog op halve snelheid).

Benchmarks van iemand die getest heeft:
Tested on:
Athlon 64 3200+ Socket 754 Clawhammer core
512 MB DDR400 memory running on CAS 2-3-3-6
Abit KV8-MAX3 + Hyperion 4.53

Video Cards:
Radeon 9800 Pro @ Catalyst 4.11 + CC
GF FX5900 @ ForceWare 66.93

HL2 Steam version (latest patches and so on...) + 3DVis. app v2,26


1024x768 (all high except "reflect world", vsync off, trilinear filtering)

Radeon 9800 Pro - 73,7 fps
FX5900 @ DX8.1 - 62,44 fps
FX5900 @ DX9 forced FP16 - 31,45 fps
FX5900 @ DX9 full p. aka FP32 - 19,46 fps


1280x960 (same as above)

Radeon 9800 Pro - 52 fps
FX5900 @ DX8.1 - 45,18 fps
FX5900 @ DX9 forced FP16 - 23,31 fps
FX5900 @ DX9 full p. aka FP32 - 14,4 fps


1600x1200 (same as above)

Radeon 9800 Pro - 33,65 fps
FX5900 @ DX8.1 - 29,49 fps
FX5900 @ DX9 forced FP16 - 15,08 fps
FX5900 @ DX9 full p. aka FP32 - 9,35 fps
Dit had waarschijnlijk kunnen worden voorkomen door het mixed precision path wat door Valve geschrapt is. Het koste volgens hun tot 5x toe zo veel moeite om dit speciale FX pad in de game te programmeren, ivg tot het programmeren voor de Radeons die netjes de DX9 standaard volgen. En dan te bedenken dat het alleen om de FX5800/FX5900 serie ging waarvoor dit speciaal pad was, aangezien de FX5200-5700 altijd al standaard in DX8.1 draaiden.

Ik denk dat Valve (misschien mede onder druk van ATi, die natuurlijk flink had geinvesteerd in HL2 destijds met de 9800XT en de coupons) zich in eerste plaats heeft gericht op het voltooien van de game zelf. Misschien dat ATi ze een datum heeft gesteld wanneer de game uit zou moeten komen, anders zouden veel fans niet alleen in Valve teleurgesteld zijn, maar ook in ATi. Misschien dat daarom mixed precision is gedropped, net zoals HDR op een gegeven moment gedropped werd vanwege tijdgebrek en resourcegebrek? En de FX kaarten waar het meeste van wordt afgenomen (low-end / mainstream) al op DX8.1 draaiden, was het denk ik ook een kleine stap om de 5900 serie op DX8.1 te laten draaien (de 5800 serie tel ik niet eens mee omdat daar zo weinig van verkocht zijn).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 14:30
CJ schreef op donderdag 02 december 2004 @ 14:12:
[...]
De GeForce5 en GeForce6 kunnen alleen FP32, FP16 en FX12
De GF6 heeft FX12 (integer) niet meer erin, en dat is een goeie zaak.

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 13:31
Niet in afwachting van nieuwe limieten voor max.aantal.posts.in.topic (zie LA), is hier vandaag:

[Algemeen] nVidia GeForce Topic! Deel 13

Daar dus verder :)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Ok thanx guys voor de samenvatting. Ik wist wel wat de verschillende kaarten aan precisie aankunnen, maar ik vroeg me af of de 6800 echt 32 bits deed in HL2. Dat valt me niet tegen van de 6800, hoewel het waarschijnlijk niet eens zichtbaar is (24 vs 32), maar het toont wel aan dat de 6800(U) echt goed overweg kan met 32 bits fp.

Het voordeel van de verschillende precisies van de gaat natuurlijk zo een beetje verloren voor de 6800's, als er echt shaders in de game zijn waar je aan 16 bits voldoende hebt. Anderzijds als dx9 mnimaal 24 bits is, is dat de 'schuld' van NVzelf.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Shemez
  • Registratie: Augustus 2000
  • Laatst online: 15-05 18:31
Kent iemand een goede cooler voor 6600GT die de warme lucht naar buiten blaast zonder het geluid te maken van een hoover-craft?

Acties:
  • 0 Henk 'm!

  • Mopster
  • Registratie: Augustus 2004
  • Laatst online: 25-05-2024

Mopster

Curieuzeneuzemosterd

Ik zoek de logo van de 6800GT, kan iemand die mij eens aanwijzen :)

MSI X570 Gaming Edge Wifi, AMD Ryzen 7 5800x, Corsair Vengeance RGB Pro 3600CL16 16Gb, Sapphire RX590 Nitro+, Crucial MX 512Gb + 2Tb, Seagate SSHD 2TB, Creative SoundBlaster Zx, Razer Blackwidow Stealth 2016, Logitech G703, DELL S2721DGF, ASUS VG248QE


Acties:
  • 0 Henk 'm!

Anoniem: 45027

Als je een normale 6800 haalt, de AGP versie. En je unlockt een aantal pipes. Krijg je dan niet problemen met het feit dat er maar 1 molex connector op zit?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Slotje? }:O

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

Ik heb nu de 71.20 drivers.
Maar nu ben ik dat tabblad in de nvidia menu van de driver kwijt,
waar je de refresh rate kon instellen.
Nu draait CoD weer op 60 Hz. :?

Hoe krijg ik dat tabblad weer terug ?

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 17-05 23:15

Deathchant

Don't intend. Do!

M55 schreef op woensdag 15 december 2004 @ 18:03:
Ik heb nu de 71.20 drivers.
Maar nu ben ik dat tabblad in de nvidia menu van de driver kwijt,
waar je de refresh rate kon instellen.
Nu draait CoD weer op 60 Hz. :?

Hoe krijg ik dat tabblad weer terug ?
FF naar deel 13!!

CoD springt altijd op 60HZ. Moet je refreshlock of refreshforce gebruiken

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Ik zou graag een nieuw kaartje (GF6-serie) kopen, maar zie door de bomen het bos niet meer. De enige leverbare dingen op dit moment lijken 6600's voor PCIe en 6800's voor AGP. Mijn volgende bord wordt een nForce4, dus PCIe is een must.

Ik zou het dingetje graag zo ver mogelijk OC'en (er komt een Dangerden-waterblokje op dus :)) / unlocken. Wacht ik best op de 6800 in PCIe-smaak (die ging toch ook komen?) of moet een 6600(GT) ook lukken? Het 6600GT topic zegt dat als je wil OC'en je beter af bent met een 6800LE, maar waarom dat is legt men niet verder uit :'(

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.