Ik vraag me af hoe een single geforce 6800 sli presteerd tov een radeon x850xt pe. Dit omdat de sli variant 40 mhz hoger zou zijn geklocked dan de normale ultra.
Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.
http://www.beyond3d.com/f...&postorder=asc&highlight=
Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
http://www.beyond3d.com/f...&postorder=asc&highlight=
Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
Niet op voorraad.
Het pakt natuurlijk wel uit in het voordeel voor Ati omdat dit gewoon veel meer perfomance kost. Dit maakt het verschil wel weer duidelijk met de radeon tegenhangers die opeens een stuk sneller lijken te zijn. Het is volgens mij niet de bedoeling geweest om de geforce te dwarsbomen maar het is wel een manier om ervoor te zorgen dat Ati ruim op kop blijft.edward2 schreef op donderdag 02 december 2004 @ 12:14:
Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.
http://www.beyond3d.com/f...&postorder=asc&highlight=
Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
Er werd gesproken dat de pixel shader bij Ati veel sterker was en hierdoor het verschil zo groot zou zijn. ik begin dit nu tegen te spreken als de precisie nu zo gedaan is.
Ik ben benieuwd wat de reactie van Valve is.
Anoniem: 115092
Nvidia geforce FX en geforce 6 kaarten gebruiken inderdaad FP 32 in HF2 (verplicht). ATI kaarten gebruiken FP 24, wat de performance ten goede komt (FP 24 is sneller dan FP 32 en het verschil in beeldkwaliteit is minimaal). FP 16 werkt nog iets sneller, alleen dan gaat de beeldkwaliteit er wel ietsje op achteruit, maar dat scheelt niet zo veel.
Voor een geforce FX bezitter is het wel mogelijk om in DX 9 mode te draaien op een acceptabele framerate wanneer er gebruik gemaakt word van FP 16. Dus vooral de geforce FX bezitters worden in dit geval benadeeld.
Voor mensen met een geforce 6 kaart is dit niet zo'n groot probleem, aangezien de prestaties toch al erg hoog waren en het werken met AA en AF in combinatie met de hoogste settings geen problemen opleverde.
Voor een geforce FX bezitter is het wel mogelijk om in DX 9 mode te draaien op een acceptabele framerate wanneer er gebruik gemaakt word van FP 16. Dus vooral de geforce FX bezitters worden in dit geval benadeeld.
Voor mensen met een geforce 6 kaart is dit niet zo'n groot probleem, aangezien de prestaties toch al erg hoog waren en het werken met AA en AF in combinatie met de hoogste settings geen problemen opleverde.
Inderdaad. En daarbij komt nog eens dat de core van een ATI kaart veel sneller loopt dan die van een Nvidia kaart (520 mhz voor de x800xt tov 400 mhz voor de 6800 ultra). Het is vooral dankzij de klocksnelheid dat een ATI kaart beter presteerd (met de shaders). Een Nvidia haalt per MHZ meer als een ATI.Er werd gesproken dat de pixel shader bij Ati veel sterker was en hierdoor het verschil zo groot zou zijn. ik begin dit nu tegen te spreken als de precisie nu zo gedaan is.
Ik ben benieuwd wat de reactie van Valve is.
[ Voor 34% gewijzigd door Anoniem: 115092 op 02-12-2004 13:52 ]
Alleen de GeForce6 wordt "gedwongen" om op 32-bits te draaien aangezien de GeForce 5 automatisch op DX8.1 overschakelt. Valve heeft gekozen voor FP24 als standaard, wat ook niet vreemd is, aangezien FP24 vanaf het begin van DX9 het minimum was voor full precision.edward2 schreef op donderdag 02 december 2004 @ 12:14:
Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.
http://www.beyond3d.com/f...&postorder=asc&highlight=
Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
De GeForce5 en GeForce6 kunnen alleen FP32, FP16 en FX12 (en nog meer ?) aan, terwijl de R3x0/R4x0 serie van ATi intern alles op FP32 doen (behalve in de shaderpipeline) en komt het er uit als FP24, zelfs al krijgt het een partial precisionhint aangereikt.. en dit zonder snelheidsverlies.
GF6 kaarten hebben het voordeel over de GF5 serie dat er weinig performanceverlies is wanneer er geschakeld wordt tussen FP16 en FP32. Wat de uitkomst min of meer is, is dat de FX soms 50% of meer performancewinst krijgt bij het gebruik van FP16, maar dat er wel artifacts kunnen optreden bij gebruik van FP16, wat niet zichtbaar is bij gebruik van FP24/FP32. De performancewinst is echter bij lange na niet genoeg om sneller te zijn dan DX8.1 mode, laat staan het inhalen van de concurrende kaarten uit de 9500-9800 reeks (ze draaien nog op halve snelheid).
Benchmarks van iemand die getest heeft:
Dit had waarschijnlijk kunnen worden voorkomen door het mixed precision path wat door Valve geschrapt is. Het koste volgens hun tot 5x toe zo veel moeite om dit speciale FX pad in de game te programmeren, ivg tot het programmeren voor de Radeons die netjes de DX9 standaard volgen. En dan te bedenken dat het alleen om de FX5800/FX5900 serie ging waarvoor dit speciaal pad was, aangezien de FX5200-5700 altijd al standaard in DX8.1 draaiden.Tested on:
Athlon 64 3200+ Socket 754 Clawhammer core
512 MB DDR400 memory running on CAS 2-3-3-6
Abit KV8-MAX3 + Hyperion 4.53
Video Cards:
Radeon 9800 Pro @ Catalyst 4.11 + CC
GF FX5900 @ ForceWare 66.93
HL2 Steam version (latest patches and so on...) + 3DVis. app v2,26
1024x768 (all high except "reflect world", vsync off, trilinear filtering)
Radeon 9800 Pro - 73,7 fps
FX5900 @ DX8.1 - 62,44 fps
FX5900 @ DX9 forced FP16 - 31,45 fps
FX5900 @ DX9 full p. aka FP32 - 19,46 fps
1280x960 (same as above)
Radeon 9800 Pro - 52 fps
FX5900 @ DX8.1 - 45,18 fps
FX5900 @ DX9 forced FP16 - 23,31 fps
FX5900 @ DX9 full p. aka FP32 - 14,4 fps
1600x1200 (same as above)
Radeon 9800 Pro - 33,65 fps
FX5900 @ DX8.1 - 29,49 fps
FX5900 @ DX9 forced FP16 - 15,08 fps
FX5900 @ DX9 full p. aka FP32 - 9,35 fps
Ik denk dat Valve (misschien mede onder druk van ATi, die natuurlijk flink had geinvesteerd in HL2 destijds met de 9800XT en de coupons) zich in eerste plaats heeft gericht op het voltooien van de game zelf. Misschien dat ATi ze een datum heeft gesteld wanneer de game uit zou moeten komen, anders zouden veel fans niet alleen in Valve teleurgesteld zijn, maar ook in ATi. Misschien dat daarom mixed precision is gedropped, net zoals HDR op een gegeven moment gedropped werd vanwege tijdgebrek en resourcegebrek? En de FX kaarten waar het meeste van wordt afgenomen (low-end / mainstream) al op DX8.1 draaiden, was het denk ik ook een kleine stap om de 5900 serie op DX8.1 te laten draaien (de 5800 serie tel ik niet eens mee omdat daar zo weinig van verkocht zijn).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De GF6 heeft FX12 (integer) niet meer erin, en dat is een goeie zaak.CJ schreef op donderdag 02 december 2004 @ 14:12:
[...]
De GeForce5 en GeForce6 kunnen alleen FP32, FP16 en FX12
Niet in afwachting van nieuwe limieten voor max.aantal.posts.in.topic (zie LA), is hier vandaag:
[Algemeen] nVidia GeForce Topic! Deel 13
Daar dus verder
[Algemeen] nVidia GeForce Topic! Deel 13
Daar dus verder
Ok thanx guys voor de samenvatting. Ik wist wel wat de verschillende kaarten aan precisie aankunnen, maar ik vroeg me af of de 6800 echt 32 bits deed in HL2. Dat valt me niet tegen van de 6800, hoewel het waarschijnlijk niet eens zichtbaar is (24 vs 32), maar het toont wel aan dat de 6800(U) echt goed overweg kan met 32 bits fp.
Het voordeel van de verschillende precisies van de gaat natuurlijk zo een beetje verloren voor de 6800's, als er echt shaders in de game zijn waar je aan 16 bits voldoende hebt. Anderzijds als dx9 mnimaal 24 bits is, is dat de 'schuld' van NVzelf.
Het voordeel van de verschillende precisies van de gaat natuurlijk zo een beetje verloren voor de 6800's, als er echt shaders in de game zijn waar je aan 16 bits voldoende hebt. Anderzijds als dx9 mnimaal 24 bits is, is dat de 'schuld' van NVzelf.
Niet op voorraad.
Kent iemand een goede cooler voor 6600GT die de warme lucht naar buiten blaast zonder het geluid te maken van een hoover-craft?
Ik zoek de logo van de 6800GT, kan iemand die mij eens aanwijzen
MSI X570 Gaming Edge Wifi, AMD Ryzen 7 5800x, Corsair Vengeance RGB Pro 3600CL16 16Gb, Sapphire RX590 Nitro+, Crucial MX 512Gb + 2Tb, Seagate SSHD 2TB, Creative SoundBlaster Zx, Razer Blackwidow Stealth 2016, Logitech G703, DELL S2721DGF, ASUS VG248QE
Anoniem: 45027
Als je een normale 6800 haalt, de AGP versie. En je unlockt een aantal pipes. Krijg je dan niet problemen met het feit dat er maar 1 molex connector op zit?
Slotje?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb nu de 71.20 drivers.
Maar nu ben ik dat tabblad in de nvidia menu van de driver kwijt,
waar je de refresh rate kon instellen.
Nu draait CoD weer op 60 Hz.
Hoe krijg ik dat tabblad weer terug ?
Maar nu ben ik dat tabblad in de nvidia menu van de driver kwijt,
waar je de refresh rate kon instellen.
Nu draait CoD weer op 60 Hz.
Hoe krijg ik dat tabblad weer terug ?
FF naar deel 13!!M55 schreef op woensdag 15 december 2004 @ 18:03:
Ik heb nu de 71.20 drivers.
Maar nu ben ik dat tabblad in de nvidia menu van de driver kwijt,
waar je de refresh rate kon instellen.
Nu draait CoD weer op 60 Hz.![]()
Hoe krijg ik dat tabblad weer terug ?
CoD springt altijd op 60HZ. Moet je refreshlock of refreshforce gebruiken
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Ik zou graag een nieuw kaartje (GF6-serie) kopen, maar zie door de bomen het bos niet meer. De enige leverbare dingen op dit moment lijken 6600's voor PCIe en 6800's voor AGP. Mijn volgende bord wordt een nForce4, dus PCIe is een must.
Ik zou het dingetje graag zo ver mogelijk OC'en (er komt een Dangerden-waterblokje op dus
) / unlocken. Wacht ik best op de 6800 in PCIe-smaak (die ging toch ook komen?) of moet een 6600(GT) ook lukken? Het 6600GT topic zegt dat als je wil OC'en je beter af bent met een 6800LE, maar waarom dat is legt men niet verder uit
Ik zou het dingetje graag zo ver mogelijk OC'en (er komt een Dangerden-waterblokje op dus
Dit topic is gesloten.