Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Verwijderd
(ik hoop trouwens niet dat die ATI x850 werkelijk 20% tot 50% sneller is dan de geforce 6800 ultra. Heb je net een nieuwe kaart, is hij meteen weer verouderd als het ware... Is gewoon niet leuk meer voor je portemonaie als er iedere paar maanden een 20-50% snellere kaart op de markt komt. Waarom laten ze het niet een poosje rusten nu?).
[ Voor 57% gewijzigd door Verwijderd op 26-11-2004 13:03 ]
Verwijderd
als je een nforce4 bordje wilt halen , wil je natuurlijk ook de snelste videokaart ter beschikking .
[ Voor 40% gewijzigd door Verwijderd op 26-11-2004 14:08 ]
Verwijderd
Hier is alle informatie die je nodig hebtVerwijderd schreef op vrijdag 26 november 2004 @ 14:01:
wanneer komt die 6800GT PCIe in de winkel, tot nu zie ik alleen maar AGP versies.
als je een nforce4 bordje wilt halen , wil je natuurlijk ook de snelste videokaart ter beschikking .
Ik ga anders voor de nforce 4 met AGP hoorVerwijderd schreef op vrijdag 26 november 2004 @ 14:01:
wanneer komt die 6800GT PCIe in de winkel, tot nu zie ik alleen maar AGP versies.
als je een nforce4 bordje wilt halen , wil je natuurlijk ook de snelste videokaart ter beschikking .



[ Voor 28% gewijzigd door ManiacScum op 26-11-2004 14:57 ]
[ Voor 38% gewijzigd door DaWaN op 26-11-2004 15:25 ]
If you do not change direction, you may end up where you are heading
Beter lezen. Er staat Beschikbaarheid: Niet beschikbaar vandaag. 92 stuks 2005-01-03 (niet bevestigd)DaWaN schreef op vrijdag 26 november 2004 @ 15:24:
Komplett heeft de A8N-SLI deluxe nu op vooraadDus nu kunnen we eens ervaringen van tweakers horen met SLI
Intel Core i7-6700 | 16 GB | GeForce GTX1060 6 GB | 850 EVO 500 GB SSD + 1 TB HDD | 34" QHD | Logitech G5 | Win10 Pro x64
Apple iPad 2025 128 GB | Apple iPhone 15 Pro 128 GB | Sony 49" 4K Android TV | Sony 5.1 Blu-Ray home cinema
http://forums.nvidia.com/
Alle technische vragen, problemen etc kunnen nu rechtstreeks aan nVidia worden bekend gemaakt en medewerkers kunnen nu eindelijk ook geoorloofd reageren op de forums.
Misschien handig om dit ook de firstpost op te nemen?
[ Voor 11% gewijzigd door CJ op 26-11-2004 17:08 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
het is bewezen dat AGP nog steeds net iets sneller is. PCI-E begint zich nu pas echt te ontwikkelen en AGP zal nog een HELE poos meegaan hoor.Verwijderd schreef op vrijdag 26 november 2004 @ 13:01:
Kun je beter nu een 6800 GT (pci-express) kopen en dan over ene paar jaartjes, als de kaart een stuk goedkoper is, een tweede erbij poten.
(ik hoop trouwens niet dat die ATI x850 werkelijk 20% tot 50% sneller is dan de geforce 6800 ultra. Heb je net een nieuwe kaart, is hij meteen weer verouderd als het ware... Is gewoon niet leuk meer voor je portemonaie als er iedere paar maanden een 20-50% snellere kaart op de markt komt. Waarom laten ze het niet een poosje rusten nu?).
Ik wacht net zoals Rekkie fijn op de nForce4 AGP mobo's. En SLI........wie gaat dat nou gebruiken? Er is wel een markt voor, maar nog neit nu.
Dacht je nou werkelijk dat de X850 echt 20% sneller zou zijn? Ik vind dat je als videokaart producent echt moet uitkijken met deze uitspraken. Puur theorie en voor mij dus bullcrap. 20% sneller.........yeah right........
Volgens mij is het het te vergelijken met het verschil tussen de 5900Ultra en de 5950Ultra.
ik moet het nog zien en ik verheug me op het tijdperk dat SM3.0 echt een rol gaat spelen
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Dan kun je volgens mij lang wachten, want voor zover ik weet komt er geen nForce4 met AGP. Dus zul je het met een nForce3 moederbord moeten doen.Deathchant schreef op vrijdag 26 november 2004 @ 17:09:
[...]
Ik wacht net zoals Rekkie fijn op de nForce4 AGP mobo's. En SLI........wie gaat dat nou gebruiken? Er is wel een markt voor, maar nog neit nu.
Verwijderd
En jij weet blijkbaar niet echt veel heh........dus hou je post voortaan ff in je binnenzakbiobak schreef op vrijdag 26 november 2004 @ 17:23:
[...]
Dan kun je volgens mij lang wachten, want voor zover ik weet komt er geen nForce4 met AGP. Dus zul je het met een nForce3 moederbord moeten doen.
Klik maar hier op dan leer je nog eens wat
De moderator heeft weeer gesproken
[ Voor 5% gewijzigd door Verwijderd op 26-11-2004 19:11 ]
Er zijn er 2 in nederland, Coen Krijns van HWI heeft er een en ik heb er een, Anandtech had het over een eerder exemplaar, hij heeft nu ook een nieuwere versie, de versie die de pers nu gebruikt is geen beta bord meer maar een retail versie.Stinger666 schreef op vrijdag 26 november 2004 @ 02:05:
[...]
Hoe kom je in hemelsnaam al Freelancer aan die plank (A8N-SLI Deluxe). Anandtech had al moeite 1 van de 10 werkende exemplaren op aarde in handen te krijgenHeb je hem gekocht of geleend onder voorbehoud? Die plank is om af te fakkelen met een dikke CPU en een prom
Kun je wat zeggen over twee 6600GT in SLI. Ik twijfel, want twee 6600GT in SLI is goedkoper dan een 6800Ultra in zn eentje. Maar is het even snel. Soms lees ik van wel soms weer van niet
preformance van de 6600gt viel wat tegen in sli, moet nog uitzoeken waar dat aan ligt, ben nu even 6800GT SLI aan het testen met een Athlon 64 4000+, eerst even kijken wat er met dit systeem voor score's te halen valt.
jammer dat ik hier alleen een stock cooler voor de cpu heb. mijn Watercooling ga ik niet even over zetten natuurlijk
Verwijderd
Zoals gewoonlijk laten de meeste sites de min. fps niet zien in hun benches, Hardocp doet dit wel, zelfs uitgewerkt in real-time grafieken. Ze komen dan tot de volgende conclusie (imho valt de prestatie van 2 GT's tegen als je dit afzet tegen één XTPE, er is enkel een duidelijke winst in D3):Dat het extreem duur is en voor sommigen het geld niet waard is, is persoonlijk.
Ik zou dan wel 2 6800 GT's nemen ipv 2 ultra's.

http://www.hardocp.com/article.html?art=Njk2
[ Voor 79% gewijzigd door Verwijderd op 26-11-2004 19:41 ]
Wat voor'n merk 6800GT's zijn dat dan? Ik ben zelf namelijk op zoek naar een PCIe 6800GT, maar ik ben nog geen merk tegengekomen die ze daadwerkelijk verkoopt.GfMike schreef op vrijdag 26 november 2004 @ 19:22:
[...]
Er zijn er 2 in nederland, Coen Krijns van HWI heeft er een en ik heb er een, Anandtech had het over een eerder exemplaar, hij heeft nu ook een nieuwere versie, de versie die de pers nu gebruikt is geen beta bord meer maar een retail versie.
preformance van de 6600gt viel wat tegen in sli, moet nog uitzoeken waar dat aan ligt, ben nu even 6800GT SLI aan het testen met een Athlon 64 4000+, eerst even kijken wat er met dit systeem voor score's te halen valt.
jammer dat ik hier alleen een stock cooler voor de cpu heb. mijn Watercooling ga ik niet even over zetten natuurlijk
L E Z E N. In dat artikel wordt het woord AGP niet eens genoemd.Verwijderd schreef op vrijdag 26 november 2004 @ 19:10:
[...]
En jij weet blijkbaar niet echt veel heh........dus hou je post voortaan ff in je binnenzak
Klik maar hier op dan leer je nog eens wat
De moderator heeft weeer gesproken
http://www.digit-life.com/news.html?109024#109024biobak schreef op vrijdag 26 november 2004 @ 19:42:
[...]
L E Z E N. In dat artikel wordt het woord AGP niet eens genoemd.
Hier staat wel het een en ander.
Maar op de nVidia site is 0,0 informatie terug te vinden over de integratie van agp in de Nforce4. Dus eerst het boord zien dan geloven
http://www.newegg.com/app...ription=14-150-081&depa=1
Zodra ik de standaard benchmarks heb gedaan zak ik AA8x eens teten in HL2 en FC.Verwijderd schreef op vrijdag 26 november 2004 @ 19:27:
GFMike, maakt Sli het mogelijk om met 8xAA te spelen @1280 in recente spellen? (bijv. HL2, FC, Joint operations etc.)
Joint operations heb ik niet.
momenteel ziet het er naar uit dat ik ongeveer het zelfde haal qau fps in Half-life 2 als Anandtech, heb dan ook ongeveer een gelijke configuratie
Rechtstreeks van nVidia zelf, referentie modelen dus. niet te koop maar speciaal voor reviewers.AquilaDus schreef op vrijdag 26 november 2004 @ 19:39:
[...]
Wat voor'n merk 6800GT's zijn dat dan? Ik ben zelf namelijk op zoek naar een PCIe 6800GT, maar ik ben nog geen merk tegengekomen die ze daadwerkelijk verkoopt.
Ik verwacht dat de 6800GT PCI-e pas ergens in januari goed leverbaar is, zelfs voor een reviewer is het bijna onmogelijk om die dingen goed te krijgen.
Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos
Verwijderd
Dat ligt er gewoon aan wat je precies eist als gamer. Ik bedoel, ik was gewend om te gamen met een snelheid van rond de 30 fps met mijn oude ti 4200. heb nu een single 6800 GT (agp variant) en daarmee speel ik half-life 2 gewoon goed op 8xaa / 16xaf. Haal dan ook zo rond de 30 fps voor mn gevoel. In elk geval goed speelbaar. Ik gebruik daarbij driver 67.02 .Verwijderd schreef op vrijdag 26 november 2004 @ 19:27:
GFMike, maakt Sli het mogelijk om met 8xAA te spelen @1280 in recente spellen? (bijv. HL2, FC, Joint operations etc.)
De andere onderdelen van mijn systeem die relevant zijn voor de snelheid in games zijn:
Audigy 2 ZS geluidskaart
1024 mb DDR 400 geheugen
AMD Athlon 3200+ (800mhz fsb, 2,2 ghz, 512kb cache, socket 754 versie)
MSI K8N Neo Platinum moederboord met Nforce 3 chipset
20% winst voor de X850 lijkt me helemaal niet zo raar hoor. Als we beide kaarten naast elkaar zetten en aannemen dat de architectuur van beiden gelijk is, dan is de kloksnelheid van de X850 >20% hoger en dus de fillrate hoger. Komt dan nog bij dat de architectuur dus helemaal niet gelijk is en de X-Series blijkbaar sneller met een aantal shaders is. Dat wordt alleen nog maar versterkt naarmate de processors sneller worden, omdat de X800XT-PE ook nog vaak genoeg CPU-limited is.
2x 6800 in SLI ziet er toch wel lekker uit, maar ik denk dat CPU-SLI, Dual-Core-plaksetje, CPU-pijplijn-verlengstuk met opgevoerde MP en FSB... afijn, de CPU's zijn gewoon te sloom voor dit geweld
Waar blijft die nieuwe startpost CJ...?
Ik meld de laatste tijd weinig, maar lees nog steeds alles hoor
Dit is te wijten aan de leraren... ja, álle leraren! (en HL2 misschien... mja...)
Voor nexxexium nog één keer het advies om gewoon niet te reageren als je iemand niet kan/wil helpen of niks zinnigs te melden hebt. Overigens is het wel zo dat er soms inderdaad vragen worden gesteld die absoluut door de vrager zelf te beantwoorden zijn. Dat is bekend en dat blijft voorkomen zolang de "nieuwetweaker mentaliteit" niet veranderd. Een MED'je zou misschien wel fijn zijn.
Voor mensen die zich aangesproken voelen: probeer nog eens te Googlen met alle informatie die je hebt. Kom je er helemaal niet uit, zoek dan op GoT en open daarna een nieuw topic met alle informatie die je hebt.
Verwijderd
Dat staat in dit geval in direct verband met de clocksnelheid denk ik. De shaders van ATI zijn namelijk niet persee beter volgens mij. De 6800 ultra kan de Radeon x800xt aardig bij benen en dat met een 100 mhz lagere klocksnelheid. Een 6800 Ultra op 500 mhz clocksnelheid zal het winnen van de radeon op deze snelheden....dus helemaal niet gelijk is en de X-Series blijkbaar sneller met een aantal shaders is....
3d mark 05 score
6800 GT 350 / 1000 mhz: +- 4500 punten op mijn systeem
6800 GT 400 / 1100 mhz +- 5050 punten op mijn systeem
6800 GT 425 / 1100 mhz +- 5400 punten op mijn systeem
*Mijn systeem is voornamelijk een amd athlon 64 3200+ met 1024 mb geheugen (ddr 400).
De laatste 25 mhz levert +-350 extra punten op. Om op 500 mhz uit te komen heb je nog eens 75 mhz extra nodig. Dat is 3x 25. 350x3 = 1050. Dus dan zou de 3d mark 05 score op +- 6200-6400 punten komen... Dat is meer dan de ati x800 xt haalt geloof ik...
Jammer alleen dat Nvidia deze klocksnelheden momenteel niet haalt. Dus x800xt / pe is/zijn op dit moment sneller. Maar dat ligt dus aan de hogere klocksnelheid.
-----------------------------------------------------------------------
Ik krijg overigens de klocksnelheid niet hoger dan 425 mhz voor de core en 1110 mhz voor het geheugen bij mijn 6800 GT videokaart. Bij een hogere waarde voor de core bijv. 430 mhz, dan loopt 3d mark 03 op een willekeurig moment vast. De test in rivatuner geeft echter geen foutmelding.... Kan mijn kaart gewoon niet hoger, of ligt het aan wat anders? In rivatuner krijg ik pas een error bij de test na 455 mhz voor de core

[ Voor 27% gewijzigd door Verwijderd op 27-11-2004 00:29 ]
Graag gedaan.IceEyz schreef op vrijdag 26 november 2004 @ 23:19:
Zal maar even melden dat er een linkje is toegevoegd aan de startpost... (danku CJ)
Ik vind 20% nog best wel veel voor zo'n kleine boost in Mhz bij de X850XT PE. Maar de eerste geruchten zeggen dat er wat dingen getweaked en gefixed zijn. En in veel benchmarks zie je dat de X800 serie zeer ver onder de maximum fillrate scoort. Misschien dat ze dit 'gefixed' hebben in de nieuwe serie en daardoor aan die 'hogere' scores komen?20% winst voor de X850 lijkt me helemaal niet zo raar hoor. Als we beide kaarten naast elkaar zetten en aannemen dat de architectuur van beiden gelijk is, dan is de kloksnelheid van de X850 >20% hoger en dus de fillrate hoger. Komt dan nog bij dat de architectuur dus helemaal niet gelijk is en de X-Series blijkbaar sneller met een aantal shaders is. Dat wordt alleen nog maar versterkt naarmate de processors sneller worden, omdat de X800XT-PE ook nog vaak genoeg CPU-limited is.
offtopic:
Waar blijft die nieuwe startpost CJ...?
Die bewaar ik voor 30 November
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Tip van de week: ctrl+fbiobak schreef op vrijdag 26 november 2004 @ 19:42:
[...]
L E Z E N. In dat artikel wordt het woord AGP niet eens genoemd.
Dat was gewoon een gerucht van 3 maanden geleden gelanceerd op een of ander frans forum oid. Verder nergens op gebaseerd en zeker niet bevestigd door nVidia.
AGP = nForce3
PCI-e = nForce4
SLI komt pas goed uit de verf met 1600x1200 AA4x AF8x/16x
op deze resolutie heeft mijn voorkeur overigens AA2x AF16x. ik gebruik een iiyama Prolite E511S. voor mensen die een TFT hebben die geen 1600x1200 aan kan is SLI niet echt itteressant IMHO, 1280x1024 AA4x AF8x kan je de meeste games ook wel spelen met een Single 6800GT of X800XT, daar heb je geen SLI voor nodig.
tenzij je AF16x wilt.
Ik heb UQ 1024x768 met AA 8x gerpobeerd in Doom 3, hierbij AA van DOOM 3 gebruikt en niet die van de drivers.
singel 6800GT 27,7FPS
SLI 6800GT 50,3FPS
zelfs voor SLI is AA8x met doom 3 op die lage resolutie te veel van het goede.

Sorry dat ie zo breed is
[ Voor 11% gewijzigd door JanW op 27-11-2004 18:19 ]
Verwijderd
Hard lachen?unfor schreef op zaterdag 27 november 2004 @ 18:37:
leuk, maar wat moeten wij daarmee eposs?
Ik vind het zelfs hoog voor zo'n trage donder als een FX5200.Ep0ss schreef op zaterdag 27 november 2004 @ 18:15:
FF een post met plaatje van mij resultaten met mijn Geforce FX5200 256 mb van Club3d. 't Is vrij laag volgens mij ( weet ik wel zeker). Ach ja, kijk zelf maar.
[afbeelding]
Sorry dat ie zo breed is.
Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos
Ben je gek... veel meerVerwijderd schreef op zaterdag 27 november 2004 @ 22:15:
Koop jezelf een geforce 6800 LE en je gaat er 10x in snelheid op vooruit....
Verwijderd
[ Voor 20% gewijzigd door Verwijderd op 28-11-2004 00:12 ]
Kga al een AOpen Aeolus 6800 GT kopen, geen LE.Verwijderd schreef op zondag 28 november 2004 @ 00:11:
Als je hem mod wel ja, maar ik duide op de ongemodde versie... heb der zelf zo een gehad, een 6800 LE. Een prima kaart was dat, helemaal voor zijn geld!
welke variantEp0ss schreef op zondag 28 november 2004 @ 14:20:
[...]
Kga al een AOpen Aeolus 6800 GT kopen, geen LE.
de DDR1 @ 128MB of DDR3 @ 256MB
Verwijderd
Ik zit er ook over te denken om een 6800 GT te kopen. Om eerlijk te zijn denk ik dat ik ga voor de 128 MB variant. Als je namelijk hier kijkt, dan blijkt dat de 256 MB variant maar zo'n 5 FPS wint tov de 128 MB variant. (in Doom 3, 1280x1024)Movinghead schreef op zondag 28 november 2004 @ 15:52:
[...]
welke variant
de DDR1 @ 128MB of DDR3 @ 256MB
Dat vind ik niet genoeg om er zoveel extra voor te betalen. Wat denken jullie?
Verwijderd
Ik denk dat je toch beter voor een 256mb versie kan gaan, Mits het niet meer dan 50 a 60 euro scheelt. De 128mb extra geheugen komt je bij vooral de hogere resoluties goed van pas. Kijk maar eens naar wat benchmarks wat er met de gewone 6800 (NU) gebeurt als deze bijv. in 1600x1200 modus draait. De framerate zakt dramatisch in door het tekort aan geheugen bij moderne games.Verwijderd schreef op zondag 28 november 2004 @ 16:16:
[...]
Ik zit er ook over te denken om een 6800 GT te kopen. Om eerlijk te zijn denk ik dat ik ga voor de 128 MB variant. Als je namelijk hier kijkt, dan blijkt dat de 256 MB variant maar zo'n 5 FPS wint tov de 128 MB variant. (in Doom 3, 1280x1024)
Dat vind ik niet genoeg om er zoveel extra voor te betalen. Wat denken jullie?
@ EpOss --> Goede keus. Ikzelf heb inmiddels ook een 6800 GT 256mb (van xfx) en deze is behoorlijk sneller dan de 6800 LE was. Vooral op hoge resoluties... Wat denk je van 30 tot 60 keer sneller dan je fx 5200?
[ Voor 11% gewijzigd door Verwijderd op 28-11-2004 18:37 ]
MSI GeForce 6800 GT 256MB DDR3 ( 2 powerconnectors )
Point of View GeForce 6800 GT 256MB DDR3 ( 1 powerconnector )
XFX GeForce 6800 GT 256MB DDR3 ( 1 powerconnector, dual DVI )
Welke van deze is nu het verstandigste om aan te schaffen??
[ Voor 44% gewijzigd door Movinghead op 28-11-2004 20:26 ]
maar goed. Er heeft dus wel degelijk op tweakers gestaan dat er een nForce4 met AGP komt
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Verwijderd
ikzelf heb de XFX 6800 GT dual DVI versie. De kaart bevalt me erg goed. De kaart kan ik makkelijk op 425 mhz voor de core en 1120 mhz voor het geheugen laten lopen (met 1 powerconnector). Dan is de kaart erg snel en haal je rond de 12500 punten in 3d mark 03 (met athlon 64 3200+ en 1 gyg ddr 400 geheugen). De kaart laat ik voorlopig wel op stock speeds lopen, aangezien de extra snelheid te verkrijgen door overklokken nog niet echt nodig is voor de huidige games.
Voeg de Aopen Geforce 6800GT 256MB DDR3 (1 powerconnector) maar aan je lijstje toeMovinghead schreef op zondag 28 november 2004 @ 19:00:
Club3D GeForce 6800 GT 256MB DDR3 ( 1 powerconnector )
MSI GeForce 6800 GT 256MB DDR3 ( 2 powerconnectors )
Point of View GeForce 6800 GT 256MB DDR3 ( 1 powerconnector )
XFX GeForce 6800 GT 256MB DDR3 ( 1 powerconnector, dual DVI )
Welke van deze is nu het verstandigste om aan te schaffen??
En ik heb m ook gekocht, hij bezit 1x DVI uitgang 1x analoge monitor uitgang en 1x tv-out.
Ik heb zaterdag gebeld met de winkel waar ik hem vandaan heb en deze zei dat ik hem terug kon sturen voor vervanging wanneer ik zeker wist dat het niet door slechte airflow kwam. Daar testen ze hem namelijk een tijdje met 3DMark 2005 om te testen of de kaart goed is. Nu heb ik zelf ook maar een uurtje 3DMark 2005 gedraait maar krijg de temperatuur niet meer zo hoog. Ook wanneer ik nu weer Half life 2 speel blijft de temperatuur laag.
Wat is wijsheid? Terugbrengen en een andere kaart kopen? Omruilen voor een nieuwe 6600GT? Kost me weer een fortuin aan verzendkosten...
Is er iemand anders met dezelfde problemen?
[ Voor 3% gewijzigd door Shemez op 28-11-2004 21:08 ]
Verwijderd
[ Voor 6% gewijzigd door Verwijderd op 28-11-2004 21:47 ]
DDR3 @ 256MBMovinghead schreef op zondag 28 november 2004 @ 15:52:
[...]
welke variant
de DDR1 @ 128MB of DDR3 @ 256MB
30 tot 60Verwijderd schreef op zondag 28 november 2004 @ 18:34:
[...]
@ EpOss --> Goede keus. Ikzelf heb inmiddels ook een 6800 GT 256mb (van xfx) en deze is behoorlijk sneller dan de 6800 LE was. Vooral op hoge resoluties... Wat denk je van 30 tot 60 keer sneller dan je fx 5200?
Verder bedankt voor jullie reacties
Ontopic: http://www.cool-prices.nl/product_detail.php?id=1444. Dit is de kaart die ik wil kopen, dit is volgens jullie een goede kaart. Toch??? Want ik wil 't wel zeker weten, niet dat 't dadelijk niet goed is.
[ Voor 76% gewijzigd door JanW op 29-11-2004 09:32 ]
bedankt
Bekijk dit topic eens, daar komt je vraag ter spraken in de startpost!dimane schreef op maandag 29 november 2004 @ 09:39:
heey mensen ik heb niet zoveel verstand van videokaarten ofzo maar kan ik mijn gewoone xfx 6800 overkocken naar een gt of ultra ik heb hier wel vaag over gehoort maar kan iemand me een linkje geven ofzo hoe en wat ik dan moet doen?
bedankt
Het 6800LE topic Deel 11
Verwijderd
Ben je zeker dat de MSI altijd 2 powerconnectors heeft?Movinghead schreef op zondag 28 november 2004 @ 19:00:
Club3D GeForce 6800 GT 256MB DDR3 ( 1 powerconnector )
MSI GeForce 6800 GT 256MB DDR3 ( 2 powerconnectors )
Point of View GeForce 6800 GT 256MB DDR3 ( 1 powerconnector )
XFX GeForce 6800 GT 256MB DDR3 ( 1 powerconnector, dual DVI )
Welke van deze is nu het verstandigste om aan te schaffen??
edit: de MSI heeft dus maar 1 powerconnector, de foto op de site van MSI is een ultra.
Dit is de echte MSI GT:

[ Voor 17% gewijzigd door Verwijderd op 30-11-2004 00:07 ]
Specs Asus 6800 Gamers Edition :
256 mb DDR3 geheugen
loopt op 350/1000
Maar heeft maar 12 pipes open!
Dat is dus ook meteen de reden dat ie goedkoper is als een normale GT .
Iedereen die zo'n ding heeft, heeft de laatste 4 pipes open gekregen.
(waarna je dus een gewone GT hebt voor minder geld)
Zouden mensen hier op GOT met deze GE in hun bezit kunnen posten of ze de 4 pipes open hebben gekregen?
Heb zelf het idee dat asus alleen de betere yields opkoopt ofzo.....
There are 10 types of people in this world, those who understand binary and those who don't
als ze écht allen betere yields kopen (zijn duurder, toch?) is het natuurlijk dom om daar juist een GE van te maken (aangezien die dan weer unlocked worden en de GT markt kunnen verpesten)[b][message=22237319,noline]chrisstructor schreef op maandag 29 Heb zelf het idee dat asus alleen de betere yields opkoopt ofzo.....
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Verwijderd
Begint mijn videokaart slijtage te vertonen? Ik heb een Nvidia GeForce Ti 4400 ( 128 MB ). Altijd een prima kaartje geweest, maar de laatste paar weken merk ik dat m'n beeld steeds donkerder wordt. Ik heb in de eigenschappen de brightness al een flink stuk omhoog moeten zetten en filmpjes kijken of een wallpaper maken is bijna geen doen meer, want het beeld is erg donker.
Help?
Verwijderd
225 punten x 10 = 2250 punten... x2 = 4500 punten. is 20x sneller standaard. Op hoge resoluties gaat het 256MB geheugen een rol spelen en dat scheelt ook behoorlijk. Oké, 60x is ver overdreven, maar rond de 30x kom je wel (vooral op hoge resoluties)30 tot 60. Ik wist dat mijn kaart niet echt meer state of the art was, maar 60 keer sneller
. Wat is de gemiddelde score van zo'n kaart bij 3Dmark05???
Verder bedankt voor jullie reacties.
Ik ben van plan hem halfweg januari begin februari te gaan kopen, dan heb ik nog genoeg bedenktijd als ik evt een andere kaart tegen kom. Maar mij gaat 't er vooral om dat ik er een gigantisch stuk op vooruit ga en dat ik ongeveer een jaartje of 2 meekanVerwijderd schreef op maandag 29 november 2004 @ 20:24:
[...]
225 punten x 10 = 2250 punten... x2 = 4500 punten. is 20x sneller standaard. Op hoge resoluties gaat het 256MB geheugen een rol spelen en dat scheelt ook behoorlijk. Oké, 60x is ver overdreven, maar rond de 30x kom je wel (vooral op hoge resoluties). De games zul je volluit kunnen draaien etc. met AA en AF bij alle games die nu uit zijn. Als ik jouw was zou ik echter even een paar dagen wachten tot de ATI X850 uit is (=woensdag) om te kijken wat die gaat doen (of die echt veel sneller is) en of er over een maand of zo de prijzen daardoor gaan zakken...
Edit: Iemand interessen in een fx5200 256mb van club 3d? 35 euro
[ Voor 4% gewijzigd door JanW op 30-11-2004 16:05 ]
Ati 9800(pro) is ook een optie...
de 6600 is alleen nu nog duur voor agp...
Verwijderd
Als je niet voor de 6xxx serie gaat maar twijfelt tussen een 5900 en een 9800pro dan hoef je niet lang na te denken; in DX9.0 (nieuwe spellen dus) is de 9800Pro twee maal beter.B_FORCE schreef op dinsdag 30 november 2004 @ 18:47:
ik zit te twijfelen of ik een Nvidia FX5900 of een 6600 te nemen
Ati 9800(pro) is ook een optie...
de 6600 is alleen nu nog duur voor agp...
ik kan ook een 6800 LE nemen is die veel langzamer als de andere kaarten....
[ Voor 34% gewijzigd door B_FORCE op 30-11-2004 19:12 ]
Verwijderd
Hij daalt vast wel in prijs als je nog tot Februari / maart kunt wachten. Ik zou voor de 6600 GT / 6800 LE gaan. Ook met de huidige prijzen.B_FORCE schreef op dinsdag 30 november 2004 @ 19:00:
maar zou die 6600 nog in prijs dalen (en anders, wat zijn goeie mobo's met pcie erop?)
ik kan ook een 6800 LE nemen is die veel langzamer als de andere kaarten....
voor rond de 200 (was eerst wel zo, volgens et 6800LE topic)
(waarom is er bij sommige winkels overleg nodig, met de 6800 (kast meenemen etc)?'
[ Voor 62% gewijzigd door B_FORCE op 30-11-2004 19:26 ]
Verwijderd
Als niemand me hier kan helpen, kan iemand me dan naar de juiste thread voor dit probleem doorverwijzen? ThanksVerwijderd schreef op maandag 29 november 2004 @ 19:49:
Hopelijk zit ik in het goede topic
Begint mijn videokaart slijtage te vertonen? Ik heb een Nvidia GeForce Ti 4400 ( 128 MB ). Altijd een prima kaartje geweest, maar de laatste paar weken merk ik dat m'n beeld steeds donkerder wordt. Ik heb in de eigenschappen de brightness al een flink stuk omhoog moeten zetten en filmpjes kijken of een wallpaper maken is bijna geen doen meer, want het beeld is erg donker.
Help?
Verwijderd
Ja, eerst was hij leverbaar voor 199 euro bij veel shops. Ik heb er zelf in der tijd ook in gekocht. Een dijk van een kaart was dat! Alleen de LE ging stuk, waardoor weet ik nog steeds niet. Toen ik de kaart terug bracht en hem wilde ruilen hadden ze geen 6800 LE kaarten meerB_FORCE schreef op dinsdag 30 november 2004 @ 19:22:
mm, de 6800 LE is alleen bijna nergens (meer ) te vinden....
voor rond de 200 (was eerst wel zo, volgens et 6800LE topic)
(waarom is er bij sommige winkels overleg nodig, met de 6800 (kast meenemen etc)?'

Mocht je een 6800 LE kunnen vinden (voor rond de 199 - 220 euro) dan raad ik je deze echt aan. Alleen 2e hands kopen zou ik vermijden aangzezien het dan vaak gaat om de niet modbare 6800 le.
-----------------------------------------------------------------------------
@suzy, Ik heb geen idee. Wordt je kaart erg heet tijdens het gamen? Wellicht een probleempje met de koeler? Heb he al andere drivers geprobeerd en dan niet alleen 6x.xx drivers, maar ook oudere uit de 5x.xx of 4x.xx reeks? Weet je zeker dat het aan de videokaart ligt en niet aan de monitor (testen op andere monitor)?
[ Voor 21% gewijzigd door Verwijderd op 30-11-2004 20:46 ]
Kan het zijn dat je monitor aan het overlijden is? CRT schermen verliezen hun brightness na verloop van tijd en daar kun je niks aan doen. Je zou nog kunnen proberen een andere videokaart te proberen helpt dit niet dan is je monitor aan vervanging toe.Verwijderd schreef op dinsdag 30 november 2004 @ 20:18:
[...]
Als niemand me hier kan helpen, kan iemand me dan naar de juiste thread voor dit probleem doorverwijzen? Thanks
dan toch nog de twijfel, 6800 LE of ee ATI 9800 pro
Verwijderd
6800 LE. Standaard even snel, maar heeft een veel groter overklock / mod potentieel. Daarnaast word pixel shader model 3 ondersteund door de geforce 6xxx. De radeon 9800 pro kan alleen maar shader model 2.0 (ook geen 2.0b).B_FORCE schreef op dinsdag 30 november 2004 @ 21:40:
mm, ik zag nog een aanbieding bij een winkel. .... was van XFX gloof ik
dan toch nog de twijfel, 6800 LE of ee ATI 9800 pro
[ Voor 18% gewijzigd door Verwijderd op 30-11-2004 21:57 ]
Hoort deze cooler zoveel herrie te maken ? Ik zit eraan te denken de cooler te vervangen door een stillere, iets met heatpipes oid. Zijn er al mensen die deze cooler hebben vervangen die een MSI K2 NEO MB hebben ? Volgens mij is er erg weinig ruimte om hier wat mee te doen
Verwijderd
heeh de 6800GT is een prima kaartje hoor, hier ook een erg blije gebruiker er vanVerwijderd schreef op dinsdag 30 november 2004 @ 20:43:
.
[...]
Ja, eerst was hij leverbaar voor 199 euro bij veel shops. Ik heb er zelf in der tijd ook in gekocht. Een dijk van een kaart was dat! Alleen de LE ging stuk, waardoor weet ik nog steeds niet. Toen ik de kaart terug bracht en hem wilde ruilen hadden ze geen 6800 LE kaarten meer. Ben toen maar voor een 6800 GT gegaan
en ook daar heb ik nog geen spijt van (tot de x850 morgen gereleased wordt
).
Niemand dus??? Of moet ik dit ergens anders postenEp0ss schreef op dinsdag 30 november 2004 @ 16:04:
[...]
Edit: Iemand interessen in een fx5200 256mb van club 3d? 35 euro
Ik wilde de XFX, dual dvi, maar is zeer slecht te verkrijgen op dit moment

In de toekomst wil ik dus die aparte koelunit die in het begin van dit topic genoemd wordt, erop te zetten. Lukt dit met 2 connectoren?
Welke is de beste keuze?
Verwijderd
35 euro, lol! Die raak je echt wel kwijt voor die prijs, maar niet aan de tweakers ben ik bang. Die eisen echte 3d kaartenEp0ss schreef op woensdag 01 december 2004 @ 11:49:
[...]
Niemand dus??? Of moet ik dit ergens anders posten???
[rml]Tutti-frutti in "[ Ervaringen] MSI K8N Neo2 (-54G) deel 4"[/rml]Bartoz schreef op woensdag 01 december 2004 @ 10:01:
Gister de PoV GF 6800 GT binnen gekregen. Goede kaart, maar klinkt als een stofzuiger.
Hoort deze cooler zoveel herrie te maken ? Ik zit eraan te denken de cooler te vervangen door een stillere, iets met heatpipes oid. Zijn er al mensen die deze cooler hebben vervangen die een MSI K2 NEO MB hebben ? Volgens mij is er erg weinig ruimte om hier wat mee te doen
Verwijderd
Ik ben asus fan dus zou zelf gaan voor de ASUS GamersEdition.
En die koelunit waar je het over hebt bedoel je mischien de Artic NV Silencer 5 ? Die past wel op de dual PowerConector kaarten ja. Dat staat in ergens in Deel 9 of 10 een uitgebreide foto reportage
Zelf vroeg ik me af of er iemand is die weet of er al ergens in west europa een
Nvidia Geforce 6800 Ultra AGP based videokaart tekoop was/is.
w8 al tijdje (4.5mnd)
De performance is over het algemeen maar net iets beter dan dat van de Ultra maar daardoor zijn ze meerdere voordelen kwijtgeraakt, zoals dat de X850XT PE meer energie zuipt dan de Ultra, nu ook dual slot koeling heeft, en meer dan 50 euro duurder is.
De X850 Pro, die ook 400 euro kost en nog steeds minder presteerd dan de GT stelt ook flink teleur.
Alleen de X800XL, die 350 euro moet gaan kosten en tussen de X850Pro en de GT presteerd, kon mij een beetje verrassen.
Ik hoop voor Ati dat Nvidia niet snel met een 6850Ultra/6900Ultra komt.
Verwijderd
Ik weet niet of iemand al zo gek is geweest om een ATI demo te draaien op een geforce kaart, maar..... De ATI Crytec Demo 'The project' draait vloeiend op mijn geforce 6800 GT op 1024x768 met 4xaa. Ik heb hem niet gebenched, maar alles ziet er erg strak uit.
Je kan hem hier downloaden: http://www.ati.com/gitg/promotions/crytek/index.html .
Veel kijk plezier (het is een self-running demo)!
(Het laden van de demo duurt wel erg lang en zet AA en AF in de drivers op application controlled).
Benchmark results:
Getest met Fraps (niet het beste programma, ik weet het... maar het geeft wel een indicatie aan)
Bij een tweede test vielen mijn scores iets lager uit. De scores heb ik dan ook gewijzigd in de laagste waardes.
Test systeem:
AMD Athlon 64 3200+ (2,2 ghz version - 512 kb cache)
1024 mb ddr 400 mhz
Soundblaster audigy 2 ZS
MSI K8N Neo Platinum with Nforce 3 chipset
Test settings:
1024 x 768
4xaa / 8xaf
6800 GT @ Default zonder HDR:
Min. 16 FPS
Max. 56 FPS
6800 GT @ Ultra zonder HDR:
Min. 18 FPS
Max. 57 FPS
Radeon x800xt pe vs. geforce 6800 Ultra (zonder HDR):
Verschil in procenten tussen apple's en mijn systeem (min of meer hetzelfde, alleen heeft apple een amd 64 3000+ ipv een 3200+).
Min. +27,7% (voor radeon x800xtpe zonder 3dc)
Min. +27,7% (voor radeon x800xtpe met 3dc)
Max. +15,8% (voor radeon x800xtpe zonder 3dc)
Max. +19,3% (voor radeon x800xtpe met 3dc)
*Let op: dit is niet 100% juist ivm het gebruik van twee verschillende systemen. Zie de uitslagen dan ook meer als een indicatie.
De resultaten vallen mij allerminst tegen. Zeker gezien het een ATI demo is die geoptimaliseerd is voor de ati x800xt serie en de nieuwe ati kaarten (x850xt). 'The ATI/Crytek demo shows just how easy it can be, especially since it is optimized to run on ATI’s RADEON® X800 XT series and the new RADEON® PCI Express graphics boards.' (citaat van http://www.ati.com/gitg/promotions/crytek/index.html).
HDR enablen (voor methode zie ati topic) lukt me nog niet helemaal op een geforce kaart in 'the project' demo. Iemand een idee?
[ Voor 157% gewijzigd door Verwijderd op 02-12-2004 01:41 ]
Volgens The Inq, die het de laatste tijd opvallend genoeg vaak bij het rechte eind heeft (zie ook de final clocks van de R480 en R430 weken voor launch), komt er geen refresh van nVidia. Die zou in het eerste kwartaal van 2005 verschijnen, maar nVidia kon blijkbaar niet verder komen dan 20-30 mhz extra. Dus zou het vrij zinloos zijn, aangezien iedereen al weet hoe die kaarten presteren...Tyranium schreef op woensdag 01 december 2004 @ 23:09:
Ik hoop voor Ati dat Nvidia niet snel met een 6850Ultra/6900Ultra komt.
De standaard 6800Ultra loopt nl op 400. Veel OC versies lopen op 425. Dan heb je nog de Ultra Extreme loopt op 450 Mhz en de GF6800U PCI-E (NV45) die op 440 Mhz loopt, en die schijnbaar al tegen het maximum aan lopen. Dus als ze maar 20 a 30 mhz meer er uit zouden kunnen persen t.o.v. de standaard Ultra, dan is dat niet genoeg om de X850XT PE in moderne spellen voorbij te gaan. Kijk je naar de Ultra OC of Ultra Extreme, dan mag je ook kijken naar het feit dat bijna alle X850XTPEs ook op 580 mhz willen lopen dankzij Overdrive3. Dus ATi schaalt dan evenredig mee.
Ze schijnen zich dus te gaan richten op SLI en waarschijnlijk ook op prijsconcurrentie.
http://www.theinq.net/?article=19992
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat kan natuurlijk ook, zoals je ziet zijn de X850XT en 6800Ultra in prijs ongeveer concurrenten van elkaar, de X850XT heeft als adviesprijs 500, maar is nog niet verkrijgbaar, en de Ultra is er al vanaf +- 485 euro. Beide kaarten presteren eigenlijk gewoon gelijk, dus als Nvidia de prijs wat verlaagt hebben ze wel een voordeel.CJ schreef op donderdag 02 december 2004 @ 04:14:
[...]
Volgens The Inq, die het de laatste tijd opvallend genoeg vaak bij het rechte eind heeft (zie ook de final clocks van de R480 en R430 weken voor launch), komt er geen refresh van nVidia. Die zou in het eerste kwartaal van 2005 verschijnen, maar nVidia kon blijkbaar niet verder komen dan 20-30 mhz extra. Dus zou het vrij zinloos zijn, aangezien iedereen al weet hoe die kaarten presteren...
De standaard 6800Ultra loopt nl op 400. Veel OC versies lopen op 425. Dan heb je nog de Ultra Extreme loopt op 450 Mhz en de GF6800U PCI-E (NV45) die op 440 Mhz loopt, en die schijnbaar al tegen het maximum aan lopen. Dus als ze maar 20 a 30 mhz meer er uit zouden kunnen persen t.o.v. de standaard Ultra, dan is dat niet genoeg om de X850XT PE in moderne spellen voorbij te gaan. Kijk je naar de Ultra OC of Ultra Extreme, dan mag je ook kijken naar het feit dat bijna alle X850XTPEs ook op 580 mhz willen lopen dankzij Overdrive3. Dus ATi schaalt dan evenredig mee.
Ze schijnen zich dus te gaan richten op SLI en waarschijnlijk ook op prijsconcurrentie.
http://www.theinq.net/?article=19992
Maar ze hebben dan niks tegenover de X850XT PE (550 euro) te zetten, maar daarboven zit natuurlijk ook nog SLI, wat na een prijsverlaging ook natuurlijk weer aantrekkelijker is.
Hier nog een erg goede review van de X850XT (PE) met ook 6800Ultra en GT SLI.
http://techreport.com/rev...adeon-x850xt/index.x?pg=1
Jammer alleen dat de drivers nog niet 100% goed werken met SLI en een aantal games.
Linkje?2 6600GT's in SLI is evensnel als een 6800GT op AGP. kep de grafiekjes gezien bij anandtech
Ik vond dit en ik heb niet over AGP
Almost across the board, the 6600 GT SLI delivered a better quality gaming experience than did a Radeon X800Pro or a GeForce 6800 GT. There is more bang for the buck value in a GeForce 6600 GT SLI configuration than anything comparable. We surely want to see what an extra $100 will get you with a set of two 256MB 6600 GTs in SLI. It is hard to think of the combination being any sweeter than what we saw with the 128MB cards, but we will surely be testing them to find out
Bronvermelding altijd wel zo handig:
http://www.hardocp.com/article.html?art=Njk2LDg=
Just call me angel of the morning, angel. Just touch my cheek before you leave me, baby. Just call me angel of the morning, angel.
Nvidia has canned NV48
No point making 20 MHz faster card
By Fuad Abazovic: Wednesday 01 December 2004, 22:01
ATI's RADEON X850XT PE is the last speed refresh that we will see this winter. Usually ATI's announcement comes close to Nvidia announcement but this time it won't happen.
Nvidia decided to cancel its NV48 project and reliable sources are claiming that you won't see those cards at all. According to the original plan we were supposed to see those cards in Q1 2005 but Nvidia realised that it made no sense at all to push a 20 to 30 MHz faster card.
NV40 and R420 chips will be known forever as the ones that companies pushed to their limits and Nvidia didn’t want to disappoint its customers with a marginally faster card. All it could manage was a 20-30MHz push, hardly anything to scream home about.
Nvidia will make NV45 cards available to market to fill PCIe high end market and that’s how it will remain until the new chip walks down the red carpet.
Nvidia has a good workhorse and a colt to beat X850, it's called SLI and includes two graphic cards working together. X850 XT PE can not match two NV45, 6800 Ultra cards in action.
We are in the dark about Nvidia's next move but it does count a lot of SLI. Who knows, it may be in the dark too? µ
http://www.theinquirer.net/?article=19992
X850 XT PE can not match two NV45 ( bedoelen ze hiermee de prijs
Shit , als dit waar is dan is naar mijn mening nVidia in diepe image problemen afgezien de SLI techniek waarmee ze vooruit zijn op de concurrent ATI. en de NV45 , wat moet ik me voorstellen
Ik hoop dat dit is weer en stome gerucht zoals dat de nForce 4 chipset later op de markt komt ivm. een fout in de chip.
No way ,




[ Voor 22% gewijzigd door SlowikPL op 02-12-2004 12:14 ]
* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora
Ja dit was ons bekend. Ik had het 3 posts boven je nog gezegd.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
http://www.beyond3d.com/f...&postorder=asc&highlight=
Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
Niet op voorraad.
Het pakt natuurlijk wel uit in het voordeel voor Ati omdat dit gewoon veel meer perfomance kost. Dit maakt het verschil wel weer duidelijk met de radeon tegenhangers die opeens een stuk sneller lijken te zijn. Het is volgens mij niet de bedoeling geweest om de geforce te dwarsbomen maar het is wel een manier om ervoor te zorgen dat Ati ruim op kop blijft.edward2 schreef op donderdag 02 december 2004 @ 12:14:
Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.
http://www.beyond3d.com/f...&postorder=asc&highlight=
Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
Er werd gesproken dat de pixel shader bij Ati veel sterker was en hierdoor het verschil zo groot zou zijn. ik begin dit nu tegen te spreken als de precisie nu zo gedaan is.
Ik ben benieuwd wat de reactie van Valve is.
Verwijderd
Voor een geforce FX bezitter is het wel mogelijk om in DX 9 mode te draaien op een acceptabele framerate wanneer er gebruik gemaakt word van FP 16. Dus vooral de geforce FX bezitters worden in dit geval benadeeld.
Voor mensen met een geforce 6 kaart is dit niet zo'n groot probleem, aangezien de prestaties toch al erg hoog waren en het werken met AA en AF in combinatie met de hoogste settings geen problemen opleverde.
Inderdaad. En daarbij komt nog eens dat de core van een ATI kaart veel sneller loopt dan die van een Nvidia kaart (520 mhz voor de x800xt tov 400 mhz voor de 6800 ultra). Het is vooral dankzij de klocksnelheid dat een ATI kaart beter presteerd (met de shaders). Een Nvidia haalt per MHZ meer als een ATI.Er werd gesproken dat de pixel shader bij Ati veel sterker was en hierdoor het verschil zo groot zou zijn. ik begin dit nu tegen te spreken als de precisie nu zo gedaan is.
Ik ben benieuwd wat de reactie van Valve is.
[ Voor 34% gewijzigd door Verwijderd op 02-12-2004 13:52 ]
Alleen de GeForce6 wordt "gedwongen" om op 32-bits te draaien aangezien de GeForce 5 automatisch op DX8.1 overschakelt. Valve heeft gekozen voor FP24 als standaard, wat ook niet vreemd is, aangezien FP24 vanaf het begin van DX9 het minimum was voor full precision.edward2 schreef op donderdag 02 december 2004 @ 12:14:
Kan iemand mij een samenvatting geven van de uitslag van dit statement ik heb even niet de tijd om het helemaal uit te lezen.
http://www.beyond3d.com/f...&postorder=asc&highlight=
Wordt de GeForce 5 en 6-serie echte gedwongen om altijd en overal 32 bits ft precisie te gebruiken tewijl het niet nodig is alleen maar om de performance voor NV-kaarten te crippelen?!
De GeForce5 en GeForce6 kunnen alleen FP32, FP16 en FX12 (en nog meer ?) aan, terwijl de R3x0/R4x0 serie van ATi intern alles op FP32 doen (behalve in de shaderpipeline) en komt het er uit als FP24, zelfs al krijgt het een partial precisionhint aangereikt.. en dit zonder snelheidsverlies.
GF6 kaarten hebben het voordeel over de GF5 serie dat er weinig performanceverlies is wanneer er geschakeld wordt tussen FP16 en FP32. Wat de uitkomst min of meer is, is dat de FX soms 50% of meer performancewinst krijgt bij het gebruik van FP16, maar dat er wel artifacts kunnen optreden bij gebruik van FP16, wat niet zichtbaar is bij gebruik van FP24/FP32. De performancewinst is echter bij lange na niet genoeg om sneller te zijn dan DX8.1 mode, laat staan het inhalen van de concurrende kaarten uit de 9500-9800 reeks (ze draaien nog op halve snelheid).
Benchmarks van iemand die getest heeft:
Dit had waarschijnlijk kunnen worden voorkomen door het mixed precision path wat door Valve geschrapt is. Het koste volgens hun tot 5x toe zo veel moeite om dit speciale FX pad in de game te programmeren, ivg tot het programmeren voor de Radeons die netjes de DX9 standaard volgen. En dan te bedenken dat het alleen om de FX5800/FX5900 serie ging waarvoor dit speciaal pad was, aangezien de FX5200-5700 altijd al standaard in DX8.1 draaiden.Tested on:
Athlon 64 3200+ Socket 754 Clawhammer core
512 MB DDR400 memory running on CAS 2-3-3-6
Abit KV8-MAX3 + Hyperion 4.53
Video Cards:
Radeon 9800 Pro @ Catalyst 4.11 + CC
GF FX5900 @ ForceWare 66.93
HL2 Steam version (latest patches and so on...) + 3DVis. app v2,26
1024x768 (all high except "reflect world", vsync off, trilinear filtering)
Radeon 9800 Pro - 73,7 fps
FX5900 @ DX8.1 - 62,44 fps
FX5900 @ DX9 forced FP16 - 31,45 fps
FX5900 @ DX9 full p. aka FP32 - 19,46 fps
1280x960 (same as above)
Radeon 9800 Pro - 52 fps
FX5900 @ DX8.1 - 45,18 fps
FX5900 @ DX9 forced FP16 - 23,31 fps
FX5900 @ DX9 full p. aka FP32 - 14,4 fps
1600x1200 (same as above)
Radeon 9800 Pro - 33,65 fps
FX5900 @ DX8.1 - 29,49 fps
FX5900 @ DX9 forced FP16 - 15,08 fps
FX5900 @ DX9 full p. aka FP32 - 9,35 fps
Ik denk dat Valve (misschien mede onder druk van ATi, die natuurlijk flink had geinvesteerd in HL2 destijds met de 9800XT en de coupons) zich in eerste plaats heeft gericht op het voltooien van de game zelf. Misschien dat ATi ze een datum heeft gesteld wanneer de game uit zou moeten komen, anders zouden veel fans niet alleen in Valve teleurgesteld zijn, maar ook in ATi. Misschien dat daarom mixed precision is gedropped, net zoals HDR op een gegeven moment gedropped werd vanwege tijdgebrek en resourcegebrek? En de FX kaarten waar het meeste van wordt afgenomen (low-end / mainstream) al op DX8.1 draaiden, was het denk ik ook een kleine stap om de 5900 serie op DX8.1 te laten draaien (de 5800 serie tel ik niet eens mee omdat daar zo weinig van verkocht zijn).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De GF6 heeft FX12 (integer) niet meer erin, en dat is een goeie zaak.CJ schreef op donderdag 02 december 2004 @ 14:12:
[...]
De GeForce5 en GeForce6 kunnen alleen FP32, FP16 en FX12
[Algemeen] nVidia GeForce Topic! Deel 13
Daar dus verder
Het voordeel van de verschillende precisies van de gaat natuurlijk zo een beetje verloren voor de 6800's, als er echt shaders in de game zijn waar je aan 16 bits voldoende hebt. Anderzijds als dx9 mnimaal 24 bits is, is dat de 'schuld' van NVzelf.
Niet op voorraad.
MSI X570 Gaming Edge Wifi, AMD Ryzen 7 5800x, Corsair Vengeance RGB Pro 3600CL16 16Gb, Sapphire RX590 Nitro+, Crucial MX 512Gb + 2Tb, Seagate SSHD 2TB, Creative SoundBlaster Zx, Razer Blackwidow Stealth 2016, Logitech G703, DELL S2721DGF, ASUS VG248QE
Verwijderd
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Maar nu ben ik dat tabblad in de nvidia menu van de driver kwijt,
waar je de refresh rate kon instellen.
Nu draait CoD weer op 60 Hz.
Hoe krijg ik dat tabblad weer terug ?
FF naar deel 13!!M55 schreef op woensdag 15 december 2004 @ 18:03:
Ik heb nu de 71.20 drivers.
Maar nu ben ik dat tabblad in de nvidia menu van de driver kwijt,
waar je de refresh rate kon instellen.
Nu draait CoD weer op 60 Hz.![]()
Hoe krijg ik dat tabblad weer terug ?
CoD springt altijd op 60HZ. Moet je refreshlock of refreshforce gebruiken
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Ik zou het dingetje graag zo ver mogelijk OC'en (er komt een Dangerden-waterblokje op dus
Dit topic is gesloten.