Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Is dit fs 2003 ?Biff schreef op 01 oktober 2003 @ 21:37:
[...]
Klopt. Maar daarom stel ik in Flight Sim de rechterrand van de cockpit view die gestretched is over de twee beeldschermen op het 2e scherm een paar centimeter naar links, en vul dat op met een stukje van het instrumentenpaneel, dan valt het midden van de cockpit view (recht voor je, dus de landingsbaan e.d.) een paar centimeter links van de splitsing tussen de twee schermen en kun je het alsnog prima zien.
Zo dus:
[afbeelding]
[afbeelding]
Dit zijn nog shots van FS2002 op de Ti4600, ondertussen is het veel mooier en meer FPS. Ik heb dus drie dagen lang geprobeerd mijn 9800 dit te laten doen en hem toen maar ingeruild voor een FX5900U.
met welke video drivers heb je dit voor mekaar gekregen ?
"Social progress can be measured by the social position of the female sex - Karl Marx"
Heh nee fs2002 dus, maar bij fs2004 werkt het precies hetzelfde. En drivers, 44.x, 45.x, 51.x, werkt altijd. Let wel dit is dus gewoon full screen mode. En het kan ook windowed. Op de ATI werkte het in geen van beide modes, en ik heb Catalysts van 3.2 tot 3.7 geprobeerd.salutem schreef op 01 October 2003 @ 22:04:
[...]
Is dit fs 2003 ?
met welke video drivers heb je dit voor mekaar gekregen ?
Yeah well. The Dude abides.
Yep. Nview horizontal spanning.Sjah schreef op 01 October 2003 @ 22:22:
Hoe stel je dat in dan? 1 stretched desktop in Win ofzo?
Niks bijzonders, gewoon een 'dubbele' resolutie kiezen in FS, bijv. 2304x864 zoals op de foto's.En wat moet je instellen in FS zelf?
Yeah well. The Dude abides.
Het word gewoon "opgerekt" naar twee schermen . . .
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Het is geen 4 staat tot 3 beeld wat opgerekt wordt. Je hebt horizontaal gewoon twee keer zo veel pixels, er wordt 8:3 gerenderd en de 3D kaart accelereert beide schermen. Als je wil kun je ook twee totaal verschillende views op de schermen zetten, bijvoorbeeld cockpit links en spot view rechts. Maar da's niks bijzonders, dat kan een 9800 ook. Het is juist de panorama view die voorbehouden is aan Nvidia (Matrox en ook de Radeon 7000 kunnen het overigens ook, maar bij latere Radeon modellen lukt het niet. Voor mijn doeleinden zijn ze dus niet zinvol gebleken).Madrox schreef op 01 October 2003 @ 23:53:
Dat doet ie ook niet :|(
Het word gewoon "opgerekt" naar twee schermen . . .
[ Voor 15% gewijzigd door Biff op 02-10-2003 00:30 ]
Yeah well. The Dude abides.
3 shermen is beter dan heb je één heel sherm voor het midden.
Maar dan moet je 'n parhilia hebben en die zuigt in performance aangezien die dan 3frame buffers moet vullen waar ie niet de kracht voor heeft.
Daarnaast FS2002 leuk dat biiff graag dat spel speeld maar velen houden er niet van dus ja de fX is in zijn geval de betere keuze.
d'r zijn 'n paar verklaringen voor FS2002 is mischien meer ontwikkeld voor de FX.
RXXX kaarten ondersteunen die functie misschien ook maar ja moeten de games ook aTI goed ondersteunen.
Vraag me dus af hoe het zit met andere games. aangezien FS2K2 mij niet boeid.
maar voor twee schemen en fpshooters is het geen oplossing.
Dan heb je toch eerder tripple sherm nodig en veel games ondersteunen dat niet of alleen parhilia triple head mode.
of dual head en 'n PCI kaart er bij.
Ik heb hier drie shermen naast mekaar alleen aan elk scherm 'n PC één van die shermen is 'n HM903DT en die heeft twee ingangen dus ik kan wel dualhead doen met mijn 9500pro maar voor games gebruik ik het niet.
Daarnaast zijn de games genres hier
FPS
RTS
TacticalFPS
SPace games
iig iets waar geshoten wordt.
Dat schuiven is misschien 'n oplossing voor vliegen of auto rijden maar voor 'n fps waar je links en rechts toch graag meer beeld wil hebben en 'n goed center beeld is dat geen goede oplossing.
maar ja drie shermen moet je nl wel de plaats voor hebben en het geld en 'n krachtige PCI kaart zijn er ook niet echt..
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Los gezien van het feit of de R3xx serie wel of niet een stretched beeld ondersteunt, is de R3x0-serie doorgaans sneller dan een FX5900U in FS2002/FS2004. Dus of FS2002 'meer ontwikkeld is' voor de FX valt nog te bezien.SuperG schreef op 02 October 2003 @ 07:55:
d'r zijn 'n paar verklaringen voor FS2002 is mischien meer ontwikkeld voor de FX.
RXXX kaarten ondersteunen die functie misschien ook maar ja moeten de games ook aTI goed ondersteunen.
Zie bv de reviews van Toms Hardware en Anandtech van de 9800XT:
http://www.anandtech.com/video/showdoc.html?i=1890&p=12
http://www.tomshardware.c...30930/radeon_9800-30.htmlClearly this test shows ATI as the leader in performance for this MS game. CPU scaling should also prove to be valuable as it seems like the ATI cards want to go further but they are just being held back by the rest of the system.
En dan komt het dus aan op functionaliteit vs snelheid. Biff geeft dus de voorkeur aan het eerste.A clear lead for ATI in FS 2004.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://download.guru3d.co...db.php?action=file&id=163Get the latest release of Rivatuner v2 RC14 by clicking the headline;
Fixes/Whats new list;
Added databases for the Detonator 44.03, 44.61, 44.63, 44.65, 44.67, 44.71, 45.20. 45.23, 45.24, 45.33, 51.75 and 52.10
Bundled DetonatorFXDecoder utility for Windows 2000/XP. This utility allows you to remove runtime Direct3D driver code encryption in the Detonator 45.20 - 52.10
Updated AnisoBoosterD3D, AnisoBoosterOGL, LODBiasFix, NV25AALines and NVStrapAntiprotection patch scripts for the latest NVIDIA Detonator drivers. Note: due to NVIDIA runtime decryption system and patch script protection system, introduced in the Detonator 44.67, you will not be able to install miniport related patch scripts on the protected drivers (44.67 - 44.71 and 45.20+). However, you can patch 45.20 and newer protected Direct3D drivers using DetonatorFXDecoder utility and DetonatorFXD3DAntiprotector patch script.
Full GeForceFX 5900 (Ultra) support including tons of improvements and new features for whole GeForce FX GPU family.
NV3x specific separate 2D/3D overclocking is fully supported by RivaTuner's driver-level overclocking manager now. Furthermore, RivaTuner gives you the possibility to disable separate 2D/3D clock frequency adjustment (strictly recommended for NV34 based boards, not recommended for NV30/NV35 based boards).
Added NV40 emulation mode under OpenGL / Compatibility settings for the Detonator 5x.xx and higher.
Updated NVStrap driver v1.5. Now the NVStrap.sys driver is unified and recommended to use under Windows 9x\ME
top: hier zat ik op al een tijdje op te wachten.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Luister, ik heb de 45.33 drivers en ik heb de ThermalTAke Xaser3 kast met 7 fans, die heb ik vol openstaan, de 2 fans op de zijkant blazen boven en onder de geforce.......... Mijn moederbord wordt 23 graden en processor 27 graden. Geforce is standaard in het bureaublad 60 graden. Als ik na het gamen weer kijk, is het 75 graden.danplo schreef op 01 oktober 2003 @ 21:51:
[...]
Ik heb de Asus FX5900 Ultra en bij mij komt hij haast niet hoger dan 55 a 60 graden.
Ik heb dan wel een kast waar mee een goede airflow gemaakt wordt.
Het is niet warmer dan 25 graden in mijn kast.
Dit zal best een hoop schelen.
Zorg dus voor goede cooling in je kast.
Bij de 45.23 drivers is het 48 graden en na het gamen 58 graden............zal toch niet aan drivers liggen...........welke is beter: 45.33 of 45.23 ?? Hij geeft die temperaturen aan in dat NVIDIA GeForce FX5900Ultra tabblad aan bij eigenschappen van beeldscherm......
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
hal nu 7400marks in 2003 erg netjes:p
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Dat werkt ook wel op een Radeon kaart, gewoon op monitor 1 je hoofdbeeld en op monitor 2 je radar, throttle etc. Dat werkt volgens mij op alle dualhead kaarten ongeacht de fabrikant.Fr0zenFlame schreef op 02 October 2003 @ 11:32:
Tja, ik vind ook wel lekker als je een flight sim bijvoorbeeld kan spelen met een radar beeld een een high kw hoofd beeld
Maar waar we het hier over hadden was het stretchen van 1 beeld over 2 monitoren door de resolutie op bv 2304x864 te zetten.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
schermen geen shermenSuperG schreef op 02 oktober 2003 @ 07:55:
Ik vind dat 2 shermen maar lastig voor games met die midden splitsing.
3 shermen is beter dan heb je één heel sherm voor het midden.
Maar dan moet je 'n parhilia hebben en die zuigt in performance aangezien die dan 3frame buffers moet vullen waar ie niet de kracht voor heeft.
Daarnaast FS2002 leuk dat biiff graag dat spel speeld maar velen houden er niet van dus ja de fX is in zijn geval de betere keuze.
d'r zijn 'n paar verklaringen voor FS2002 is mischien meer ontwikkeld voor de FX.
RXXX kaarten ondersteunen die functie misschien ook maar ja moeten de games ook aTI goed ondersteunen.
Vraag me dus af hoe het zit met andere games. aangezien FS2K2 mij niet boeid.
maar voor twee schemen en fpshooters is het geen oplossing.
Dan heb je toch eerder tripple sherm nodig en veel games ondersteunen dat niet of alleen parhilia triple head mode.
of dual head en 'n PCI kaart er bij.
Ik heb hier drie shermen naast mekaar alleen aan elk scherm 'n PC één van die shermen is 'n HM903DT en die heeft twee ingangen dus ik kan wel dualhead doen met mijn 9500pro maar voor games gebruik ik het niet.
Daarnaast zijn de games genres hier
FPS
RTS
TacticalFPS
SPace games
iig iets waar geshoten wordt.
Dat schuiven is misschien 'n oplossing voor vliegen of auto rijden maar voor 'n fps waar je links en rechts toch graag meer beeld wil hebben en 'n goed center beeld is dat geen goede oplossing.
maar ja drie shermen moet je nl wel de plaats voor hebben en het geld en 'n krachtige PCI kaart zijn er ook niet echt..
Geen informatie beschikbaar
http://www.anandtech.com/weblog/index.html
let wel: ATI was running in their DX9 codepath and the mixed mode codepath was used for NVIDIA
Is misschien een domme vraag, maar waar zie je of je een detonator hebt geinstalleerd?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Speelbaar...zeker....hjs schreef op 02 October 2003 @ 20:53:
Zal het toch nog goed komen voor de FX? (dus HL2 speelbaar)
http://www.anandtech.com/weblog/index.html
let wel: ATI was running in their DX9 codepath and the mixed mode codepath was used for NVIDIA
Mooi...tja....daar zul je helaas een volledig DX9 path voor nodig hebben. Maar hij zal zeker te spelen zijn!
There is no place like ::1
Wat voor kaart is die NVIDIA GeForce FX 5950 Ultra wel niet ??hjs schreef op 02 October 2003 @ 20:53:
Zal het toch nog goed komen voor de FX? (dus HL2 speelbaar)
http://www.anandtech.com/weblog/index.html
let wel: ATI was running in their DX9 codepath and the mixed mode codepath was used for NVIDIA
Heb hier nog niks over gelezen of gehoord ??
**update**
Ik zie het al het is de nVidia NV38.

[ Voor 7% gewijzigd door danplo op 03-10-2003 00:58 ]
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Ik ga die ook niet kopen.Gipsy King schreef op 03 October 2003 @ 10:57:
mja maar als je fx5900ultra op 500/1000 draait is ie zelfs al een stuk sneller , dus beetje zonde om die te gaan kopen , en op de chip zelf is ook geen fuck veranderd ....
Ik wacht wel weer tot er echt weer een klapper voorbij komt.
Ik had alleen deze naam nog niet eerder gezien of gelezen.
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Oh...danplo schreef op 03 oktober 2003 @ 12:00:
[...]
Ik ga die ook niet kopen.
Ik wacht wel weer tot er echt weer een klapper voorbij komt.
Ik had alleen deze naam nog niet eerder gezien of gelezen.

Leuk om te weten dat het niet gelezen wordt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 84104
Dus ga vooral door met het goede werk
Geheugeninterface definitief op 128-bit.
Core: 475Mhz voor de FX5700Ultra
Mem: 450Mhz DDR2 (= 900 Mhz effectief)
Alleen de FX5700Ultra maakt gebruik van DDR2 geheugen.
Ik denk dat NV36 een flink kluif zal hebben aan hun directe tegenstander 9600XT. NV36 maakt voor zover ik weet geen gebruik van low-k, daar waar RV360 dat wel doet. Dat verklaart waarom nVidia nu al tegen z'n top aan zit met de 475Mhz, terwijl er eerst 500Mhz werd beloofd.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En die NV38 lijkt me icm met de laatste drivers (als die HL2 bench klopt EN het er goed uitziet) eindelijk een kaart in de goede richting, alhoewel het wel jammer is dat de fx5900 zo ge-OC-ed moet worden om een beetje met de radeon9800 mee te komen..
Alone at last
Just nostalgia and I
We were sure to have a blast
Vergeet niet dat het nog altijd in mixed mode loopt, dus appels met appels vergelijken is zowiezo niet mogelijk.Okyah schreef op 03 October 2003 @ 21:37:
Ik lees het wel, hoor CJ
En die NV38 lijkt me icm met de laatste drivers (als die HL2 bench klopt EN het er goed uitziet) eindelijk een kaart in de goede richting, alhoewel het wel jammer is dat de fx5900 zo ge-OC-ed moet worden om een beetje met de radeon9800 mee te komen..
Over het algemeen ben ik gewoon teleurgesteld in NV38. Ik had er meer van verwacht dan alleen een 25 Mhz snellere core en 50 Mhz sneller geheugen dan de NV35.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Tja, mixed mode is beter dan niets denk ik dan maarCJ schreef op 03 October 2003 @ 22:02:
[...]
Vergeet niet dat het nog altijd in mixed mode loopt, dus appels met appels vergelijken is zowiezo niet mogelijk.
Over het algemeen ben ik gewoon teleurgesteld in NV38. Ik had er meer van verwacht dan alleen een 25 Mhz snellere core en 50 Mhz sneller geheugen dan de NV35.
HE! Vergeet de nieuwe koeling niet, he?
Maar idd, het is niet ideaal en ik ben ook wel teleurgesteld... Kwas eik al teleurgesteld in de nv30 en daarna al helemaal in de nv35

Maarja, wie weet brengt de nv40 iets leuks
Alone at last
Just nostalgia and I
We were sure to have a blast
Die lek van de sourcecode van Half Life 2 kwam nVidia nu wel heel erg goed uit.... De gemiddelde consument komt nu niet te weten hoe slecht de FX presteert in HL2, aangezien het spel waarschijnlijk nu nog meer vertraagd wordt...
En tegen de tijd dat Half Life 2 uit komt, heeft nVidia al weer een kaartje op de markt die wel goed presteert in DX9, namelijk NV40. Goh, wat kwam die lek ze dan toevallig goed uit... zouden nVidia dan misschien verantwoordelijk zijn voor de lek?
[/geruchtenmodus]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Laten we eens kijken naar de NV3x-en. CineFX engine. De oorspronkelijke CineFX (5200, 5600, 5800) had 1 pijplijn die 2 texture ops of 1 berekening uit kon voeren op 4 pixels (een quad).
Toen dat niet voldoende bleek om de concurrentie met ATi aan te gaan, heeft nVidia er bij de 5900 'even heel snel' nog een unit achter geplakt die ook een berekening uit kon voeren. (Eigenlijk hadden ze 2 units: een floating point en een integer. Ze hebben de integer unit 'opgerekt' to floating point.)
Ze hebben dus nu een pijplijn, die helemaal vastgebakken zit in het ontwerp van hun chips, waar ze ook patenten op aangevraagd hebben. Die maar heel matig presteert. Waar ze helemaal aan vast zitten.
Toen ze (ongeveer anderhalf tot drie jaar geleden) zijn begonnen met de ontwikkeling van de NV4x, hebben ze dan ook bijna zeker geprobeerd een betere versie van de oorspronkelijke CineFX engine te maken.
Wat kunnen ze daar dus nu nog aan verbeteren? Ze kunnen eigenlijk twee dingen doen: het aantal pixels dat de pijplijn kan verwerken uitbreiden van 4 tot 8 of 9, of ze kunnen er twee naast elkaar op 1 chip zetten.
Beide mogelijkheden houden in, dat de hoeveelheid transistors ruwweg verdubbeld. Maar ze moeten nog wel kunnen concurreren! En een twee keer zo grote chip geeft meer dan twee keer zoveel uitval. Ze kunnen er dus minder dan half zoveel produceren. En ze zijn dus meer dan twee keer zo duur.
Maar ja. Als dat niet kan, wat moeten ze dan doen? Heel snel de NV5x op de markt brengen? Of het maken van videokaarten maar opgeven?
En hun topman heeft laatst in een persbericht gezegd, dat het maken van videokaarten niet meer hun belangrijkste business is...
betekend dat dat ze ook andere DX9 spellen gaan exploiten ?
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Wat er dan wel gaat gebeuren? Tja. Alle geluiden wijzen er op, dat nVidia het voor gezien houd en zich gaat toeleggen op chipsets en andere dingen. Geen videokaarten meer.
Nou zal dat natuurlijk niet betekenen, dat je geen kaarten met een nVidia chip meer kunt kopen. Zo snel gaat dat niet. Maar of er nog nieuwe en betere chips komen?
Wie weet? Misschien verprutst ATi het binnen een jaar wel helemaal en ziet nVidia zijn kans schoon. Wie het weet, mag het zeggen.
EDIT: Bij nader inzien is er nog iets wat nVidia zou kunnen doen: snel naar 0.11 of 0.09 micron gaan, liefst met low-k. Daardoor kunnen ze de klokfrequentie van hun kaarten heftig opvoeren.
Het gaat er dan maar om, of ze dat nog durven na de problemen met de overgang naar 0.13, of dat ze daardoor denken die problemen goed de baas te kunnen.
[ Voor 22% gewijzigd door DiGuru op 04-10-2003 00:41 ]
Als NV40 geen verbeteringen brengt, dan weet ik het ook niet meer. Voor zover ik weet is er toch nog een structureel belangrijke verandering in NV40 ten opzichte van NV30. En wie weet zal ATi het dan ook heel moeilijk gaan krijgen met R420. R420 lijkt namelijk heel erg veel op NV40...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hoe zie je dat je kaart die temperatuur heeft? Probeer nl mijn temps uit te lezen maar zou neit weten hoe! En wat bedoel je met je vraag??Deathchant schreef op 02 October 2003 @ 21:51:
Ik heb trouwens de nvidia 45.33 driver vervangen door de ASUS 45.23 driver en mijn geforce wordt hoogstens 58 graden nu. Heeft het toch aan drivers gelegen. Ik heb gehoord dat asus drivers (gebaseerd op nvidia) beter zijn dan de standaard nvidiadrivers........
Is misschien een domme vraag, maar waar zie je of je een detonator hebt geinstalleerd?
Anoniem: 61853
Niet elke videokaart heeft een temperatuur meter. De meesten zelfs nietdog4life schreef op 04 oktober 2003 @ 12:02:
[...]
Hoe zie je dat je kaart die temperatuur heeft? Probeer nl mijn temps uit te lezen maar zou neit weten hoe! En wat bedoel je met je vraag??
Anoniem: 91722
zijn er mensen die een gf fx 5200 hebben ?
Waar haal jij die 128mbit geforce kaart vandaan...damn.....16MegaByte geheugen voor een GF FX...dat zal wel extra goedkoop geweest zijn. Straks komen ze met GF FX5200 kaarten met shared memory!Anoniem: 91722 schreef op 04 October 2003 @ 13:09:
hoe goed is de 128mbit geforce fx 5200 overteclocken?
zijn er mensen die een gf fx 5200 hebben ?
Maar jokes aside, is hoe goed hij overclockt hangt van de situatie af, hoe warm het in je kast is...hoe je kaart gekoeld wordt, welk geheugen erop zit...elke fabrikant heeft zo'n zijn eigen idee over hoe snel geheugen moet zijn op zo'n kaartje, wat voor koeling erop moet...en zo voort :-)
Maar de eerste verhalen over de FX5200 zijn toch wel dat je behoorlijk moet kunnen overclocken!
[ Voor 9% gewijzigd door swampy op 04-10-2003 13:21 ]
There is no place like ::1
Welk merk kaart heb je...je wel wel ..fabrikant :-), anderen hebben misschien zo'n zelfde kaart en kunnen opzoeken hoe snel het geheugen kan en hoever je daarop dus kan overclocken. Fabrikanten zelf geven dat soort informatie niet zo snel uit.Anoniem: 91722 schreef op 04 October 2003 @ 13:21:
ja dat snapte ik al wimpy
maar ik zoek mensen die hun ervaringen ermee willen delen
is hij te modden ofzo? iets ?
proggie?
GPU overclocken is handwerk.....je moet gewoon rustig aanpakken en goed testen :-), just don't hurry..
Als je van aankloten houdt, dan kun je de koeling van je kaart alvast vervangen door een zalman heatsink en heb je tijdens dat proces gelijk de mogelijkheid de geheugenchips te bekijken. Efkes kijken op de website van de fabrikant van die chips and hopakee...dan weet je ook weer meer :-)
Op die manier ben ik erachter gekomen dat ik mijn GF 4 kaartje op 600Mhz DDR kan krijgen :-)
Es kijken...je zoekt dus een tooltje....wel hier kan je dus RivaTuner downloaden...een perfect overclock/tuner programma.
[ Voor 16% gewijzigd door swampy op 04-10-2003 13:30 ]
There is no place like ::1
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Jongen; ga zelf even opzoeken, er is genoeg te vinden op google. (ik lieg niet!)
en de edit knop zit er niet voor niets
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Omdat je ook zo'n detonator remover hebt of zoiets.............ik dacht altijd dat je gewoon moest de-installeren en dan gewoon de nieuwe drivers eroverheen kun runnen...............dog4life schreef op 04 October 2003 @ 12:02:
[...]
Hoe zie je dat je kaart die temperatuur heeft? Probeer nl mijn temps uit te lezen maar zou neit weten hoe! En wat bedoel je met je vraag??
Eigenschappen->beeldscherm->settings->advanced->GeForce FX5900Ultra->temperatuurinstellingen
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
http://www.gearboxsoftwar...=&fpart=1&vc=1&PHPSESSID=Nvidia's NV38 (along with the rest of the FX series) has been dubbed as a substandard card by team dx. This means that DX will not include NV in it's developement range for directx10. Team DX made the decision "as a favor to the graphics industry". Team DX claims that NV violated their partnership agreement by changing the DX9 code with their latest set of drivers as caught by Xbit labs recently. This violates the licensing agreement and conpromises DX's quality in order to make it seem as if ATi and NV cards alike display the same image quality (which would be really bad in this case). This can only be fixed by reinstalling dx9b. So by all means, Do Not Download Detonator 50 Drivers!!! Along with this, NV has been caught cheating on benchmarks as they usually do over at Anandtech . Notice that all of the realworld benchmarks perform better on ATi, yet all synthetic benchmarks perform better by a large margin on NV hardware. "These violations are inexcusable" said a DX employee, and I'd have to agree. So without the inside drive on DX10, NV will not be able to even optimize their cards as ATi can and will probably fall into bankruptsy just as 3dfx did before them...
Vraag me af of dit waar is....'t zou me niet verbazen als 't zo is.
[ Voor 10% gewijzigd door Sjah op 06-10-2003 00:15 ]
Eigenlijk verdient nvidia dit wel he...na al dat gecheat, gekloot, omkopen enzo. Dat ze gewoon uit grafische software design worden getrapt!Sjah schreef op 06 oktober 2003 @ 00:01:
[...]
http://www.gearboxsoftwar...=&fpart=1&vc=1&PHPSESSID=
Vraag me af of dit waar is....'t zou me niet verbazen als 't zo is.
het zou jammer zijn, nvidia maakt op zich goede producten...pas sinds de FX series zijn ze echt rampzalig geworden. Toen de GF ti 4 serie nog heerste was alles nog peis en vree!
Ik hoop niet dat nvidia ondergaat, maar een disciplinaire straf is hier wel op zijn plaats, het liefst gedaan door mensen die ECHT van graphics houden! En tja dat de DX developers boos zijn op nvidia...tja...dat is niet gek. Na al wat is gebeurt, oftewel nvidia, in de gevangenis, sla de beurt over, sla een ronde over.
[ Voor 13% gewijzigd door swampy op 06-10-2003 01:40 ]
There is no place like ::1
Een goede en gelijk trieste zaak, ik denk dat ze niet veel verder meer moeten gaa, anders ligt een boycot met nog hardere maatregelen in het verschiet.Sjah schreef op 06 October 2003 @ 00:01:
[...]
http://www.gearboxsoftwar...=&fpart=1&vc=1&PHPSESSID=
Vraag me af of dit waar is....'t zou me niet verbazen als 't zo is.
Dit aantasten van de standaarden kan echt niet langer.
Aan de andere kant heeft dit er alle schijn van dat het bedrijf de ontwikkelingen niet bij kan benen, de NV40 zal waarschijnlijk geen ps3 (volledig) ondersteunen volgens X-bit.
Niet op voorraad.
Zitten prutsen in DX9 code zodat alleen een herinstallatie van DX9 de schade kan herstellen die Detonator 5.xx aanricht, is natuurlijk superdom van nVidia.

Ik las dat 3DFX hetzelfde ultimatum kreeg gesteld in 99, maar dat dit nieuws pas in 2001 vrij werd gegeven. Nu zijn ze er dus vroeg bij met het vrijgeven van deze informatie.
Maar eigenlijk valt alles precies op zijn plaats zoals ook de opmerking van de grote nV baas dat de 3D graphics markt niet meer hun grootste focus zou krijgen.... dit bericht verklaart meteen waarom.
Dus over een paar jaar is nVidia een underdog op het gebied van graphics, zal ATi de grote koploper zijn, op z'n hielen gevolgd door XGI en/of S3. Nou, da's een vreemd beeld.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
of consentreren zich op de mobo markt.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Hoe kunnen die dan sneller en beter zijn, het zijn toch gewoon NVIDIA Detonator driversGipsy King schreef op 02 oktober 2003 @ 15:54:
als je een asus hebt moet je de 45.23 van de asus website paken 10x beter beeld en sneller als de nvidia 45.23 driver s!! top werk van asus
hal nu 7400marks in 2003 erg netjes:p
Bovenstaande bericht is waarschijnlijk absolute onzin.Sjah schreef op 06 oktober 2003 @ 00:01:
[...]
http://www.gearboxsoftwar...=&fpart=1&vc=1&PHPSESSID=
Vraag me af of dit waar is....'t zou me niet verbazen als 't zo is.
http://www.beyond3d.com/forum/viewtopic.php?t=8307
Waarschijnlijk ?hjs schreef op 06 October 2003 @ 09:05:
[...]
Bovenstaande bericht is waarschijnlijk absolute onzin.
http://www.beyond3d.com/forum/viewtopic.php?t=8307
Dit is totale crap.. die vent die dit beweert is niet helemaal goed bij zijn plaat :
Yes, I have just finished patenting Hybrid Xexen compression . And though nobody still knows what my secret is, I can tell you that it will be a decisive factor in the graphics wars. My technology is one that renders AA and AF obsolete. I cannot say which graphics vendor I'm currently associated with, but you can check out screenshots with my technology as linked below. To protect this company, I have removed the certain info form the pics, as it displays sensitive info on upcoming products. Note that when converting to .jpg, alot of quality was lost in both pics, but you can get the general idea of HXC's abilities
I say we take off and nuke the entire site from orbit. It's the only way to be sure.
Ja behoorlijk ja, maar iedereen hier schijnt dat wel leuk te vinden bahCJ schreef op 06 October 2003 @ 01:56:
Klinkt vrij ernstig voor nVidia. Als ze worden uitgesloten dan zal de performance in DX10 helemaal beroerd zijn, omdat ze niet weten wat ze precies moeten ondersteunen en wat niet. Ik hoop dat het allemaal nog mee zal vallen, maar ik vrees het ergste.
Zitten prutsen in DX9 code zodat alleen een herinstallatie van DX9 de schade kan herstellen die Detonator 5.xx aanricht, is natuurlijk superdom van nVidia.Da's gewoon vragen om problemen.
Ik las dat 3DFX hetzelfde ultimatum kreeg gesteld in 99, maar dat dit nieuws pas in 2001 vrij werd gegeven. Nu zijn ze er dus vroeg bij met het vrijgeven van deze informatie.
Maar eigenlijk valt alles precies op zijn plaats zoals ook de opmerking van de grote nV baas dat de 3D graphics markt niet meer hun grootste focus zou krijgen.... dit bericht verklaart meteen waarom.
Dus over een paar jaar is nVidia een underdog op het gebied van graphics, zal ATi de grote koploper zijn, op z'n hielen gevolgd door XGI en/of S3. Nou, da's een vreemd beeld.
sja, hebben ze ook een beetje over zichzelf afgeroepen he?epo schreef op 06 October 2003 @ 18:14:
[...]
Ja behoorlijk ja, maar iedereen hier schijnt dat wel leuk te vinden bah
maar volgens mij is het niet echt goed voor de industrie als ineens zo'n groot bedrijf van het toneel zal verdwijnen...
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
nVidia zal niet zo snel verdwijnen.
Eerst die nieuwe kaartjes zien dan pas geloven.
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Maar ik heb wel een beetje medelijden met nVidia als NV38 over 4 dagen gereleased wordt. Over 2 dagen komt Catalyst 3.8 uit inclusief Overdrive. In de eerste reviews moet NV38 het dus opnemen tegen de 9800XT inclusief Overdrive. En op Anandtech hebben we de resultaten al gezien zonder Overdrive... en daar verliest-ie het vaak van de XT... laat staan als Overdrive straks aan staat...
[ Voor 61% gewijzigd door CJ op 07-10-2003 02:58 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit kan je ook zien dat nVidia niet verdwijnd als bedrijf maar verdwijnd van de GPU markt.CJ schreef op 07 October 2003 @ 02:56:
nVidia zal inderdaad niet snel verdwijnen. Ze gaan nu de concurrentie aan met Creative door hun eigen geluidskaarten te releasen.
dus naar 'n ander produkten gaan verschuiven.
nVidia zit nu in
Chipset
GPU
GPU professional
+
verschuiven naar geluid
in dat opzicht is dat dus geen goed teken.
maar ik denk dat nV gewoon blijft tenzij er officiele berichten zijn die uitsluitsel geven.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Ik wacht ook in smart af. Ze schijnen veelbelovend te zijn...........mark117 schreef op 07 October 2003 @ 14:38:
[...]
je bent dus ook niet de enige die er met smart op wacht
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 84104
Super zijn ze in ieder geval wel. Zie de 'megatest' op Anandtech waar de Radeon 9800XT met de FX 5900 en FX 5950 wordt vergeleken met een enorm aantal games compleet met imagevergelijkingen:
"The new 52.14 drivers are much better than either the 51.xx or the 45.xx series. The image quality issues are corrected from 51.xx, and a lot of speed has been inked out over the 45.xx drivers. We have actually been very impressed with the speed, image quality, and playability enhancements we have seen."
en
"If NVIDIA can continue to extract the kinds of performance gains from unoptimized DX9 code as they have done with the 52.14 drivers (without sacrificing image quality), they will be well on their way to taking the performance crown back from ATI by the time NV40 and R400 drop. NVIDIAs GPU architecture is a solid one, but it just needs to be treated the right way."
Toch is ondanks de behaalde snelheidswinst op dit moment de ATI 9800 serie met een merendeel der games een betere keus. Zelfs in Halo, waar de FX 5900 Ultra van 16.7 fps (45.23) naar 26.9 fps stijgt met detonator 52.14, zie je dat een 9800XT nog steeds wint met 27.3 fps. In sommige games is de FX wel sneller, maar meestal wint de ATI en vaak zijn de verschillen meer signifikant.
Net als CJ is ook Anandtech "anxious to test out ATIs OverDriver feature" in de Cat 3.8 drivers, waarom ze dat zijn is Meneer_E een compleet raadsel, want de overklok van deze "OverDrive" is werkelijk minimaal en aangezien een beetje tweaker een 9800NP al op net zo'n hoge coresnelheid draait dan een 9800XT met overdrive maximaal zal kunnen halen, zal het effect in de praktijk eerder nadelig dan voordelig zijn. Ook de noobs zullen er niet veel aan hebben, want ten eerste hebben die niet zo veel geld over voor een 9800XT en ten tweede instaleren die meestal niet de nieuwste drivers!
Wat de beeldkwaliteit betreft, bij veruit de meeste games zijn die bij beide kaarten dik in orde, maar zowel de FX als de Radeon hebben elk bij sommige games een probleem, b.v de FX met Homeworld 2 en AA terwijl de ATI in het zeer omstreden Tomb Raider Angel Of Darkness (TRAOD) wel beter uit de benchmarks komt maar:
"the ATI card seemed to have problems rendering walls and water consistently. As Lara slides down the hill at the beginning of this demo, the walls flicker as they approach. I would have simply thought that this was due to AF not being enabled but for the fact that NVIDIAs card renders the walls smoothly and consistently giving a much better experience"
En dan te bedenken dat op menig fora "TRAOD" werd aangehaald als 'bewijs' dat de FX serie niet zou deugen. Anandtech kon het overigens niet laten om een klein oordeel over TRAOD zelf te geven:
"that TRAOD simply isn't a very good game, nor would it be representative of future DX9 games. The graphics features are no where near as impressive as something along the lines of Half Life 2 and high dynamic range effects, and it looks more like a DX7 game running on DX9 shaders"
[ Voor 19% gewijzigd door Anoniem: 84104 op 08-10-2003 13:49 ]
maar ff zonder dollen, complimenten voor nvidia, toch best een goede verbetering
nog alleen even een plekkie waar de drivers te downloaden zijn
[ Voor 17% gewijzigd door mark117 op 08-10-2003 13:45 ]
Yept, nvidia maakt technisch gezien betere kaarten dan ATI, die meer kunnen. Maar al dat gezeik rondt de drivers en cheaten heeft geen goed gedaan.mark117 schreef op 08 October 2003 @ 13:36:
zo dat is een pak van mijn hart, blijkt dat mijn aankoop van een geforcefx 5900 ultra niet helemaal een slechte koop is geweest
maar ff zonder dollen, complimenten voor nvidia, toch best een goede verbetering
Als ze nu niet cheaten, goede drivers maken, goede kaarten...dan zijn ze zo weer aan de top. :-)
There is no place like ::1
Anoniem: 84104
Edit:
En natuurlijk ben ik ook blij voor alle mensen met een FX!
[ Voor 15% gewijzigd door Anoniem: 84104 op 08-10-2003 19:05 ]
En het scheelt game programmers de taak om speciaal voor de FX serie een DX8.1/DX9 path te schrijven. Oftewel die tijd kan in het verbeteren van het spel gaan zitten :-)Anoniem: 84104 schreef op 08 oktober 2003 @ 13:43:
Als bezitter van een ATI videokaart ben ik anders ook erg blij met deze verbeteringen hoor! Nu blijkt dat DX9 games zowel op ATI als ook op Nvidia kaarten goed kunnen draaien, zullen gameproducenten eerder geneigd zijn om DX9-games uit te brengen dan wanneer die alleen maar op de ATI's goed zouden draaien!
Was het niet de programmers van Halflife2 die erover klaagde dat het hun 5x zolang duurde om een DX8.1/DX9 path te schrijven voor de FX kaarten. Misschien met de nieuwere drivers..is dat path niet meer nodig!
[ Voor 16% gewijzigd door swampy op 08-10-2003 13:52 ]
There is no place like ::1
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Aangezien C.G de kaart optimaal kan ondersteunen en DX9 dus niet, kan het dan niet zo zijn dat ze een soort van converter hebben ingebouwt om zo ook goed met DX9 om te gaan waar ze in eerste instantie geen rekening mee hielden, omdat ze overtuigt waren van hun eigen CG????
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
kwam dit nog tegen in een draad op b3d.
deze kwam ik ook tegen in het zelfde draadjeAccording to the new 3DCenter.de article :
the new Deto 52.10/52.14 is worse than the Deto 51.75
when it comes to image quality; especially when using AF.
So I'm a little wondering how Anandtech came to his conclusions.
Link : http://www.3dcenter.org/artikel/detonator_52.14/
sorry for being so loud.
http://www.aclift.eclipse.co.uk/example2.gif
Tjeetje, wat is die Cat 3.7 lelijk op de auto zeg.
Zou dat echt zo zijn, of komen door het verkleinen van de screenshot?
[ Voor 71% gewijzigd door hjs op 08-10-2003 16:36 ]
heb serieus een poosje naar het plaatje gestaard, maar wat is er nu zo mis aan de auto met cat 3.7?hjs schreef op 08 oktober 2003 @ 16:20:deze kwam ik ook tegen in het zelfde draadje
http://www.aclift.eclipse.co.uk/example2.gif
Tjeetje, wat is die Cat 3.7 lelijk op de auto zeg.
Zou dat echt zo zijn, of komen door het verkleinen van de screenshot?
er is juist betere AA op de spoiler/ophanging en de body veranderd al helemaal niet...
[ Voor 11% gewijzigd door Puppetmaster op 08-10-2003 17:18 ]
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Anoniem: 84104
Wat dat artikel op 3dcenter.org betreft, wat een matig stuk zeg! Waar Anandtech juist veel moeite genomen heeft om met nieuwe games te testen en zo een goed beeld krijgen van de moderne games welke ook de nodige DX9-features gebruiken, zitten ze daar met vooral oudere games te testen. Ook daar boeken de nieuwe drivers winst, maar natuurlijk lang niet zoveel als onder de DX9 games. Niet zo vreemd natuurlijk, de DX7 en DX8 performance was bij de nvidia kaarten al heel behoorlijk. Verder is zijn testsysteem ook nog eens een stuk minder snel, dus zeker i.c.m. de oudere games als Dungeon Siege zit je meer de CPU performance dan de GPU performance te meten.
En waar die "Leonidas" van 3dcenter.org aan de hand van de hun D3D-AF-tester een vergeefse poging doet om de beeld IQ (zelfde soort testen waar toenertijd ook de AF van de ATI 8500 serie minder goed op scoorde terwijl het in games juist een voortreffelijk compromis bleek tussen een betere beeldkwaliteit zonder dat er idioot veel performance ingeleverd hoeft te worden) te achterhalen zonder zelf in games en met screenshots te gaan kijken hoe de beeldkwaliteit nou in de praktijk is.
Er is valt nog wel wat meer op zijn stukje aan te merken. Met shadermark wordt vastgestelt dat de shaderperformance flink vooruit gaat maar "Es bleibt natürlich abzuwarten, ob nVidia diesen theoretischen Vorteil auch in realen Anwendungen umsetzen kann". Tja, Anandtech nam de moeite om dat met echte DX9 games te bekijken, deze kerel dus niet.
Aan het eind gaat die "Leonidas" ook nog eens namens een groot deel van de gamers van ATI en Nvidia 'fordern', nou voordat hij namens een hoop gamers mag gaan 'fordern', 'Fordere ich von Leonidas das er erst sein Hirn freischaltet und anfängt ordentlich zu Testen anstatt zu Jammern!"
[ Voor 9% gewijzigd door Anoniem: 84104 op 08-10-2003 17:58 ]
Onderbouw eens, voor sommige mensen kan dit een erg goed kaartje zijn. Vooral met de nieuwe Drivers, zal deze best oké zijn denk ik. Kortom, Flame.Anoniem: 93985 schreef op 08 oktober 2003 @ 18:24:
ff voor de mensen die dit nog niet wisten GeForce FX 5600 SUCKT
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Aantal posts: 6, en hij is een paar dagen geleden geregged.sokje schreef op 08 October 2003 @ 18:25:
[...]
Onderbouw eens, voor sommige mensen kan dit een erg goed kaartje zijn. Vooral met de nieuwe Drivers, zal deze best oké zijn denk ik. Kortom, Flame.
Zegt genoeg lijkt me
Dat ligt aan Catalyst 3.7 (en ook 3.8). Dit wordt verholpen.Anoniem: 84104 schreef op 08 October 2003 @ 13:23:
[...]
Wat de beeldkwaliteit betreft, bij veruit de meeste games zijn die bij beide kaarten dik in orde, maar zowel de FX als de Radeon hebben elk bij sommige games een probleem, b.v de FX met Homeworld 2 en AA
"Home World 2 experiences poor performance and possible system hangs with CATALYST 3.7. This issue will be resolved in an upcoming CATALSYT™ release.
Dit is gefixed in Catalyst 3.8.terwijl de ATI in het zeer omstreden Tomb Raider Angel Of Darkness (TRAOD) wel beter uit de benchmarks komt maar:
"the ATI card seemed to have problems rendering walls and water consistently. As Lara slides down the hill at the beginning of this demo, the walls flicker as they approach. I would have simply thought that this was due to AF not being enabled but for the fact that NVIDIAs card renders the walls smoothly and consistently giving a much better experience"
Je moet maar eens goed kijken naar de conclusies van Anandtech. Elke keer wordt er weer verwezen naar nVidia. Eerst was het nog heel erg positief zo van "nou straks komt er een superkaart van nVidia die nog beter is", maar nu is het meer gematigd. Maar toch wist hij er elke keer een domper op te zetten, zo ook bv bij de Radeon9700Pro, want de FX5800Ultra kwam er aan, dus was het misschien wel verstandig om nog even te wachten. En we weten allemaal wat er toen gebeurde.Anoniem: 84104 schreef op 08 October 2003 @ 17:56:
En ik altijd maar denken dat anandtech juist erg positiev over ATI schreef met b.v. titels als "Radeon 9600Pro: Another Win for ATI" waar een minder positieve reviewer ook had kunnen mokken in de trant van "Radeon 9600Pro, not as good as the 9500Pro..." o.i.d.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ga eens buiten spelen a.u.b.Anoniem: 93985 schreef op 08 October 2003 @ 18:24:
ff voor de mensen die dit nog niet wisten GeForce FX 5600 SUCKT
En ga deze topic niet verzieken met dingen die niet waar zijn.
En als je iets zegt, geef dan ook gelijk even je oordeel over waarom je dit zegt.
Want er zijn genoeg mensen die dit wel een goede kaart vinden.
En als je geen oordeel heb ...zeg dan niks.
En lees ook even de regels eens door van tweakers.
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Destijds was dat geen onterechte opmerking van Anand.CJ schreef op 08 October 2003 @ 19:35:
[...]
Je moet maar eens goed kijken naar de conclusies van Anandtech. Elke keer wordt er weer verwezen naar nVidia. Eerst was het nog heel erg positief zo van "nou straks komt er een superkaart van nVidia die nog beter is", maar nu is het meer gematigd. Maar toch wist hij er elke keer een domper op te zetten, zo ook bv bij de Radeon9700Pro, want de FX5800Ultra kwam er aan, dus was het misschien wel verstandig om nog even te wachten. En we weten allemaal wat er toen gebeurde.
Het lag voor de hand om te verwachten dat nVidia een weliswaar vertraagd maar passend antwoord zou geven met de 5800ultra als zijnde DE 3d fabrikant van de afgelopen jaren.
Pas later met en na de introduktie vd 5800Ultra is gebleken dat nVidia niet langer dominant is in 3D.
nVidia heeft een paar verkeerde inschattingen gemaakt en ze heeft deels moeten boeten voor het penetreren van andere markten (nforce xbox ect.) Toch heeft dit ze ook kennis en revenuen opgeleverd. Ik zou nvidia nog maar niet afschrijven!
Pas na de introductie vd nv40 en r400 weten we echt meer.... voor nu heeft ATI een streepje voor.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Zou ik wel voorzichtig mee zijn:Gipsy King schreef op 08 October 2003 @ 21:29:
iemand de 52.13 drivers al getest ?
Just a little word of warning from the tinkering lads of Guru3D. They have discovered a potentially serious bug in the leaked Detonator 52.13 drivers. So be warned and click on the headline to read the full details:
The error is weird and random. It looks like once you've had a peek at the control panel and then startup a Direct3D game the fan suddenly stops after a couple of secs.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 84104
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Het zou ook kunnen dat ik gewoon een brakke windows heb, 1500 is sowieso al laag voor mijn systeempje.
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Anoniem: 84104 schreef op 08 October 2003 @ 22:15:
Eh CJ, ik vrees toch echt dat het probleem van de FX kaarten met homeworld 2 en AA niet aan de Catalyst-drivers ligt en ook niet met een nieuwe Catalyst-driver zal worden verholpen hoor!



[ Voor 5% gewijzigd door CJ op 09-10-2003 01:10 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 84104
Ach ja, professor Pavlov beschreef dit verschijnsel al vele jaren geleden: Geef een tweaker een GeForce en een snelle kabelverbinding en laat hem anderhalf jaar lang nieuwe detonators downloaden. Tweaker bij elke nieuwe detonator kwispelstaartend blij. Vervang nu stiekem zijn Geforce door een Radeon en laat hem weer een nieuwe detonator zien. Tweaker gaat promt weer vrolijk kwispelstaartend drivertje downloaden, ookal heeft hij er niets aan -> het Pavlov-effect!
ow vandaar dat ze niet wilden installeren op m'n FX 5900Gipsy King schreef op 08 oktober 2003 @ 22:21:
uiteraard niet catalyst is ook voor ati en niet voor nvidialol
![]()
1500 punten (3DMark2003 neem ik aan) is een hele mooie score voor een FX5200!sokje schreef op 08 October 2003 @ 23:15:
Ik vindt het nix, ik haal met 3dmark 170 punten minder, 1500 --> 1330. De Drivers zijn verder wel stabiel.
Het zou ook kunnen dat ik gewoon een brakke windows heb, 1500 is sowieso al laag voor mijn systeempje.
[ Voor 47% gewijzigd door xabre16v op 09-10-2003 08:20 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Maar wat mij betreft kan de kaart nu al niet meer stuk voor mij


Ik geef toe dat ik wel beetje nVida fan ben, maar als een andere kaart mij kan bewijzen beter te presteren dan ga ik voor die. Ik had altijd de beste ervaringen met MSI mobo's maar nu zijn dat toch echt Asus planken geworden hoor
Maargoed, back on-topic
[ Voor 5% gewijzigd door Fr0zenFlame op 09-10-2003 12:59 ]
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Anoniem: 83014
*edit* Ik heb het al gevonden, bij meeste bestanden waren de extensies niet compleet, meeste moeten dus ff afgemaakt worden
*edit 2* Toch niet, mis nog steeds bestanden, dat van extensie aanpassen was niet perse nodig
[ Voor 44% gewijzigd door Anoniem: 83014 op 09-10-2003 13:26 ]
Anoniem: 93985
een club3d geforce FX5600 256 mb
ff specs
P4 @ 2,5 ghz
Asus P4pe moederbord
512 mb pc2700 ddr geheugen
40 gb harddisk (boeit niet echt maarja)
Detonator 45.33
vervolgens heb ik ook nog een p3-800 coppermine
met een geforce ti 4400 (126mb)
256 mb RIMM geheugen @ 800 mhz
3d marks zijn geweldig laag ook na defragmentatie en alle andere fratsen blijft hij slecht presteren (2900 3dmarks) en als je dan in spellen kijkt, bijvoorbeeld met indiana jones en simcity 4 merk je heel erg dat de framerate ontzettend laag is blijft hangen en niet goed tekent jah ik weet niet hoe je dat 'in het jargon moet zeggen' maar als je bijvoorbeeld scrollt dan blijft er een stuk van het vorige beeld achter..
als ik dit vervolgens op de p3-800 draai (indiana jones) niks aan de hand loopt op de hoogste resolutie super stabiel en hoge framerate..
Is dat genoeg onderbouwt..
of moet ik maar buiten gaan spelen dan doe ik dat wel hoor..
[ Voor 37% gewijzigd door Anoniem: 93985 op 09-10-2003 14:11 ]
Ik heb helemaal geen problemen gehad met deze drivers.Anoniem: 83014 schreef op 09 October 2003 @ 13:14:
Ik wou net de 52.13 detonator installen. Maar in read me file staat dat het alleen op de 5800 van de fx versie werkt. Ik kan hem bij mij ook niet installen, hij mist 2 bestanden.
*edit* Ik heb het al gevonden, bij meeste bestanden waren de extensies niet compleet, meeste moeten dus ff afgemaakt worden*edit*
*edit 2* Toch niet, mis nog steeds bestanden, dat van extensie aanpassen was niet perse nodig*edit 2*
Ik heb ze van Guru3d gedownload.
Ik het het is niet alleen maar voor de FX5800 kaart.
Ik heb hier een Asus FX5900 Ultra en werkte meteen goed.
Image zijn goed in spellen en snelheid is ook om goed te noemen.
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Ik heb niet echt veel snelheid winst gekregen moet ik zeggen.Gipsy King schreef op 09 October 2003 @ 18:23:
kun je je vooruitgangen in games en benches eens tonen danplo ?
ik had eerst 45.23 drivers.
Aquamark3 van 42 naar 44 FPS
3Dmark2001 SE een score van 16162
3dmark03 van 6206 naar 6225
Dit alles is met standaard computer gedaan.
CPU en GPU zijn niet geclockt.
Ik haal als ik mijn FX5900 Ultra op het uiterste tweak setting zet een score van 17042 in 3dmark2001 SE.
Met de score 16162 in 3DMark 2001 SE ben ik niet echt tevreden...en ik ga het nog eens proberen want alles draaide goed behalve nature ging ik met deze 52.13 driver gemiddeld 40 FPS achteruit....
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Dit topic is gesloten.