Volgens mij is dat juist slim, het lijkt alsof hier geen extra PCI slot kwijt bent. Groter oppervlak, dan kan de koeler ook lager worden.
Verwijderd
ik vind die cooler van de msi wel lelijk. niet echt mijn smaak. het lijkt wel een bloem ofziets . bahbah
Verwijderd
Mja ik vind hem dus ook niet zo echt geslaagd.
En ja dat hij maar 1 pci slot inneemt kan me niet echt zoveel schelen.
Wie steekt er nu een kaartje juist onder je vga kaartje? Wel eventueel die USB sloten.
En ja dat hij maar 1 pci slot inneemt kan me niet echt zoveel schelen.
Wie steekt er nu een kaartje juist onder je vga kaartje? Wel eventueel die USB sloten.
Verwijderd
Deze vind ik persoonlijk ook al niet zo geslaagd.
Die ori van nvidia daarentegen. ;-)
http://www.ocworkbench.co...i?newsid1052965089,31652,
Die ori van nvidia daarentegen. ;-)
http://www.ocworkbench.co...i?newsid1052965089,31652,
Verwijderd
Wanneer is die 5900 ultra verkrijgbaar voor normale stervelingen?
Wil hem desnoods wel online bestellen bij een buitenlandse webshop...
Alvast bedankt voor de info...
Wil hem desnoods wel online bestellen bij een buitenlandse webshop...
Alvast bedankt voor de info...
Verwijderd
Eum begin juni voor niet stervelingen. En ja eer dat die gezakt is tot het niveau van bvb een huidige Ti4200 dan zal dat toch ZEKER nog een tijdje duren. (na de NV40 zeker?)
Btw er komt ook wel een value serie van die FX 5900 die komt op $299. Die prijs is al iets schappelijker. Alhoewel dat je tegenwoordig die 256 Mb ram nodig hebt, om bvb UT2k3 te spelen.
Btw er komt ook wel een value serie van die FX 5900 die komt op $299. Die prijs is al iets schappelijker. Alhoewel dat je tegenwoordig die 256 Mb ram nodig hebt, om bvb UT2k3 te spelen.
Verwijderd
Begin juni voor niet-stervelingen?
En voor de rest van de wereld?
Zal wel weer ontzettend slecht verkrijgbaar zijn...
En voor de rest van de wereld?
Zal wel weer ontzettend slecht verkrijgbaar zijn...

Verwijderd
Mja ik zal hem zeker kopen alsem uit is. Dan eerst nog 2 weken wachten, want dan daalt die prijs nog goed
)
De verwachting is dat het in Juli voluit leverbaar zal zijn.Verwijderd schreef op 16 mei 2003 @ 12:10:
Begin juni voor niet-stervelingen?
En voor de rest van de wereld?
Zal wel weer ontzettend slecht verkrijgbaar zijn...
Rond die tijd zal nVidia ook de opvolger van de FX5600 Ultra aankondigen die gebaseerd is op de NV36 chip (dus voor de mainstreammarkt). En rond die tijd heeft ATi inmiddels ook de R360 aangekondigd en is deze FX5900Ultra-beater misschien zelfs ook al te verkrijgen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Mja kaartje mag max 400 euro kosten voor mij...
En ik ben niet zo voor ATI... Mor algoe dat ze er zijn anders hadden we nu nog geen FX 5900 ultra gehad hoor
En ik ben niet zo voor ATI... Mor algoe dat ze er zijn anders hadden we nu nog geen FX 5900 ultra gehad hoor
Hmmff... dat Doom III topic was net gesloten toen ik er een serieuze reactie op wilde geven.
Ik hoop dat de mods het niet erg vinden dat ik het hier alsnog even doe. 

Doom III draait eigenlijk optimaal (dus met de beste IQ (beeldkwaliteit)) met het ARB2-path. Helaas zijn de NV30 en NV35 geen snelheidsmonsters met ARB2... dus maken ze gebruik van een speciaal NV30-path.
Het NV30 path maakt echter gebruik van 12 Int en FP16, terwijl de Radeon9500+ kaarten wel gebruik maken van de ARB2-path die op FP24 draait, dus met een hogere colorprecision, waardoor het IQ hoger ligt dan op FP16.
NV30 en NV35 kunnen geen FP24 draaien, maar wel FP32... maar als het op FP32 draait, dan is het stukken trager dan een Radeon. Maar op FP32 zou IQ wel superieur zijn aan de FP24 van de Radeon-kaarten.
Daarnaast heb je ook nog de R200 path en NV20 path voor de oudere kaarten.
Op dit moment zegt nVidia dat ze er aan werken om wel op fullspeed op FP32 te kunnen werken, maar op dit moment kunnen ze dit nog niet. Waar het op neer komt is dat nVidia dus niet kan winnen van ATi zonder een speciaal pad te gebruiken, die ook nog eens op een lagere colorprecision werkt.
Een beetje meer verdiepen in de materie kan geen kwaad voordat je dit soort topics opent...
Zomaar blindelings uit gaan van die benchmarks is natuurlijk een beetje
Daarnaast moet je rekening houden met het feit dat nVidia degene is die deze benchmark heeft georganiseerd (samen met ID) en dat ATi er niets van af wist. Met andere woorden, nVidia had haar drivers helemaal optimaal kunnen tweaken, terwijl ATi dat niet heeft kunnen doen (getuige het feit dat Cat 3.4 niet goed draaide met Doom III). 
Carmack heeft overigens zelf al aangegeven dat hij liever niet meer voor verschillende kaarten wil schrijven, en zich dus wil richten op ARB2.

En weet je hoe dat komt? Volgens mij weet jij nog niet goed hoe Doom III in elkaar zit...Verwijderd schreef op 16 May 2003 @ 13:58:
ja maar sjaak als je naar die van anandtech kijkt zie je dat de Radeon 9800pro GF5800 en 5900 ultra vergeleken worden en daar zit toch wel 30 fps tusse;P
Without any AA/Anisotropic filtering enabled, ATI's solutions fall siginficantly behind the NV30/35

Doom III draait eigenlijk optimaal (dus met de beste IQ (beeldkwaliteit)) met het ARB2-path. Helaas zijn de NV30 en NV35 geen snelheidsmonsters met ARB2... dus maken ze gebruik van een speciaal NV30-path.
Het NV30 path maakt echter gebruik van 12 Int en FP16, terwijl de Radeon9500+ kaarten wel gebruik maken van de ARB2-path die op FP24 draait, dus met een hogere colorprecision, waardoor het IQ hoger ligt dan op FP16.
NV30 en NV35 kunnen geen FP24 draaien, maar wel FP32... maar als het op FP32 draait, dan is het stukken trager dan een Radeon. Maar op FP32 zou IQ wel superieur zijn aan de FP24 van de Radeon-kaarten.
code:
1
2
3
| ARB2-path > NV30-path wat betreft IQ FX met NV30-path > Radeon met ARB2 wat betreft snelheid FX met ARB2-path < Radeon met ARB2 wat betreft snelheid |
Daarnaast heb je ook nog de R200 path en NV20 path voor de oudere kaarten.
Op dit moment zegt nVidia dat ze er aan werken om wel op fullspeed op FP32 te kunnen werken, maar op dit moment kunnen ze dit nog niet. Waar het op neer komt is dat nVidia dus niet kan winnen van ATi zonder een speciaal pad te gebruiken, die ook nog eens op een lagere colorprecision werkt.
Een beetje meer verdiepen in de materie kan geen kwaad voordat je dit soort topics opent...


Carmack heeft overigens zelf al aangegeven dat hij liever niet meer voor verschillende kaarten wil schrijven, en zich dus wil richten op ARB2.
[ Voor 3% gewijzigd door CJ op 16-05-2003 14:20 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Het valt mij op dat de R300 architectuur het veel beter doet mbt dx9 applicaties (shaders), nog geen must nu natuurlijk, maar het geeft wel aan dat de R300 core goed inelkaar zit.CJ schreef op 16 May 2003 @ 14:19:
Hmmff... dat Doom III topic was net gesloten toen ik er een serieuze reactie op wilde geven.Ik hoop dat de mods het niet erg vinden dat ik het hier alsnog even doe.
[...]
En weet je hoe dat komt? Volgens mij weet jij nog niet goed hoe Doom III in elkaar zit...
Doom III draait eigenlijk optimaal (dus met de beste IQ (beeldkwaliteit)) met het ARB2-path. Helaas zijn de NV30 en NV35 geen snelheidsmonsters met ARB2... dus maken ze gebruik van een speciaal NV30-path.
Het NV30 path maakt echter gebruik van 12 Int en FP16, terwijl de Radeon9500+ kaarten wel gebruik maken van de ARB2-path die op FP24 draait, dus met een hogere colorprecision, waardoor het IQ hoger ligt dan op FP16.
NV30 en NV35 kunnen geen FP24 draaien, maar wel FP32... maar als het op FP32 draait, dan is het stukken trager dan een Radeon. Maar op FP32 zou IQ wel superieur zijn aan de FP24 van de Radeon-kaarten.
code:
1 2 3 ARB2-path > NV30-path wat betreft IQ FX met NV30-path > Radeon met ARB2 wat betreft snelheid FX met ARB2-path < Radeon met ARB2 wat betreft snelheid
Daarnaast heb je ook nog de R200 path en NV20 path voor de oudere kaarten.
Op dit moment zegt nVidia dat ze er aan werken om wel op fullspeed op FP32 te kunnen werken, maar op dit moment kunnen ze dit nog niet. Waar het op neer komt is dat nVidia dus niet kan winnen van ATi zonder een speciaal pad te gebruiken, die ook nog eens op een lagere colorprecision werkt.
Een beetje meer verdiepen in de materie kan geen kwaad voordat je dit soort topics opent...Zomaar blindelings uit gaan van die benchmarks is natuurlijk een beetje
Daarnaast moet je rekening houden met het feit dat nVidia degene is die deze benchmark heeft georganiseerd (samen met ID) en dat ATi er niets van af wist. Met andere woorden, nVidia had haar drivers helemaal optimaal kunnen tweaken, terwijl ATi dat niet heeft kunnen doen (getuige het feit dat Cat 3.4 niet goed draaide met Doom III).
Carmack heeft overigens zelf al aangegeven dat hij liever niet meer voor verschillende kaarten wil schrijven, en zich dus wil richten op ARB2.
Natuurlijk heb ik al lang een andere kaart als ik de Doom3 CD's in m'n pc schuif maar ik vraag me toch hoe groot het verschil (banding te zien?) zal zijn in Doom3 tussen 16 bits floatingpoint en 24 bits.
Als je de verschillen, net zo als in 3DMark2003, pas ziet als je de scene onder een vergrootglas is het niet zo'n ramp, hoewel de essentie dan natuurlijk wel verloren gaat, het is juist de bedoeling dat we meer preciesie in de rendering krijgen..
Niet op voorraad.
Idd, ziet er niet uit, misschien wel effectief?Verwijderd schreef op 16 May 2003 @ 11:23:
Deze vind ik persoonlijk ook al niet zo geslaagd.
Die ori van nvidia daarentegen. ;-)
http://www.ocworkbench.co...i?newsid1052965089,31652,
Ik vind ook de org. mooier.
Niet op voorraad.
Dat is alleen de ARB_Vertex extensie, voor de shader extensie zal hij verschillende code paden blijven schrijven. Pixel shaders blijven dus specifiek Vertex shaders worden standaard.CJ schreef op 16 mei 2003 @ 14:19:
Carmack heeft overigens zelf al aangegeven dat hij liever niet meer voor verschillende kaarten wil schrijven, en zich dus wil richten op ARB2.
Doom has dropped support for vendor-specific vertex programs
(NV_vertex_program and EXT_vertex_shader), in favor of using
ARB_vertex_program for all rendering paths.
Ehm.. Het zou een stuk effectiever zijn als die finnen veel dunner waren en het er meer waren 
En als ze overal even hoog waren geweest, was het helemaal mooi geweest!
En als ze overal even hoog waren geweest, was het helemaal mooi geweest!
Alone at last
Just nostalgia and I
We were sure to have a blast
Hehe, een 15tal posts eerder stond er ook al een ander plaatje van.Hacku schreef op 16 May 2003 @ 19:47:
Hier is de MSI GeForce FX 5900 Ultra:
[afbeelding]
Lekker ding
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Ik wacht voor me lievelings merk: Leadtek en dat wordt de:
Leadtek Winfast A350 ULTRA TD My ViVo
HeheVerwijderd schreef op 16 mei 2003 @ 20:14:
Ik wacht voor me lievelings merk: Leadtek en dat wordt de:
![]()
Leadtek Winfast A350 ULTRA TD My ViVo
![]()
Als die heatsink weer zoiets wordt als op de 250 ultra
Die heb ik nu en die is wel erg fijn
Wel die kleine fannetjes eruit-gesloopt en er een papstje voor gehangen
Maar valt nog steeds goed te oc-en en maakt dus geen herrie
Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
idd die heb ik ook maar dan niet de My Vivi versie:Okyah schreef op 16 May 2003 @ 20:20:
[...]
Hehe
Als die heatsink weer zoiets wordt als op de 250 ultra
Die heb ik nu en die is wel erg fijn
Wel die kleine fannetjes eruit-gesloopt en er een papstje voor gehangen
Maar valt nog steeds goed te oc-en en maakt dus geen herrie
Leadtek Winfast A250 ULTRA TD [nVidia GeForce 4 Ti 4600 ULTRA] echt een buitegewoon ontwerp dat van Leadtek.
Helaas staat er niets over de hsf oplossing...
Ik vraag me trouwens af of het mogelijk is met de FX5900Ultra om de fan uit te zetten en er een 80 of 92 mm fan onder te hangen..
Ik vraag me trouwens af of het mogelijk is met de FX5900Ultra om de fan uit te zetten en er een 80 of 92 mm fan onder te hangen..
Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
hmm volgens mij gaat hij een beetje het zelfde ontwerp als die van de A300 gebruiken maar ja het kan ook iets heel anders worden 
Ach ja Time will tell I guess
"But I want iT so bad.ooohhhh man!! hier dat ding!!!!!"
Ach ja Time will tell I guess
"But I want iT so bad.ooohhhh man!! hier dat ding!!!!!"
[ Voor 30% gewijzigd door Verwijderd op 16-05-2003 20:30 ]
of gewoon dat hele ding eraf slopen en zo'n conrad 10x20cm koelplaat eronder hangen, met een beetje dremelen moet dat toch best te doen zijn.Okyah schreef op 16 mei 2003 @ 20:26:
Helaas staat er niets over de hsf oplossing...
Ik vraag me trouwens af of het mogelijk is met de FX5900Ultra om de fan uit te zetten en er een 80 of 92 mm fan onder te hangen..
Leadtek wordt op zeker weer mijn merk.Verwijderd schreef op 16 May 2003 @ 20:24:
Check hiero!!!:
http://www.leadtek.com.tw...0_ultratdh_myvivo_1.shtml
He's com'n!!! Oh Yeah!!!![]()
![]()
![]()
![]()
Ben erg tevreden geweest met mijn ti4600 van leadtek.
Ben benieuwd hoe dit beesje eruit gaat zien....
Laat maar komen die hap...kan niet meer langer wachten.....
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Zou het niet beter zijn als ze de heatsinks niet rond maar recht maakten? De geheugenchips zitten er denk ik ook niet krom op.Hacku schreef op 16 mei 2003 @ 19:47:
Hier is de MSI GeForce FX 5900 Ultra:
[afbeelding]
Lekker ding
Verwijderd
Jawel, ze zitten er in 'cirkelvorm' rond:Verwijderd schreef op 16 mei 2003 @ 23:04:
[...]
Zou het niet beter zijn als ze de heatsinks niet rond maar recht maakten? De geheugenchips zitten er denk ik ook niet krom op.
Verwijderd
hmmm wel grappig eigenlijk, op de Matrox Parhelia zaten de mem chips ook zo rond omheen de GPU LOL
Verwijderd
nVidia verhoogt kloksnelheid GeForce FX 5600 Ultra
Volgens X-Bit Labs heeft nVidia de kloksnelheid van de GeForce FX 5600 Ultra verhoogd. Eerder gaf nVidia te kennen dat deze GPU op een snelheid van 350MHz zou draaien, maar doordat ze het 130nm fabricage proces van de NV31 nu beter begrijpen kunnen ze de kloksnelheid verhogen tot 400MHz. Maar niet alleen de kloksnelheid van de GPU wordt verhoogd, de snelheid van het geheugen wordt ook verhoogd van 350MHz naar 400MHz. Wanneer we kaarten met deze vernieuwde GeForce FX 5600 Ultra op de markt mogen verwachten is trouwens nog niet bekend.

Bron: nieuws: nVidia verhoogt kloksnelheid GeForce FX 5600 Ultra
Volgens X-Bit Labs heeft nVidia de kloksnelheid van de GeForce FX 5600 Ultra verhoogd. Eerder gaf nVidia te kennen dat deze GPU op een snelheid van 350MHz zou draaien, maar doordat ze het 130nm fabricage proces van de NV31 nu beter begrijpen kunnen ze de kloksnelheid verhogen tot 400MHz. Maar niet alleen de kloksnelheid van de GPU wordt verhoogd, de snelheid van het geheugen wordt ook verhoogd van 350MHz naar 400MHz. Wanneer we kaarten met deze vernieuwde GeForce FX 5600 Ultra op de markt mogen verwachten is trouwens nog niet bekend.

Bron: nieuws: nVidia verhoogt kloksnelheid GeForce FX 5600 Ultra
Wat ik niet begrijp is, waarom ze er zo'n klein fannetje opplakken (aan de achterkant).Verwijderd schreef op 17 May 2003 @ 00:02:
[...]
Jawel, ze zitten er in 'cirkelvorm' rond:
[afbeelding]
De fan aan de voorkant lijkt me wat groter dan normaal, maar die aan de achterkant is miniscuul. Om die fan dan wat lucht te laten verplaatsen moet het aantal rpm aardig hoog zijn.. En dat resulteert dus in herrie.
Als er nou aan de achterkant en voorkant gebruik gemaakt zou worden van een koperen heatsink, van hetzelfde model als nu aan de voorkant, maar dan met meer en dunnere fins en er een grote fan in/op, zodat er met weinig geluid flinke airflow over de kaart is.
Alone at last
Just nostalgia and I
We were sure to have a blast
Is het ding nu wel sneller dan een TI4200?Verwijderd schreef op 17 May 2003 @ 13:23:
nVidia verhoogt kloksnelheid GeForce FX 5600 Ultra
tvw
Verwijderd
Ja, volgens mij wel. Ti4200 (AGP8x) heeft een klok/mem snelheden van 250/500. Ti4200 64MB heeft 250/514 en de Ti4200 128MB 250/444. 5600 Ultra krijgt 400/400, maar beschikt nog steeds (naar mij weten) 128bit bus en dat is natuurlijk een -punt van dit kaart. Volgens mij krijgt de RADEON 9600 VPU ook een klok/mem boost.
[ Voor 7% gewijzigd door Verwijderd op 17-05-2003 15:34 ]
De GeForceFX5600Ultra is doorgaans altijd al sneller geweest dan de Ti4200 (vooral met AA & AF). Het was de FX5200 (Ultra) die niet echt sneller was dan de Ti4200.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ben wel benieuwd of er nog een mogenlijkheid is om er een andere fan/waterkoeling op te maken.
Heb igg nog nergens een 5900 zonder fan gezien, zitten er wel gaten om de core?
Zie overal dat het van die grote koelers zijn voor core+geheugen met klikkertjes rondom.
Heb igg nog nergens een 5900 zonder fan gezien, zitten er wel gaten om de core?
Zie overal dat het van die grote koelers zijn voor core+geheugen met klikkertjes rondom.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
De FX5600 is niet sneller dan een TI4200 (oke wel met AA en AF) maar met met gewoon standaart settings wordt de FX5600 er helemaal uit geroxord. Vooral met echte games (niet syntetisch of hoe dat ook heetCJ schreef op 17 May 2003 @ 17:56:
[...]
De GeForceFX5600Ultra is doorgaans altijd al sneller geweest dan de Ti4200 (vooral met AA & AF). Het was de FX5200 (Ultra) die niet echt sneller was dan de Ti4200.
Kijk hier maar eens:
http://www.tomshardware.c...forcefx-5600-5200-03.html
tvw
Om de een of andere reden wist ik dat die test naar voren gehaald zou worden.ShotGun schreef op 17 May 2003 @ 18:11:
[...]
De FX5600 is niet sneller dan een TI4200 (oke wel met AA en AF) maar met met gewoon standaart settings wordt de FX5600 er helemaal uit geroxord. Vooral met echte games (niet syntetisch of hoe dat ook heet).
Kijk hier maar eens:
http://www.tomshardware.c...forcefx-5600-5200-03.html
Het klopt inderdaad wat je zegt als je naar die test kijkt... Maar je moet rekening houden met het feit dat dit een oude test is met oude drivers (42.73 en 43.00). Na deze test zijn er verscheidene andere tests geweest (bv Radeon9600Pro review) waarin de FX5600Ultra met de 43.45 drivers al een stuk dichterbij kwam...
En vergeet ook niet de net uitgebrachte DetonatorFX waarmee de FX5200 en FX5600 beide een hele leuke performance boost krijgen.
Maar gezien de snelheden van de re-spin FX5600Ultra, kan je er denk ik wel van uit gaan dat het ook op 'normale instellingen' ook wel sneller zal zijn dan een Ti4200.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Inderdaad, de vernieuwde FX-5600 ultra lijkt mede dankzij de nieuwe drivers ook zonder AA & AF bij de meeste games nu iets sneller te zijn dan de TI-4200 8X. Binnenkort komt Anandtech met een test van de vernieuwde FX-5600 ultra.
[ Voor 3% gewijzigd door Verwijderd op 17-05-2003 20:43 ]
Verwijderd
Ach, door het gerucht dat nvidia z'n drivers wel eens zou kunnen 'benchmark-optimalizeren' weet ik niet meer wat ik er allemaal nog van kan geloven...CJ schreef op 17 May 2003 @ 19:07:
[...]
Om de een of andere reden wist ik dat die test naar voren gehaald zou worden.
Het klopt inderdaad wat je zegt als je naar die test kijkt... Maar je moet rekening houden met het feit dat dit een oude test is met oude drivers (42.73 en 43.00). Na deze test zijn er verscheidene andere tests geweest (bv Radeon9600Pro review) waarin de FX5600Ultra met de 43.45 drivers al een stuk dichterbij kwam...
En vergeet ook niet de net uitgebrachte DetonatorFX waarmee de FX5200 en FX5600 beide een hele leuke performance boost krijgen.
Maar gezien de snelheden van de re-spin FX5600Ultra, kan je er denk ik wel van uit gaan dat het ook op 'normale instellingen' ook wel sneller zal zijn dan een Ti4200.
Verwijderd
Elke goede fabrikant behoort zijn drivers voor games en benchmarks te optimaliseren!
En als Extremetech als enige klaagt dat de weergave bij 3Dmark03 verdachte fouten vertoond, terwijl diverse sites als Anandtech juist stellen dat de beeldkwaliteit t.o.v. eerdere drivers behoorlijk verbeterd is, dan denk ik dat het wel losloopt. Overigens de meest gehoorde klachten over de beeldkwaliteit van de 'oude' NV30 was dat bij sommige drivers de kleurweergave 16bits i.p.v. 24 of 32 bit zou zijn en dat de AA kwaliteit t.o.v. de Radeons minder was.
Dat laatste klopt zonder meer, de FX heeft nog altijd de (on)nodige kartelrandjes, waar de ATI's dit bij 4x AA prima weten weg te werken. Zo concludeerd Hardocp mede met behulp van de volgende pic's dat de beeldkwaliteit van de 9700 pro beter zou zijn:
http://www.hardocp.com/im...kMzFISXhfNF8yMF9sLmpwZw==
http://www.hardocp.com/im...kMzFISXhfNF8xNF9sLmpwZw==
Inderdaad heeft de NV30 veel meer last kartelrandjes, maar deze zijn vooral zo goed zichtbaar omdat de kleurweergave en dan met name het contrast van de NV30 superieur is t.o.v. de 9700 serie.
En hoewel ik dat als Radeon-bezitter natuurlijk niet graag toegeef, vind ik de beeldkwaliteit van de FX-5800 bij ondanks de lichte kartelrandjes gemiddeld gezien beter, het betere kleurcontrast van de FX weegt voor mij namelijk zwaarder dan uitstekende AA van de Radeon. Daarom mijn advies: altijd ZELF kijken welke weergave je beter vind en niet te veel naar anderen luisteren!
En als Extremetech als enige klaagt dat de weergave bij 3Dmark03 verdachte fouten vertoond, terwijl diverse sites als Anandtech juist stellen dat de beeldkwaliteit t.o.v. eerdere drivers behoorlijk verbeterd is, dan denk ik dat het wel losloopt. Overigens de meest gehoorde klachten over de beeldkwaliteit van de 'oude' NV30 was dat bij sommige drivers de kleurweergave 16bits i.p.v. 24 of 32 bit zou zijn en dat de AA kwaliteit t.o.v. de Radeons minder was.
Dat laatste klopt zonder meer, de FX heeft nog altijd de (on)nodige kartelrandjes, waar de ATI's dit bij 4x AA prima weten weg te werken. Zo concludeerd Hardocp mede met behulp van de volgende pic's dat de beeldkwaliteit van de 9700 pro beter zou zijn:
http://www.hardocp.com/im...kMzFISXhfNF8yMF9sLmpwZw==
http://www.hardocp.com/im...kMzFISXhfNF8xNF9sLmpwZw==
Inderdaad heeft de NV30 veel meer last kartelrandjes, maar deze zijn vooral zo goed zichtbaar omdat de kleurweergave en dan met name het contrast van de NV30 superieur is t.o.v. de 9700 serie.
En hoewel ik dat als Radeon-bezitter natuurlijk niet graag toegeef, vind ik de beeldkwaliteit van de FX-5800 bij ondanks de lichte kartelrandjes gemiddeld gezien beter, het betere kleurcontrast van de FX weegt voor mij namelijk zwaarder dan uitstekende AA van de Radeon. Daarom mijn advies: altijd ZELF kijken welke weergave je beter vind en niet te veel naar anderen luisteren!
Nee, niet als enige. Beyond3D was het ook opgevallen, en Beyond3D is nou niet bepaald een kleintje zonder kennis. ExtremeTech trouwens ook niet.Verwijderd schreef op 17 May 2003 @ 21:11:
Elke goede fabrikant behoort zijn drivers voor games en benchmarks te optimaliseren!
En als Extremetech als enige klaagt dat de weergave bij 3Dmark03 verdachte fouten vertoond, terwijl diverse sites als Anandtech juist stellen dat de beeldkwaliteit t.o.v. eerdere drivers behoorlijk verbeterd is, dan denk ik dat het wel losloopt.
Er is een reden waarom alleen die twee sites dit is opgevallen... ze hebben als enige twee hardwarewebsites de beschikking over de Beta-deelnemers versie van 3DMark2k3 waar je dus vrij in rond kan bewegen. Dus is het logisch dat andere sites dit niet is opgevallen.
Zowel ExtremeTech als Beyond3D (deze sinds kort) zitten in het BETA-program van FutureMark en nVidia is uit dat programma gestapt eind vorig jaar (misschien wel omdat ze zo slecht presteerden in 3DMark).... Dus ze hebben geen toegang meer tot deze versie en kunnen niet checken hoe het er verder uit ziet in de free-cam mode...
In het Futuremark/3DMark BETA-Program zitten verder:
- AMD
- ATi
- Intel
- Microsoft
- Creative
- Matrox
- S3
- SiS
- C|Net
- Dell
- Gateway
- Imagination Tech
- InnoVision
- Transmeta
- Trident
Zoals je ziet zitten alle grote spelers er in, en op andere kaarten (voor zover ze dit konden testen) was dit probleem er niet... nVidia is dus de enige grote speler die een probleem heeft met 3DMark, de rest niet... Dus dat kan je op z'n minst vreemd noemen.
[ Voor 2% gewijzigd door CJ op 17-05-2003 22:49 . Reden: typos ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Ach so.
Wellicht is het dan toch verstandig dat ik even afwacht hoe de test van Anandtech over de vernieuwde FX-5600 ultra i.c.m. de nieuwe drivers zal uitpakken.
Mijn probleem met 3Dmark03 is overigens dat er geen zinnig verband zit tussen de scores van 3Dmark03's DirextX 7 en de twee DirectX 8 testen en de gewone DirectX 7 en 8 games.
Mijn 2e probleem met 3Dmark03 is dat er geen zinnig verband zit tussen de DirectX8 testen en de DirectX8 test van de (m.i. meer betrouwbare) 3Dmark2001.
Niet dat er overigens maar iemand van Futuremark in mijn mening over de onzinnigheid van 3Dmark03 geïnteresseerd zal zijn
Wellicht is het dan toch verstandig dat ik even afwacht hoe de test van Anandtech over de vernieuwde FX-5600 ultra i.c.m. de nieuwe drivers zal uitpakken.
Klopt, want Meneer_E is überhaupt geen speler in dit spel!CJ schreef op 17 mei 2003 @ 22:47:
[...]
... nVidia is dus de enige grote speler die een probleem heeft met 3DMark, de rest niet...
Mijn probleem met 3Dmark03 is overigens dat er geen zinnig verband zit tussen de scores van 3Dmark03's DirextX 7 en de twee DirectX 8 testen en de gewone DirectX 7 en 8 games.
Mijn 2e probleem met 3Dmark03 is dat er geen zinnig verband zit tussen de DirectX8 testen en de DirectX8 test van de (m.i. meer betrouwbare) 3Dmark2001.
Niet dat er overigens maar iemand van Futuremark in mijn mening over de onzinnigheid van 3Dmark03 geïnteresseerd zal zijn
Hmm... wel een beetje off-topic reactie van mij, maar in mijn ogen is 3DMark2k3 betrouwbaarder dan 3DM2k1, vooral vanwege het feit dat een hogere score gemakkelijker te halen is in 2k1 door bv een snellere CPU, mobo of geheugen. Daar heb je bij 2k3 minder last van. 2001 was in mijn ogen meer een test voor je hele systeem, terwijl 2003 meer de sterke punten van je GPU/VPU test.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
De meeste games zijn ook meer een test van het hele systeem, je mag van een Celeron 333 + 9700pro geen topprestatie verwachten. Net zo min als een P4 op 3 Ghz met een GF-2MX goed zal presteren.
Verder is het zo dat onder 3Dmark's defaultresolutie 1024*768*32 zonder AA & AF b.v. een Ti-4800 beter presteert in directX 7 & 8 games dan een radeon 9500 non pro. Dit zie je ook terug in de DirectX 7 en 8 testen van 3Dmark2001
Maar de DirectX 7 en 8 testen van 3Dmark03 suggeren dat de Radeon 9500 non pro de snellere kaart zou zijn en zet zo menigeen op het verkeerde been.
Verder is het zo dat onder 3Dmark's defaultresolutie 1024*768*32 zonder AA & AF b.v. een Ti-4800 beter presteert in directX 7 & 8 games dan een radeon 9500 non pro. Dit zie je ook terug in de DirectX 7 en 8 testen van 3Dmark2001
Maar de DirectX 7 en 8 testen van 3Dmark03 suggeren dat de Radeon 9500 non pro de snellere kaart zou zijn en zet zo menigeen op het verkeerde been.
Verwijderd
3Dmark is vooral bedoeld voor videokaarten en Games. CPU en Geheugen spelen ook een rol in games, te weinig geheugen kan hapering veroorzaken etc. in 3Dmark01 wordt alles getest en dat vind ik dus een +punt van 01 zelf, 03 is naar mij weten méér naar de vidkaart gericht, met een P3 800 Mhz en een Ati 9700 Pro haal je wel ca. 3000 (03)punten (als ik het goed hebt) maar je kan altijd last hebben in spellen die hoge CPU krachten vragen. Bovendien is 01 voor alle kaarten bedoeld, vanaf ati rage, TNT tijdperk tot nu, terwijl je in 03 ca. vanaf Ati 8500 een 'redelijk'hoge score kan krijgen. + . van 03 is dat ie DX9 spellen beschikt. Sterker nog in 01 kan je alle vidkaarten met elkaar mee vergelijken. Ik vind 3Dmark01 & 03 allebei goed, altijd leuk als je ze all2 hebt en mee bench, maar ik heb liever 01 dan 03 IMO.CJ schreef op 18 May 2003 @ 01:44:
[...]
Hmm... wel een beetje off-topic reactie van mij, maar in mijn ogen is 3DMark2k3 betrouwbaarder dan 3DM2k1, vooral vanwege het feit dat een hogere score gemakkelijker te halen is in 2k1 door bv een snellere CPU, mobo of geheugen. Daar heb je bij 2k3 minder last van. 2001 was in mijn ogen meer een test voor je hele systeem, terwijl 2003 meer de sterke punten van je GPU/VPU test.
Back 2 @ ontopic
Verwijderd
hier hebben we nog meer prachtige foto's van de nVidia GeForce FX 5900 ULTRA:
http://www.hothardware.co...fx5900/fx5900topstyle.htm
http://www.hothardware.co...es/fx5900/fx5900angle.htm
En deze foto laat zien hoe lang hij wel eignelijk is:
http://www.hothardware.co...s/fx5900/cardscompare.htm
dus ja ik denk dat hij niet in elke kast zal passen, ik zat te denken aan de 3dfx Voodoo5 5500 / 6000
http://www.hothardware.co...fx5900/fx5900topstyle.htm
http://www.hothardware.co...es/fx5900/fx5900angle.htm
En deze foto laat zien hoe lang hij wel eignelijk is:
http://www.hothardware.co...s/fx5900/cardscompare.htm
dus ja ik denk dat hij niet in elke kast zal passen, ik zat te denken aan de 3dfx Voodoo5 5500 / 6000
[ Voor 42% gewijzigd door Verwijderd op 18-05-2003 12:26 ]
Nog steeds ben ik van mening dat het design van de heatsinks een beetje stupide is.
De grootste klacht die gehoord (
) was over de 5800ultra was het geluidsniveau, toch? 
Waarom maken ze de heatsink dan niet zo dat er geeen harddraaiende fan nodig is!
Ok, de productiekosten zullen iets stijgen, maar de reputatie die de kaart opbouwt zal een stuk beter zijn!
Als je keek naar de reacties over de (let op
) FX5600 en FX5900ultra op T.net zag je veel reacties waarin werd gezegd dat deze kaarten waarschijnlijk wel weer veel herrie zouden maken...
Men had dus de 5800ultra nog flink in t achterhoofd hangen.
Als ze dus nu zouden zorgen dat die kaart ECHT stil zou zijn, zouden ze hun reputatie weer verbeteren, want men associeert nu een FX met herrie.
Dus:
Lange brede koperen heatsink aan allebei de kanten.
Veel dunne fins.
Grote koelers op weinig toeren.
Ik zeg niet dat die heatsink echt troep is
Maar ik ben van mening dat het beter zou kunnen.
De grootste klacht die gehoord (
Waarom maken ze de heatsink dan niet zo dat er geeen harddraaiende fan nodig is!
Ok, de productiekosten zullen iets stijgen, maar de reputatie die de kaart opbouwt zal een stuk beter zijn!
Als je keek naar de reacties over de (let op
Men had dus de 5800ultra nog flink in t achterhoofd hangen.
Als ze dus nu zouden zorgen dat die kaart ECHT stil zou zijn, zouden ze hun reputatie weer verbeteren, want men associeert nu een FX met herrie.
Dus:
Lange brede koperen heatsink aan allebei de kanten.
Veel dunne fins.
Grote koelers op weinig toeren.
Ik zeg niet dat die heatsink echt troep is
Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
hier kan je ook zien wat onder die Leadtek GeFoce FX 5800 [niet 5900] cooling zit:
http://www.overclockers.c...00/leadtek_fx5800/1.shtml
Het is een vage site uit New Zeeland...
http://www.overclockers.c...00/leadtek_fx5800/1.shtml
Het is een vage site uit New Zeeland...
[ Voor 5% gewijzigd door Verwijderd op 18-05-2003 12:52 ]
Verwijderd
Daar heb je een punt, maar om de een of andere reden gebruiken videokaartenbakkers niet veel koper, misschien is het te duur, al maakt dat niet veel verschil op een kaart van €500.Okyah schreef op 18 May 2003 @ 12:33:
Dus:
Lange brede koperen heatsink aan allebei de kanten.
Veel dunne fins.
Grote koelers op weinig toeren.
Ik zeg niet dat die heatsink echt troep isMaar ik ben van mening dat het beter zou kunnen.
Verwijderd
Je zegt het zelf, Ok, de productiekosten zullen iets stijgen, maar de reputatie die de kaart opbouwt zal een stuk beter zijn! FX5900 is al duur en men heeft geen zin om het nog duurder te gaan maken, zo heb je een grote kans dat er weinig van dat FX5900 modellen gekocht wordt en dat levert dus weinig winst op. We praten wel over de FX5900 (opvolger van 5800) FX5900 was bedoeld om bugs/etc. van de NV30 op-te-lossen en te verbeteren en zo min mogelijk duurder te maken. Hoe beter hoe duurder! Misschien zal Nvidia aan de volgende kaart meer aandacht besteden aan betere heatsink etc. Maar je id is niet slecht.Okyah schreef op 18 May 2003 @ 12:33:
Nog steeds ben ik van mening dat het design van de heatsinks een beetje stupide is.
De grootste klacht die gehoord () was over de 5800ultra was het geluidsniveau, toch?
Waarom maken ze de heatsink dan niet zo dat er geeen harddraaiende fan nodig is!
Ok, de productiekosten zullen iets stijgen, maar de reputatie die de kaart opbouwt zal een stuk beter zijn!
Als je keek naar de reacties over de (let op) FX5600 en FX5900ultra op T.net zag je veel reacties waarin werd gezegd dat deze kaarten waarschijnlijk wel weer veel herrie zouden maken...
Men had dus de 5800ultra nog flink in t achterhoofd hangen.
Als ze dus nu zouden zorgen dat die kaart ECHT stil zou zijn, zouden ze hun reputatie weer verbeteren, want men associeert nu een FX met herrie.
Dus:
Lange brede koperen heatsink aan allebei de kanten.
Veel dunne fins.
Grote koelers op weinig toeren.
Ik zeg niet dat die heatsink echt troep isMaar ik ben van mening dat het beter zou kunnen.
Verwijderd
ff klein vraagje tussen door, worden ALLE geforce fx 5200 NON-ultra passief gekoeld? Ik heb het nogal begrepen op de stilte van mn pc'tje en dacht aan de aankoop van de Point of view Geforce fx 5200... wou wel graag weten of deze passief gekoeld wordt of niet, maar kan het niet vinden op het net 
Thanx
Thanx
Verwijderd
jaa het asus bordje komt er ook aan, onder de naam: V9950
jammer genoeg nog geen plaatjes
bron: http://www.asus.com/news/2003/20030516.htmTaipei, Taiwan; May 16, 2003 – ASUSTeK Computer Inc. (ASUS), a worldwide leader in high-performance graphics solutions, today announced the latest ASUS V9950 graphics card series incorporating NVIDIA's GeForce FX 5900 family of graphics processing unit (GPU). When graphics card heavyweight ASUS meets the world's fastest and most powerful GPU, the result is a solution delivering the most realistic visual on PC to date.
Power for industry-leading 3D graphics
The V9950 series and GeForce FX 5900 family have taken graphics performance to a whole new era. Large bandwidth of 256bit and NVIDIA's exclusive Lightspeed Memory Architecture enable complex textures, lighting, and other effects to an entire scene. The new-generation CineFX 2.0 Engine, which delivers 2X floating point pixel shading power, and UltraShadow, NVIDIA's new patent pending shadow volume acceleration technology, significantly enhances the performance for the latest engines such as Doom 3 and Abducted. The Intellisample HCT (Hi-resolution Compression Technology), as well as its new anisotropic algorithms, brings 50% efficiency improvement in texture, color, and Z compression than previous solutions, automatically providing a boost to antialiasing. AGP 8x graphics interface is of course available in this revolutionary graphics card.
Engineering excellence
With the first GPU to fully exert the advantage of 0.13-micron semiconductor fabrication process, 8-pixels per clock cycle, true 128-bit studio-precision pixel processing, 256-bit memory bus, high-level multi-API shading languages including Cg and HLSL, and complete support for DirectX 9.0 & OpenGL, the V9950 series is the best development and playback platform for next-generation cinematic-quality games.
Advanced thermal solution
High performance and high temperature often come hand in hand, but this is not the case in the V9950 series. ASUS developed an all-new thermal solution leveraging a one-slot, one-fan design to minimize size and noise (under 30dB). Combined with the unique copper heatsink, the V9950 series effectively cools down system temperature to provide a reliable and quiet environment.
ASUS proprietary GameFace technology
ASUS will also bundle an innovative utility. GameFace, a real time audio/video communication feature, elevates the interactive gaming experience by enabling point-to-point video conferencing functions and online gaming to take place simultaneously. Set up a web cam and see your opponent’s various facial expression as you out play him and follow up with some witty trash talk to rub it in.
ASUS is offering two solutions, the V9950Ultra based on the GeForce FX 5900 Ultra and the V9950, supporting the GeForce FX 5900, for the performance and mainstream market, respectively. For more information about the V9950 series, GameFace feature and other ASUS products, please visit the company homepage at www.asus.com.
jammer genoeg nog geen plaatjes
nVidia heeft zelf ook wel door dat de FX5800Ultra een flop is geworden mede dankzij het geluid... Ze hebben er zelfs een filmpje over gemaakt:
http://www.nvnews.net/files/CoolingFan_FUN_small.zip
Alle acteurs zijn nVidia medewerkers.
Slim hoor om alle negatieve publiciteit en grappen die er over de 5800Ultra gemaakt zijn om te zetten naar iets positiefs/leuks.
http://www.nvnews.net/files/CoolingFan_FUN_small.zip
Alle acteurs zijn nVidia medewerkers.
Slim hoor om alle negatieve publiciteit en grappen die er over de 5800Ultra gemaakt zijn om te zetten naar iets positiefs/leuks.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nou dan had je ze 3 maanden geleden moeten zien zweten en beschuldigen.
This alleen nu zo relaxed omdat de nV35 wel een goede markt acceptatie heeft.
'n Flop is gauw niet meer relevant als ze in het heden het goed doen.
This alleen nu zo relaxed omdat de nV35 wel een goede markt acceptatie heeft.
'n Flop is gauw niet meer relevant als ze in het heden het goed doen.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
waar slaat dit nou weer op, gewoon 1 hele pagina gemist
[ Voor 77% gewijzigd door Glashelder op 20-05-2003 00:16 ]
PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc
Woei... het blijkt dat sommige GeForceFX5900Ultra reviews schijnbaar een verkeerd beeld geven van de prestaties van de kaart ten opzichte van de Radeon9800Pro...
Zo blijkt Anandtech een grote fout te hebben gemaakt met Splinter Cell, waarin het lijkt alsof de FX met AA en AF gigantisch over de 9800Pro heen walst, maar in feite heeft hij AA en AF niet eens aan staan...
Zo ook met Doom III, waarin de 9800Pro in 2 van de 3 resoluties wint in High Quality. De performance drop van de FX is van medium naar high quality allerminst vreemd te noemen... Met AA is het sneller dan zonder AA op 1024x768. Zet je de resolutie omhoog dan zie je ineens een gigantische drop, terwijl de drops bij de Radeon9800Pro heel geleidelijk gaan.
Hier wat leuke discussies over deze fouten in de recensies die een vertekend beeld geven van de prestaties van de NV35:
http://www.beyond3d.com/forum/viewtopic.php?t=5956
http://www.rage3d.com/boa....php?s=&threadid=33686870
Zo blijkt Anandtech een grote fout te hebben gemaakt met Splinter Cell, waarin het lijkt alsof de FX met AA en AF gigantisch over de 9800Pro heen walst, maar in feite heeft hij AA en AF niet eens aan staan...
Zo ook met Doom III, waarin de 9800Pro in 2 van de 3 resoluties wint in High Quality. De performance drop van de FX is van medium naar high quality allerminst vreemd te noemen... Met AA is het sneller dan zonder AA op 1024x768. Zet je de resolutie omhoog dan zie je ineens een gigantische drop, terwijl de drops bij de Radeon9800Pro heel geleidelijk gaan.
Hier wat leuke discussies over deze fouten in de recensies die een vertekend beeld geven van de prestaties van de NV35:
http://www.beyond3d.com/forum/viewtopic.php?t=5956
http://www.rage3d.com/boa....php?s=&threadid=33686870
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ben benieuwd hoever Asus die 4 getallen nog gaat uitmelken..
3400, 3800, 6600, 6800, 7100, 7700, 8200, 9900 9950
ze hebben bij de 3800 een te grote sprong genomen..
NV45 introducing: Asus V9981 Ultra
3400, 3800, 6600, 6800, 7100, 7700, 8200, 9900 9950
ze hebben bij de 3800 een te grote sprong genomen..
NV45 introducing: Asus V9981 Ultra

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Verwijderd
hmm, niet erg geloofwaardig die linkjes van je. Een gebruiker die ff de testjes en dit in het forum post, yeah right 

CJ schreef op 20 May 2003 @ 00:12:
Woei... het blijkt dat sommige GeForceFX5900Ultra reviews schijnbaar een verkeerd beeld geven van de prestaties van de kaart ten opzichte van de Radeon9800Pro...
Zo blijkt Anandtech een grote fout te hebben gemaakt met Splinter Cell, waarin het lijkt alsof de FX met AA en AF gigantisch over de 9800Pro heen walst, maar in feite heeft hij AA en AF niet eens aan staan...
Zo ook met Doom III, waarin de 9800Pro in 2 van de 3 resoluties wint in High Quality. De performance drop van de FX is van medium naar high quality allerminst vreemd te noemen... Met AA is het sneller dan zonder AA op 1024x768. Zet je de resolutie omhoog dan zie je ineens een gigantische drop, terwijl de drops bij de Radeon9800Pro heel geleidelijk gaan.
Hier wat leuke discussies over deze fouten in de recensies die een vertekend beeld geven van de prestaties van de NV35:
http://www.beyond3d.com/forum/viewtopic.php?t=5956
http://www.rage3d.com/boa...1331965795#post1331965795
FX 5900 U @ Guru3d.com
http://content.guru3d.com/article.php?cat=review&id=40
En ook daar Quadro FX 500 aankondiging, ik zie nog niks op de off site van NV...
http://www.guru3d.com/com...17aad50e1284b5805c59e476a
http://content.guru3d.com/article.php?cat=review&id=40
En ook daar Quadro FX 500 aankondiging, ik zie nog niks op de off site van NV...
http://www.guru3d.com/com...17aad50e1284b5805c59e476a
hele mooie review over de 5900 ultra op Guru! Komt erg eerlijk over in tegenstelling tot alle anderen die ik tot nu toe gelezen heb. Ik ga deze kaart kopen als hij tegen de 500 euro te koop is en dat zal wel snel zijn.
http://i1.tinypic.com/5yrg076.jpg
Ik vind grafieken toch veel duidelijker dan wat cijfer tabelletjes.
Dus iig niet mooi en vooral niet handig.
Dus iig niet mooi en vooral niet handig.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Nvidioten: stop je kop maar in het zand :
DOOM3:
High quality
1024x768
9800/nv35
61/55
1280x1024
9800/nv35
42.8/41.6
1600x1200
9800/nv35
29.5/32.9
Radeon 9800 Pro wint 2 van 3 benches, en de GF 5900fx wint nipt de derde.
Alleen tom's hardware toonde de "high quality" settings, terwijl 2 andere grote reviewsites voldeden met een 'medium quality" setting. Toevallig komt dit de GF 5900fx niet zo slecht uit
1024x768
9800/Nv35
68.7/83
1280x1024
9800/nv35
46.8/56.9
1600x1200
9800/nv35
31.4/42
Spreekt voor zich. Echter maar op "medium" settings.....
Maarja, in hoeverre kan je nog Sites en/of reviewers vertrouwen als ze tegelijkertijd ook nog es gesponsord worden door , ja wie ?
En dan nog over die "cheat" van Nvidia in 3Dmark 2003; als het een "bug" zou zijn is het vrij makkelijk te reproduceren in een echt spel, nietwaar ?
als dat dus niet! gebeurt hebben ze wel degelijk gesjoemelt met de 3dmark-benchmark.
en nee, ben geen idioot. Van niemand. Ben gewoon een nuchtere gebruiker die koopt wat er beschikbaar is tegen een goede prijs/prestatie perfomance. Voorlopig ligt de sweetspot rond de 200 euro's...
DOOM3:
High quality
1024x768
9800/nv35
61/55
1280x1024
9800/nv35
42.8/41.6
1600x1200
9800/nv35
29.5/32.9
Radeon 9800 Pro wint 2 van 3 benches, en de GF 5900fx wint nipt de derde.
Alleen tom's hardware toonde de "high quality" settings, terwijl 2 andere grote reviewsites voldeden met een 'medium quality" setting. Toevallig komt dit de GF 5900fx niet zo slecht uit
1024x768
9800/Nv35
68.7/83
1280x1024
9800/nv35
46.8/56.9
1600x1200
9800/nv35
31.4/42
Spreekt voor zich. Echter maar op "medium" settings.....
Maarja, in hoeverre kan je nog Sites en/of reviewers vertrouwen als ze tegelijkertijd ook nog es gesponsord worden door , ja wie ?
En dan nog over die "cheat" van Nvidia in 3Dmark 2003; als het een "bug" zou zijn is het vrij makkelijk te reproduceren in een echt spel, nietwaar ?
als dat dus niet! gebeurt hebben ze wel degelijk gesjoemelt met de 3dmark-benchmark.
en nee, ben geen idioot. Van niemand. Ben gewoon een nuchtere gebruiker die koopt wat er beschikbaar is tegen een goede prijs/prestatie perfomance. Voorlopig ligt de sweetspot rond de 200 euro's...
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Dat kan je anders ook wel op een normale manier zeggen hoor...Madrox schreef op 22 May 2003 @ 10:46:
Nvidioten: stop je kop maar in het zand :
DOOM3:
High quality
1024x768
9800/nv35
61/55
1280x1024
9800/nv35
42.8/41.6
1600x1200
9800/nv35
29.5/32.9
Radeon 9800 Pro wint 2 van 3 benches, en de GF 5900fx wint nipt de derde.
Alleen tom's hardware toonde de "high quality" settings, terwijl 2 andere grote reviewsites voldeden met een 'medium quality" setting. Toevallig komt dit de GF 5900fx niet zo slecht uit
1024x768
9800/Nv35
68.7/83
1280x1024
9800/nv35
46.8/56.9
1600x1200
9800/nv35
31.4/42
Spreekt voor zich. Echter maar op "medium" settings.....
Maarja, in hoeverre kan je nog Sites en/of reviewers vertrouwen als ze tegelijkertijd ook nog es gesponsord worden door , ja wie ?
En dan nog over die "cheat" van Nvidia in 3Dmark 2003; als het een "bug" zou zijn is het vrij makkelijk te reproduceren in een echt spel, nietwaar ?
als dat dus niet! gebeurt hebben ze wel degelijk gesjoemelt met de 3dmark-benchmark.
en nee, ben geen idioot. Van niemand. Ben gewoon een nuchtere gebruiker die koopt wat er beschikbaar is tegen een goede prijs/prestatie perfomance. Voorlopig ligt de sweetspot rond de 200 euro's...

Over het manipuleren van drivers ga ik me niet uitspreken, er zijn immers geen bewijzen van. Indien dit zo zou zijn, zouden alle benchmarks (ook game-benchmarks) onbetrouwbaar zijn, tenzij je voor een bepaalde benchmark drivers gebruikt die ouder zijn dan die benchmark. In het geval dit allemaal onbetrouwbaar zou zijn, lees dan gewoon de ervaringen van andere gebruikers. Indien je er dan nog niet uitkomt, maak je geen zorgen, dan zullen de verschillen niet zo groot zijn.
En staar je niet zo blind op die paar luttele frames per seconde, dat zie je heus niet. Indien je zou zeggen dat je op dit moment ATi kiest voor de betere beeldkwaliteit ga ik akkoord, dat kan je wel zien...
Sorry joh, was ff in een jolige bui 
Kben de laatste die op de FPs let, heb tot vorig jaar met een G400 gedaan. Dat zegt genoeg
ps: over die drivers....
heb je niet goed gelezen denk ik. Als dit probleem zich voordoet in 3Dmark2003 met Dx9 code, mag je toch aannemen dat (als het idd een bug. is zoals Nvida claimt) je dat heel simpel kunt re-produceren met een Dx-9 spel, zoals Doom3 of Halflife2 ?
Juist, dacht het wel. Als dan blijkt dat het in die spellen niet gebeurt kan je er bijna donderop tegen zeggen dat er iets niet pluis is ....
Kben de laatste die op de FPs let, heb tot vorig jaar met een G400 gedaan. Dat zegt genoeg
ps: over die drivers....
heb je niet goed gelezen denk ik. Als dit probleem zich voordoet in 3Dmark2003 met Dx9 code, mag je toch aannemen dat (als het idd een bug. is zoals Nvida claimt) je dat heel simpel kunt re-produceren met een Dx-9 spel, zoals Doom3 of Halflife2 ?
Juist, dacht het wel. Als dan blijkt dat het in die spellen niet gebeurt kan je er bijna donderop tegen zeggen dat er iets niet pluis is ....
[ Voor 62% gewijzigd door Madrox op 22-05-2003 19:51 ]
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
[flame]
hmm
ik heb in dit draadje nog niet echt nuttige posts voorbij zien komen.. alleen maar speculaties en vage verwijzingen naar benchmarks... Ik zit hier nu met een probleem dat ik m'n videokaart verplicht moet gaan updaten (viper 770 tnt2 @ 3.3V die niet gaat werken op m'n nieuwe A7N8X AGP Pro slot op 1.5v ... foutje) en dacht hier wel redelijk terecht te kunnen voor REAL LIFE ERVARINGEN met de GeForce FX serie.
is het gewoon een groot kut draadje over wat sneller is en wat niet en dat allemaal vanuit de grote internet duim.
damn.
[/flame]
zo, en nu m'n vraag:
Ik wil beetje films kijken, in linux werken, opengl gaan programmeren (in linux danwel windows), dus zit ik al gauw bij NVidia wegens stukken betere Linux ondersteuning dan ATI.
Wil ook beetje op de toekomst voorbereid zijn (DX9) ... ik wil GEEN gf4mx kaart aanschaffen.
Heb m'n oog beetje laten vallen op een GF FX5200 (ding kost maar 80 euro, passief gekoeld, althans de asus versie... en bij asusdirect is er deze maand ff geen vervoerskosten. toffe aktie
)..... maar ik heb zo m'n twijfels over de prestaties.
Op dit moment zit een gf4ti-4200 vet die FX5200 eruit te schoppen, maar die is dan ook 50 pleuro duurder (als ik bij asusdirect.nl blijf hangen).. maar heeft geen dx9 support.
Nu wil ik dus weten, en niet afgaand op benchmarks, maar op ervaringen van mensen die zo'n kaart hebben......
HOE doet die kaart het in dingen als Warcraft 3? Neverwinter Nights? Star Craft? Counter Strike?
Zijn jullie er blij mee? Schokt het? Whatever? Dingen die ik toch wel in deze topic verwacht zou hebben te vinden, maar niet veel meer heb kunnen vinden dan "ja eh. gave geile kaart als die uitkomt koop ik um!".
of "eerst de benches afwachten!"
magoe, mijn ongenoegen. Sorry.. of heb ik het compleet verkeerde idee gekregen over de functie van dit draadje? (Ik heb de voorgangers van deze draad nog niet bekeken, maar gezien de algemene tendens op GoT zal het niet veel anders zijn dan dit draadje).
Maar goed, wie kan helpen? M'n budget hangt beetje rond de 100 euro.
hmm
ik heb in dit draadje nog niet echt nuttige posts voorbij zien komen.. alleen maar speculaties en vage verwijzingen naar benchmarks... Ik zit hier nu met een probleem dat ik m'n videokaart verplicht moet gaan updaten (viper 770 tnt2 @ 3.3V die niet gaat werken op m'n nieuwe A7N8X AGP Pro slot op 1.5v ... foutje) en dacht hier wel redelijk terecht te kunnen voor REAL LIFE ERVARINGEN met de GeForce FX serie.
is het gewoon een groot kut draadje over wat sneller is en wat niet en dat allemaal vanuit de grote internet duim.
damn.
[/flame]
zo, en nu m'n vraag:
Ik wil beetje films kijken, in linux werken, opengl gaan programmeren (in linux danwel windows), dus zit ik al gauw bij NVidia wegens stukken betere Linux ondersteuning dan ATI.
Wil ook beetje op de toekomst voorbereid zijn (DX9) ... ik wil GEEN gf4mx kaart aanschaffen.
Heb m'n oog beetje laten vallen op een GF FX5200 (ding kost maar 80 euro, passief gekoeld, althans de asus versie... en bij asusdirect is er deze maand ff geen vervoerskosten. toffe aktie
Op dit moment zit een gf4ti-4200 vet die FX5200 eruit te schoppen, maar die is dan ook 50 pleuro duurder (als ik bij asusdirect.nl blijf hangen).. maar heeft geen dx9 support.
Nu wil ik dus weten, en niet afgaand op benchmarks, maar op ervaringen van mensen die zo'n kaart hebben......
HOE doet die kaart het in dingen als Warcraft 3? Neverwinter Nights? Star Craft? Counter Strike?
Zijn jullie er blij mee? Schokt het? Whatever? Dingen die ik toch wel in deze topic verwacht zou hebben te vinden, maar niet veel meer heb kunnen vinden dan "ja eh. gave geile kaart als die uitkomt koop ik um!".
of "eerst de benches afwachten!"
magoe, mijn ongenoegen. Sorry.. of heb ik het compleet verkeerde idee gekregen over de functie van dit draadje? (Ik heb de voorgangers van deze draad nog niet bekeken, maar gezien de algemene tendens op GoT zal het niet veel anders zijn dan dit draadje).
Maar goed, wie kan helpen? M'n budget hangt beetje rond de 100 euro.
Ik ben 't metje eens dat erin dit draadje zich veels te weinig bezitters van Gf fx melden, maar ik ken dan ook niemand die zo een ding koopt.... Misschien dat 't over een maand wat beter is, maar 't is me wel opgevallen. En tevens zijn 't altijd degenen met de duurste versies die het hardts roepen, en in dat segment gaat momenteel bijna iedereen voor Ati.
voor zover ik weet niet.Verwijderd schreef op 19 mei 2003 @ 15:47:
ff klein vraagje tussen door, worden ALLE geforce fx 5200 NON-ultra passief gekoeld? Ik heb het nogal begrepen op de stilte van mn pc'tje en dacht aan de aankoop van de Point of view Geforce fx 5200... wou wel graag weten of deze passief gekoeld wordt of niet, maar kan het niet vinden op het net
Thanx
Asus heeft een passief gekoelde fx5200, maar de andere fx5200 dingen bij asus hebben wel weer een fan (en voor zover ik kon nagaan op de asus site waren dit verder allemaal non-ultra uitvoeringen)...
De Asus V9520 Magic presteert als een Geforce 2 TI. Met een AMD XP2200+ behaalt hij 4500 punten in 3DMark2001SE.komakeef schreef op 22 May 2003 @ 22:06:
....
zo, en nu m'n vraag:
Ik wil beetje films kijken, in linux werken, opengl gaan programmeren (in linux danwel windows), dus zit ik al gauw bij NVidia wegens stukken betere Linux ondersteuning dan ATI.
Wil ook beetje op de toekomst voorbereid zijn (DX9) ... ik wil GEEN gf4mx kaart aanschaffen.
Heb m'n oog beetje laten vallen op een GF FX5200 (ding kost maar 80 euro, passief gekoeld, althans de asus versie... en bij asusdirect is er deze maand ff geen vervoerskosten. toffe aktie)..... maar ik heb zo m'n twijfels over de prestaties.
Op dit moment zit een gf4ti-4200 vet die FX5200 eruit te schoppen, maar die is dan ook 50 pleuro duurder (als ik bij asusdirect.nl blijf hangen).. maar heeft geen dx9 support.
Nu wil ik dus weten, en niet afgaand op benchmarks, maar op ervaringen van mensen die zo'n kaart hebben......
HOE doet die kaart het in dingen als Warcraft 3? Neverwinter Nights? Star Craft? Counter Strike?
Zijn jullie er blij mee? Schokt het? Whatever? Dingen die ik toch wel in deze topic verwacht zou hebben te vinden, maar niet veel meer heb kunnen vinden dan "ja eh. gave geile kaart als die uitkomt koop ik um!".
of "eerst de benches afwachten!"
....
Maar goed, wie kan helpen? M'n budget hangt beetje rond de 100 euro.
Ik heb op hetzelfde systeem Battlefield 1942 zien draaien met default instellingen en dat liep opzich prima.
Als ik jouw was zou ik eerder kijken naar de Asus V9520 TD. Met 400MHz geheugen ipv 333MHz. Mogelijk dat ie wat aardiger preseert. Kost €110 bij AsusDirect.nl.
[ Voor 3% gewijzigd door Semetrix op 22-05-2003 23:57 ]
Dit is geinig en dat ga ik als ik thuis kom uitproberen op mijn R300 9500PRO
Die Dawn dem van nVidia op ATI hardware draaien dmv een OpenGl wrapper.
Het news bericht op inQuir:
http://www.theinquirer.net/?article=9616
De wrapper:
http://www.rage3d.com/articles/atidawning/
De Demo:
http://www.nvidia.com/view.asp?IO=demo_dawn
Volgens het verhaal kost een wrapper Overhead maar blijkt toch beter te presteren door krachtigere Dx9 Feature implementatie VS&PS
Mogelijk gemaak door MiT brains die DAwn op een kaart met beter beeld kwaliteit eens wilden zien.
ben benieuwd
Die Dawn dem van nVidia op ATI hardware draaien dmv een OpenGl wrapper.
Het news bericht op inQuir:
http://www.theinquirer.net/?article=9616
De wrapper:
http://www.rage3d.com/articles/atidawning/
De Demo:
http://www.nvidia.com/view.asp?IO=demo_dawn
Volgens het verhaal kost een wrapper Overhead maar blijkt toch beter te presteren door krachtigere Dx9 Feature implementatie VS&PS
Mogelijk gemaak door MiT brains die DAwn op een kaart met beter beeld kwaliteit eens wilden zien.
ben benieuwd
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Hmm, zat ik ook al aan te denken ja. Tnx! Ik snuffel nog wat rond, loop enorm te twijfelen namenlijk, kwam gisteren een ti4200 voor 100 euro tegen ..... maja, ik ga wel weer van een tnt2 naar iets nieuwersSemetrix schreef op 22 May 2003 @ 23:56:
[...]
De Asus V9520 Magic presteert als een Geforce 2 TI. Met een AMD XP2200+ behaalt hij 4500 punten in 3DMark2001SE.
Ik heb op hetzelfde systeem Battlefield 1942 zien draaien met default instellingen en dat liep opzich prima.
Als ik jouw was zou ik eerder kijken naar de Asus V9520 TD. Met 400MHz geheugen ipv 333MHz. Mogelijk dat ie wat aardiger preseert. Kost €110 bij AsusDirect.nl.
Verwijderd
Als je toch geen torenhoge resoluties draait en zonder AA & AF kunt, dan is de Ti4200 een perfecte kaart, zeker voor slechts 100 euro.
idd voor die prijs heb je geen betere kaart, de fx5200 is stúkken slechter, en de 9100 (ok, die kost nog maar 80€) is ook niet beter dan de ti4200.Verwijderd schreef op 23 May 2003 @ 13:31:
Als je toch geen torenhoge resoluties draait en zonder AA & AF kunt, dan is de Ti4200 een perfecte kaart, zeker voor slechts 100 euro.
waar kost hij 100€ btw
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
De 9100 is niet sneller nee, maar wel betere 2d-kwaliteit en tv-out.
wat beter is is maar relatief he....
wat beter is is maar relatief he....
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Ik heb reviews zitten lezen en vroeg me dit af:
De Geforce FX 5900 Non-Ultra: Waar draait dat ding op(core/mem)? Ook zo'n twee verdieping koeler? Wat word de prijs ongeveer?(Nadat ie fatsoenlijk op de markt is)
De Geforce FX 5900 Non-Ultra: Waar draait dat ding op(core/mem)? Ook zo'n twee verdieping koeler? Wat word de prijs ongeveer?(Nadat ie fatsoenlijk op de markt is)
Mijn resultaten op nvnewsforum met een GFFX5800 u na patch 330 van 3DMark03!
Get ready:
almost 1000 points less !!
5600 with 43.51 and
4742 with 44.03 and patch 330,
well,.. this will shake the world
I cann't publish it.
Get ready:
almost 1000 points less !!
5600 with 43.51 and
4742 with 44.03 and patch 330,
well,.. this will shake the world
I cann't publish it.
Niet op voorraad.
Verwijderd
Ik zou als ik jou was niet meer op de 3d mark performance letten...
Nvidia werd ervan verdacht drivers speciaal voor 3d mark te hebben aangepast (44.03) en future mark heeft toen (denk ik) 3d mark weer aangepast aan de drivers, dus het wordt een beetje ingewikkeld om nog goed snelheid te kunnen testen.
Ik denk dat je het beste op de volgende release van drivers kan wachten omdat de 3dmark problemen dan zijn opgelost.
Ik had mijn geforce 5600 van asus al besteld voor nvidia die 44.03 drivers uitbracht.
Waarom?
Omdat de kaart alles kan wat je voorlopig nodig zult hebben, en omdat de kaart koud blijft.
En ten derde is 200 euro niet veel voor wat je krijgt.
Nadat die 44.03 drivers uitkwamen ging de snelheid in sommige gevallen met 70% omhoog voor mij.
Soms bleef het gelijk.
Over het algemeen een snelheidsverhoging van zo'n 30 - 40 %.
Beeldkwaliteit werd ook veel beter.
Ik maak zelf op dit moment een 3d engine met VS .NET en direct x 9 en ik ben zeer tevreden over alles wat de kaart biedt.
En Nvidia is gewoon een cool bedrijf dat voor developpers erg veel doet, meer dan ati.
En dat ze hebben gecheat door drivers aan te passen voor 3d mark vind ik ook niet zo'n ramp.
Nvidia was het al eerder niet eens met de manier waarop 3d mark de performance test (verschillende instellingen voor verschillende kaarten) en nvidia heeft hierom de drivers aangepast voor 3d mark.
Een bedrijf met ballen. ;+)
Nvidia werd ervan verdacht drivers speciaal voor 3d mark te hebben aangepast (44.03) en future mark heeft toen (denk ik) 3d mark weer aangepast aan de drivers, dus het wordt een beetje ingewikkeld om nog goed snelheid te kunnen testen.
Ik denk dat je het beste op de volgende release van drivers kan wachten omdat de 3dmark problemen dan zijn opgelost.
Ik had mijn geforce 5600 van asus al besteld voor nvidia die 44.03 drivers uitbracht.
Waarom?
Omdat de kaart alles kan wat je voorlopig nodig zult hebben, en omdat de kaart koud blijft.
En ten derde is 200 euro niet veel voor wat je krijgt.
Nadat die 44.03 drivers uitkwamen ging de snelheid in sommige gevallen met 70% omhoog voor mij.
Soms bleef het gelijk.
Over het algemeen een snelheidsverhoging van zo'n 30 - 40 %.
Beeldkwaliteit werd ook veel beter.
Ik maak zelf op dit moment een 3d engine met VS .NET en direct x 9 en ik ben zeer tevreden over alles wat de kaart biedt.
En Nvidia is gewoon een cool bedrijf dat voor developpers erg veel doet, meer dan ati.
En dat ze hebben gecheat door drivers aan te passen voor 3d mark vind ik ook niet zo'n ramp.
Nvidia was het al eerder niet eens met de manier waarop 3d mark de performance test (verschillende instellingen voor verschillende kaarten) en nvidia heeft hierom de drivers aangepast voor 3d mark.
Een bedrijf met ballen. ;+)
Quote van future mark
In our testing, all identified detection mechanisms stopped working when we altered the benchmark code just trivially and without changing any of the actual benchmark workload. With this altered benchmark, NVIDIAs certain products had a performance drop of as much as 24.1% while competition's products performance drop stayed within the margin of error of 3%. To our knowledge, all drivers with these detection mechanisms were published only after the launch of 3DMark03. According to industry's terminology, this type of driver design is defined as driver cheats.
Ik had zelfs 3dMark03 er niet eens meer opstaan, dus dat zit wel goedVerwijderd schreef op 23 mei 2003 @ 18:24:
Ik zou als ik jou was niet meer op de 3d mark performance letten...
Nvidia werd ervan verdacht drivers speciaal voor 3d mark te hebben aangepast (44.03) en future mark heeft toen (denk ik) 3d mark weer aangepast aan de drivers, dus het wordt een beetje ingewikkeld om nog goed snelheid te kunnen testen.
Ik denk dat je het beste op de volgende release van drivers kan wachten omdat de 3dmark problemen dan zijn opgelost.
Ik had mijn geforce 5600 van asus al besteld voor nvidia die 44.03 drivers uitbracht.
Waarom?
Omdat de kaart alles kan wat je voorlopig nodig zult hebben, en omdat de kaart koud blijft.
En ten derde is 200 euro niet veel voor wat je krijgt.
Nadat die 44.03 drivers uitkwamen ging de snelheid in sommige gevallen met 70% omhoog voor mij.
Soms bleef het gelijk.
Over het algemeen een snelheidsverhoging van zo'n 30 - 40 %.
Beeldkwaliteit werd ook veel beter.
Ik maak zelf op dit moment een 3d engine met VS .NET en direct x 9 en ik ben zeer tevreden over alles wat de kaart biedt.
En Nvidia is gewoon een cool bedrijf dat voor developpers erg veel doet, meer dan ati.
En dat ze hebben gecheat door drivers aan te passen voor 3d mark vind ik ook niet zo'n ramp.
Nvidia was het al eerder niet eens met de manier waarop 3d mark de performance test (verschillende instellingen voor verschillende kaarten) en nvidia heeft hierom de drivers aangepast voor 3d mark.
Een bedrijf met ballen. ;+)
Ik vind over het algemeen wel dat ATI nog steeds de winnaar is wat betreft performance in dx9, of dat te maken heeft met het 24 vs 32 bits precisie verhaal zou ik niet weten.
Ik heb om persoonlijke redenen een GFFX5800U, ik speel graag met extra LODbias en ik vind de AF van nv mooier (alle hoeken) en speel zonder AA, anders had ik beslist een R300 core gehad want AA met gammacorrectie roeleert
Niet op voorraad.
Tjees nVidia had wat te mekkeren omdat de performance in normale aansturing erg tegen viel en daardoor kompleet afhankelijk is van nVidia native ondersteuning.Verwijderd schreef op 23 mei 2003 @ 18:24:
Ik zou als ik jou was niet meer op de 3d mark performance letten...
Nvidia werd ervan verdacht drivers speciaal voor 3d mark te hebben aangepast (44.03) en future mark heeft toen (denk ik) 3d mark weer aangepast aan de drivers, dus het wordt een beetje ingewikkeld om nog goed snelheid te kunnen testen.
Ik denk dat je het beste op de volgende release van drivers kan wachten omdat de 3dmark problemen dan zijn opgelost.
Ik had mijn geforce 5600 van asus al besteld voor nvidia die 44.03 drivers uitbracht.
Waarom?
Omdat de kaart alles kan wat je voorlopig nodig zult hebben, en omdat de kaart koud blijft.
En ten derde is 200 euro niet veel voor wat je krijgt.
Nadat die 44.03 drivers uitkwamen ging de snelheid in sommige gevallen met 70% omhoog voor mij.
Soms bleef het gelijk.
Over het algemeen een snelheidsverhoging van zo'n 30 - 40 %.
Beeldkwaliteit werd ook veel beter.
Ik maak zelf op dit moment een 3d engine met VS .NET en direct x 9 en ik ben zeer tevreden over alles wat de kaart biedt.
En Nvidia is gewoon een cool bedrijf dat voor developpers erg veel doet, meer dan ati.
En dat ze hebben gecheat door drivers aan te passen voor 3d mark vind ik ook niet zo'n ramp.
Nvidia was het al eerder niet eens met de manier waarop 3d mark de performance test (verschillende instellingen voor verschillende kaarten) en nvidia heeft hierom de drivers aangepast voor 3d mark.
Een bedrijf met ballen. ;+)
Ati draaide al goed op normale standaard aansturing volgens de DX9 HSL API interface
nVidia verplicht hiermee developers op extra werk voor hun kaarten om hun kaarten specifiek te ondersteunen.
Mooier zo zijn als developers met een routine alle dX9 hardware kan aanspreken dus ATI maar ook nvidia en de rest.
Dit is dus niet goed.
De Dawn demo loopt niet op ATI en dat is slecht nieuws als game engines dat ook deden maar ja dit is een nVidia demo met alleen het nVidia pad, want devoppers moeten dan voor die rest van de markt 'n aTI, etc pad wel implementeren voor hun game engines.
Dubbel op werk want je wordt opgedrongen als developer ook als is de nVidia support toppie zoals john carmack al
BTW die Dawn demo loopt nu ook en lekke rop mijn aTI bak met die wrapper ja het is een hele leuke mooie demo
PS dit doet me denken aan Glide
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
FutureMark Confirms nVidia's Benchmark Cheating
/.
/.
Het document van FutureMark: http://www.futuremark.com...3dmark03_audit_report.pdfIn our testing, all identified detection mechanisms stopped working when we altered the benchmark code just trivially and without changing any of the actual benchmark workload. With this altered benchmark, NVIDIA’s certain products had a performance drop of as much as 24.1% while competition’s products performance drop stayed within the margin of error of 3%. To our knowledge, all drivers with these detection mechanisms were published only after the launch of 3DMark03. According to industry’s terminology, this type of driver design is defined as ‘driver
cheats’.
[ Voor 75% gewijzigd door srblackbird op 23-05-2003 20:36 . Reden: [x-post] ]
Heb het document geplaatst in een topic 
Snap werkelijk niet dat er hier nog lui zijn die Nvidia gaan zitten ophemelen en die cheat nog wel acceptabel vinden ook. Naja, zal de moraal van vandaag de dag wel zijn
En die reden is nogal broos ook. Ze wilden gewoon niet die single-pass texture benchmark niet (vliegtuigen) want dan zou bovendrijven dat maar 4 texture-pipelines zouden gebruiken (=lagere score) en er 4 werkloos naastiggen (de befaamde 4x2= geen 8 Nvidia goocheltruuk).
En ze zijn nog dom ook, want dit kon gewoon niet geheim blijven. Fututemark heeft nu een patch zodat de hele wereld Nvidia's geblunder kan aanschouwen....halleluja
Snap werkelijk niet dat er hier nog lui zijn die Nvidia gaan zitten ophemelen en die cheat nog wel acceptabel vinden ook. Naja, zal de moraal van vandaag de dag wel zijn

let me guess, je houd van vliegen ?heb een GF5800u om persoonlijke redenen . . .
Oww, omdat ze het toevallig niet eens met de wijze van benchmarks is alles geoorloofdvind het wel begrijpelijk, Nvida was er uitgestapt blablabla

En die reden is nogal broos ook. Ze wilden gewoon niet die single-pass texture benchmark niet (vliegtuigen) want dan zou bovendrijven dat maar 4 texture-pipelines zouden gebruiken (=lagere score) en er 4 werkloos naastiggen (de befaamde 4x2= geen 8 Nvidia goocheltruuk).
En ze zijn nog dom ook, want dit kon gewoon niet geheim blijven. Fututemark heeft nu een patch zodat de hele wereld Nvidia's geblunder kan aanschouwen....halleluja
[ Voor 92% gewijzigd door Madrox op 24-05-2003 02:41 ]
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
laatst stonden hier van die geluids files waarbij je de FX kon horen bij het booten / gamen enzz.
waar zijn die gebleven?
waar zijn die gebleven?
PhD i.o.
Je kan me wel een keer opbellen hoor, dan hou ik m'n gsm wel even naast de kaartM@ximuS schreef op 24 mei 2003 @ 13:22:
laatst stonden hier van die geluids files waarbij je de FX kon horen bij het booten / gamen enzz.
waar zijn die gebleven?
Niet op voorraad.
wil ik wel een fx5900 ultra horen
Sim Racing SK ----> Klik Hier voor mijn YouTube Simrace Kanaal <----
Verwijderd
Ik hoor mijn geforce 5600 helemaal niet...
Nu moet ik wel erbij zeggen dat mijn stereotoren ook nauwelijks boven het oorverdovende kabaal van mijn moederbord uitkomt.
Nu moet ik wel erbij zeggen dat mijn stereotoren ook nauwelijks boven het oorverdovende kabaal van mijn moederbord uitkomt.
Elk merk heeft zo zijn eigen koelers vaak.
Kijk bv naar Leadtek die heeft altijd hele andere koelers erop zitten.
Ik verwacht ook gewoon dat de meeste merken een andere koeler erop zetten.
En misschien kan het daardoor nog wat stiller gemaakt worden.
Kijk bv naar Leadtek die heeft altijd hele andere koelers erop zitten.
Ik verwacht ook gewoon dat de meeste merken een andere koeler erop zetten.
En misschien kan het daardoor nog wat stiller gemaakt worden.
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
tweakers.net vraag & aanbod ...Dond3r schreef op 23 mei 2003 @ 14:09:
[...]
idd voor die prijs heb je geen betere kaart, de fx5200 is stúkken slechter, en de 9100 (ok, die kost nog maar 80€) is ook niet beter dan de ti4200.
waar kost hij 100€ btw
Nee, ik heb liever een pond biefstuk.
[ Voor 5% gewijzigd door edward2 op 27-05-2003 23:21 ]
Niet op voorraad.
Verwijderd
Heeft iemand mischien een goeje foto van de
Leadtek Winfast A350 ULTRA TD
[GeForceFX 5900 ULTRA]
[ Voor 7% gewijzigd door Verwijderd op 27-05-2003 23:37 ]
Mmm, Leadtek Winfast A350 ULTRA TD klinkt erg goed, en de specificaties zijn ook weer eens heerlijk.
Voor foto's check effe of hij niet hiertussen staat: http://images.google.nl/i...adtek+&btnG=Google+zoeken
Voor foto's check effe of hij niet hiertussen staat: http://images.google.nl/i...adtek+&btnG=Google+zoeken
There is no place like ::1
Verwijderd schreef op 27 May 2003 @ 23:37:
Heeft iemand mischien een goeje foto van de
Leadtek Winfast A350 ULTRA TD
[GeForceFX 5900 ULTRA]


Wow! Inkoopactie starten
Damn wat duur
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Verwijderd
Mensen, ik heb jullie advies nodig, ik ben op zoek naar een nieuwe beeldkaart en na wat research kom ik uit op een ti 4200 +/- 150 euro of een fx 5600 vanaf 170 euro. Wat raden jullie aan? Is die FX dat extra geld waard of zal ik gewoon voor een 4200 gaan? Ik heb al even gekeken naar reviews maar ik wil eigenlijk graag de ervaringen van jullie als echte kenners.
Ik zou voor een Ti4200 gaan. Is wat goedkoper en ook nog een aardig stukje sneller. Met DX 9 games zal de 5600 wel wat vlugger worden maar of hij de 4200 gaat overtreffen betwijfel ik. Heb je ook al eens naar de Radeon 9500 (pro) gekeken?
Verwijderd
DirectX9-games die trouwens nog een hele tijd op zich zullen laten wachten...Verwijderd schreef op 28 mei 2003 @ 15:55:
Ik zou voor een Ti4200 gaan. Is wat goedkoper en ook nog een aardig stukje sneller. Met DX 9 games zal de 5600 wel wat vlugger worden maar of hij de 4200 gaat overtreffen betwijfel ik. Heb je ook al eens naar de Radeon 9500 (pro) gekeken?
Maar zo'n videokaart doe je ook niet na 6 maanden weg neem ik aan..Verwijderd schreef op 28 May 2003 @ 18:14:
[...]
DirectX9-games die trouwens nog een hele tijd op zich zullen laten wachten...
Dit topic is gesloten.