de kaarten zijn allemaal even goed, de één wat beter hier, en de ander wat beter daar.
het is maar naar waar je voorkeur naar uit gaat.
ik koop al jaren Nvidia en ik ben er tevreden mee dus ook nu koop ik gewoon weer Nvidia
C2D 6600, 275 GTX Windows 7
Anoniem: 99613
Nog twee maandjes? Ik dacht dat SP2 final eind juli al zou arriveren.. Maarja, we hebben het wel over MS inderdaad, en daarbij komt dat ik nog geen enkele alpha/beta release van DirectX heb gezien/waargenomen/gehoord.. Wie wel, en wie weet er maybe de characteristics van?silentsnow schreef op 03 juli 2004 @ 00:39:
DirectX 9.0C zit overigens al in XP SP2. Nog twee maandjes wachten ongeveer.
Anoniem: 38733
"Exclusief" voor de 6800 zou kunnen, ik kan me namelijk voorstellen dat Nv met een pak geld Crytek er van overtuigt om bijv. displacement mapping enkel in het sm3.0 pad te gooien, om koste wat het kost de wereld te laten zien dat je toch echt sm3.0 nodig hebt om in vol ornaat te kunnen spelen (wat dus niet klopt, aangezien PS2.0 dit ook kan. En dan heb ik het nog geneens over de eigenaren van een GF FX, die worden dan ook door Nv in de kou gezet).Enne in patch 1.3 komen er waten leuke eye candy spulletjes in exclusief voor de 6800 daar zit je dan met die x800
Dit zou een kwalijke zaak zijn, want wat kan er vervolgens gebeuren? Ati gaat Gabe N. een pak geld toestoppen om er voor te zorgen dat als HL2 een Nv kaart detecteert dat bijv. textures automatisch op low gezet zullen worden, ik noem maar wat. Krijgen we dalijk de situatie dat je 2 videokaarten nodig hebt om alle spellen in vol ornaat te mogen zien.

[ Voor 15% gewijzigd door Anoniem: 38733 op 03-07-2004 18:51 ]
Eind juli of augustus inderdaad. DirectX 9.0c draait hier overigens al ruim twee maanden.Anoniem: 99613 schreef op 03 juli 2004 @ 18:31:
[...]
Nog twee maandjes? Ik dacht dat SP2 final eind juli al zou arriveren.. Maarja, we hebben het wel over MS inderdaad, en daarbij komt dat ik nog geen enkele alpha/beta release van DirectX heb gezien/waargenomen/gehoord.. Wie wel, en wie weet er maybe de characteristics van?
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
yep, omdat Nvidia het nu nodig heeft en ATI niet. Ik heb erzelf eentje, maar hoop snel van mijn 9800pro af te zijn voor een 6800GT !shuogg schreef op 03 juli 2004 @ 18:00:
[...]
Ach ja, het enige wat jij doet is nVidia promoten dus....
nah, het zijn sm3.0 featuresAnoniem: 38733 schreef op 03 juli 2004 @ 18:42:
[...]
"Exclusief" voor de 6800 zou kunnen, ik kan me namelijk voorstellen dat Nv met een pak geld Crytek er van overtuigt om bijv. displacement mapping enkel in het sm3.0 pad te gooien, om koste wat het kost de wereld te laten zien dat je toch echt sm3.0 nodig hebt om in vol ornaat te kunnen spelen (wat dus niet klopt, aangezien PS2.0 dit ook kan. En dan heb ik het nog geneens over de eigenaren van een GF FX, die worden dan ook door Nv in de kou gezet).
Dit zou een kwalijke zaak zijn, want wat kan er vervolgens gebeuren? Ati gaat Gabe N. een pak geld toestoppen om er voor te zorgen dat als HL2 een Nv kaart detecteert dat bijv. textures automatisch op low gezet zullen worden, ik noem maar wat. Krijgen we dalijk de situatie dat je 2 videokaarten nodig hebt om alle spellen in vol ornaat te mogen zien.Dat wordt een complete oorlog, daar zitten we niet op te wachten.
Anoniem: 23009
Ik heb voor de ASUS V9999 Gamer Edition gekozen:



De ASUS is idd het mooiste model, ik ga voor de blauwe PCB en de Blauwe leds er in, scheelt weer wat mod werk, een beetje OC'en en hij komt overheen met de ULTRA.
[ Voor 43% gewijzigd door Anoniem: 23009 op 04-07-2004 02:04 ]
Niet op voorraad.
Hoezo heeft nVidia het nodig? Ze hebben ohm alle kaarten in handen dacht ik zoepo schreef op 03 juli 2004 @ 21:12:
[...]
yep, omdat Nvidia het nu nodig heeft en ATI niet. Ik heb erzelf eentje, maar hoop snel van mijn 9800pro af te zijn voor een 6800GT !

Oh en, wat boeit het hoe je Far Cry speelt? Zo'n goede game was het niet, na een keer de SP gedaan te hebben had ik het iig wel gezien. Het is nu gewoon een veredelde benchmark, net zoals Doom 3 gaat worden.
[ Voor 25% gewijzigd door shuogg op 04-07-2004 09:23 ]
Anoniem: 38733
Op het launch event filmpje van de 6800 toont de maker van FarCry een demo waar alle eye-candy in zit, luister eens goed naar het commentaar van de maker.
Stream vind je hier
(als je naar de 26e minuut scrollt zie je de Far Cry demo met bijbehorende commentaar.)
Nvidia: "oh wat mooi, dus dit is allemaal mogelijk met shader model 3.0"
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"
Nvidia: "Cool, maar laten we even naar het inside level kijken. Het lijkt erop dat je hier een soort van bumpmapping gebruikt hebt. Really cool. Mooi zeg dankzij shader model 3.0."
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"
Edit: gelezen op 't forum van Rage3d.com:
quote from the Yerli brothers themselves:
"We support this [virtual displacement mapping] for Pixelshader 2.0 (e.g. ATI 9500) and higher."
[ Voor 17% gewijzigd door Anoniem: 38733 op 04-07-2004 11:41 ]
PSN: DutchTrickle PVoutput
ik denk zo ie zo een tijd te wachten met het kopen van mn nieuwe videokaart, maar... aan de specs te zien denk ik dat nvidia toch deze strijd gaat winnen.
In theorie zou dat ATI zijn want de x800 core heeft een pak minder transistoren wat dus meer cores per wafer oplevert en de kosten drukt.
Anoniem: 90323
jah maar het gaat erom dat de 6800 voordeel haalt uit de SM3, tuurlijk zal SM2 het ook de eye-candy naar voren kunnen toveren alleen is de "prijs" in de vorm van frame rate bij de SM2 veel hoger. Dus met een 6800 wordt het pas gunstig gebruik te maken van SM3 omdat de 6800 er veel beter gebruik van maakt juist omdat ze de Pixel shaders 3 ondersteuntAnoniem: 38733 schreef op 04 juli 2004 @ 10:21:
[...]
Op het launch event filmpje van de 6800 toont de maker van FarCry een demo waar alle eye-candy in zit, luister eens goed naar het commentaar van de maker.
Stream vind je hier
(als je naar de 26e minuut scrollt zie je de Far Cry demo met bijbehorende commentaar.)
Nvidia: "oh wat mooi, dus dit is allemaal mogelijk met shader model 3.0"
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"
Nvidia: "Cool, maar laten we even naar het inside level kijken. Het lijkt erop dat je hier een soort van bumpmapping gebruikt hebt. Really cool. Mooi zeg dankzij shader model 3.0."
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"
Edit: gelezen op 't forum van Rage3d.com:
quote from the Yerli brothers themselves:
"We support this [virtual displacement mapping] for Pixelshader 2.0 (e.g. ATI 9500) and higher."
inderdaadBlowFish schreef op 04 juli 2004 @ 16:01:
[...]
jah maar het gaat erom dat de 6800 voordeel haalt uit de SM3, tuurlijk zal SM2 het ook de eye-candy naar voren kunnen toveren alleen is de "prijs" in de vorm van frame rate bij de SM2 veel hoger. Dus met een 6800 wordt het pas gunstig gebruik te maken van SM3 omdat de 6800 er veel beter gebruik van maakt juist omdat ze de Pixel shaders 3 ondersteunt
Anoniem: 90323 schreef op 04 juli 2004 @ 15:17:
Over alle bench sites gemmiddeld gezien, dan brengt de 6800 er beter vanaf. Hiernaast gaat/is ati bezig met de chipset voor de xbox2 waar nvidia mee bezig was voor de xbox1 tegelijkertijd met de gpu 5 series. En we weten allemaal hoe het afgelopen is met de 5series van nvidia. Dus iedereen kan hier zijn conclusies wel uit trekken.
Ik weet niet wat voor conclusies jij er allemaal uit kan trekken. De enige conclusie die ik kan trekken is dat jij niet weet dat ATi een heel ander soort overeenkomst heeft gesloten met Microsoft voor de X-Box2 dan nVidia dat gedaan heeft voor de X-Box1.
ATi != nVidia
Dus de fouten die nVidia heeft gemaakt hoeven niet automatisch gemaakt te worden door ATi. Misschien is het handig om even de startpost van het grote ATi topic te lezen.
Dit topic zeker nog niet gelezen: New Dynamic Branching without PS 3.0BlowFish schreef op 04 juli 2004 @ 16:01:
[...]
jah maar het gaat erom dat de 6800 voordeel haalt uit de SM3, tuurlijk zal SM2 het ook de eye-candy naar voren kunnen toveren alleen is de "prijs" in de vorm van frame rate bij de SM2 veel hoger. Dus met een 6800 wordt het pas gunstig gebruik te maken van SM3 omdat de 6800 er veel beter gebruik van maakt juist omdat ze de Pixel shaders 3 ondersteunt
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 93354
Nee, het wordt ook voor sm2 gedaan afaik. Je ziet in het filmpje ook duidelijk dat die crytek man dat zegt. het kan met beiden, dat Nvidia er in haar eigen PRpraat van maakt dat dit allemaal alleen met sm3 kan, is omdat ze willen dat mensen die niet verder kijken dan hun neus lang is dan hun kaarten kopen, om een feature die geen meerwaarde heeft.Anoniem: 93354 schreef op 04 juli 2004 @ 17:13:
Jaja dus alles wat de gf6800 met sm3 kan op een speelbare framerate kan ook in sm2 gedaan worden met een speelbare fps alleen Nvidia heeft Crytech een zak geld gegeven zodat ze het alleen voor sm3 doen?
PSN: DutchTrickle PVoutput
[...]
Ok maar ik heb het over de voordelen van de pixel shaders 3 tov de pixel sharders 2, je kan me niet vertellen dat de PS3 geen enkel voordeel heeft tov 2. Zo als ik het nu zie kunnen bijde shaders alle eye-candy naar voren tover met alternatieven en soms niet, maar volgens mij moet niet vergeten worden dat de PS3 meer aan kan dan de ps2 dus wel degelijk zal de ps3 altijd een voordeel hebben tov de ps2Dit topic zeker nog niet gelezen: New Dynamic Branching without PS 3.0Performanceboost is 2-4x wanneer er gebruik van wordt gemaakt op PS2.0 kaarten.
Voor nvidia heetf het voordelen ten opzichte van ps2 maar ati zegt met ps2 dezelfde performance winst te kunne halen, kortom aan het eind van de lijn zijn ze allebei sneller. Zoals je ziet zijn er meer wegen die naar rome leidenCJ schreef op 04 juli 2004 @ 16:58:
[...]
[...]
Ok maar ik heb het over de voordelen van de pixel shaders 3 tov de pixel sharders 2, je kan me niet vertellen dat de PS3 geen enkel voordeel heeft tov 2. Zo als ik het nu zie kunnen bijde shaders alle eye-candy naar voren tover met alternatieven en soms niet, maar volgens mij moet niet vergeten worden dat de PS3 meer aan kan dan de ps2 dus wel degelijk zal de ps3 altijd een voordeel hebben tov de ps2
PSN: DutchTrickle PVoutput
EDIT: Xbitlabs heeft zijn review geupdate; ze hebben nu ook met FSAA en Anistropic aan getest:
The results of testing in “Eye-Candy” mode with full-scene antialiasing along with anisotropic filtering enabled tell us that the ATI RADEON X800 XT is more powerful option than the NVIDIA GeForce 6800 Ultra under intensive load. Nevertheless, the GeForce 6800 GT and the GeForce 6800 leave the RADEON X800 PRO along with the RADEON 9800 XT behind. Even though the speed advantage is not really big, it can be noticed and proves the thesis about superiority of NVIDIA’s $299 and $399 offerings in term’s of price/performance ratio for the FarCry game.
[ Voor 66% gewijzigd door SI4live op 04-07-2004 18:05 ]
Anoniem: 93354
Dat weet ik wel, Ik bedoel alleen omdat ze zeggen dat ze er nu effecten in gaan stoppen die alleen voor nvidia kaarten beschikbaar zijn omdat die sm3 hebben maar eigelijk zou dat dus ook in sm2 moeten kunnen maar dat doen ze dus niet?epo schreef op 04 juli 2004 @ 17:21:
gaan we weer, er is iig een performancewinst met sm3.0 te halen ! de testen hebben dat al bewezen met Far Cry.
Anoniem: 90323
Wat voor voeding kopen jullie erbij aangezien die nogal wat ampere gaat vreten.
info:
http://www.firingsquad.co...0_ultra_extreme/page3.asp
Het wattage blijkt niet uit maken maar het ampere op de 12v lijn....Dus ik vraag me af of mijn setup:
1. amd 64 3200
2. asus v9999
3. 1024 3200
4. 2hd 2dvd
5. msi neo
6. zalman 400 aps
Het allemaal wel stabiel gaat trekken..
advies graag.
die zalman 400 is pretty solid hij zal het wel trekkenAnoniem: 90323 schreef op 04 juli 2004 @ 18:57:
Voor degene die een 6800ultra gaan kopen......
Wat voor voeding kopen jullie erbij aangezien die nogal wat ampere gaat vreten.
info:
http://www.firingsquad.co...0_ultra_extreme/page3.asp
Het wattage blijkt niet uit maken maar het ampere op de 12v lijn....Dus ik vraag me af of mijn setup:
1. amd 64 3200
2. asus v9999
3. 1024 3200
4. 2hd 2dvd
5. msi neo
6. zalman 400 aps
Het allemaal wel stabiel gaat trekken..
advies graag.
Kan wel leuk zijn. PCI-express en dan gewoon 2 kaarten in je PC proppen, een Ati en een nVidia.Anoniem: 38733 schreef op 03 juli 2004 @ 18:42:
Krijgen we dalijk de situatie dat je 2 videokaarten nodig hebt om alle spellen in vol ornaat te mogen zien.Dat wordt een complete oorlog, daar zitten we niet op te wachten.
Ik kan me de tijd herinneren dat je 2 geluidskaarten wilde hebben: Ultrasound en Soundblaster16, ging goed samen toen.
Ik ga nu voor de V9999 (GT of Ultra) en kijk hoever ik daarmee kom het komend jaar (jaren).
Trouwens, hadden ze die V9999 bij Salland op voorraad? En wat kost die ?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Toevallig heb ik een soort gelijk systeempje (zie specs onderaan) Kep alleen maar 2 HDD, maar wel 7 casefans. Ik maakte me namelijk ook druk of het allemaal zou lukken. Als jij zorgt dat je gewoon 1 voedingslijn helemaal vrij houdt, dan kun je de rest verdelen over de 2 andere lijnen mbv splittersAnoniem: 90323 schreef op 04 juli 2004 @ 18:57:
Voor degene die een 6800ultra gaan kopen......
Wat voor voeding kopen jullie erbij aangezien die nogal wat ampere gaat vreten.
info:
http://www.firingsquad.co...0_ultra_extreme/page3.asp
Het wattage blijkt niet uit maken maar het ampere op de 12v lijn....Dus ik vraag me af of mijn setup:
1. amd 64 3200
2. asus v9999
3. 1024 3200
4. 2hd 2dvd
5. msi neo
6. zalman 400 aps
Het allemaal wel stabiel gaat trekken..
advies graag.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 90323
[...]
Ik weet niet wat voor conclusies jij er allemaal uit kan trekken. De enige conclusie die ik kan trekken is dat jij niet weet dat ATi een heel ander soort overeenkomst heeft gesloten met Microsoft voor de X-Box2 dan nVidia dat gedaan heeft voor de X-Box1.
ATi != nVidia
Dus de fouten die nVidia heeft gemaakt hoeven niet automatisch gemaakt te worden door ATi. Misschien is het handig om even de startpost van het grote ATi topic te lezen.
En wat staat er dan wat ik blijkbaar mis?
Ik gemailed en gebeld ze hebben nog niks op voorraad, Er is door asus zelf helemaal nergens nog wat geleverd mbt 6800.Deathchant schreef op 04 juli 2004 @ 19:29:
ja idd. Niks krijg je bij gehouden. maar ergens moet je de knoop doorhakken. Dat PCI express zie ik niet zo snel groeien als AGP. Evenals SLI. Ik denk nog wel dat het zeker 2 jaartjes duurt eer alles volledig ondersteund wordt.
Ik ga nu voor de V9999 (GT of Ultra) en kijk hoever ik daarmee kom het komend jaar (jaren).
Trouwens, hadden ze die V9999 bij Salland op voorraad? En wat kost die ?
Het zou een week duren ofzo. Maar ja je kent computerzaken wel dat duurt dus nog minimaal 3 weken.
[ Voor 38% gewijzigd door Anoniem: 90323 op 04-07-2004 19:39 ]
"The power requirements for the GeForce 6800 GT are considerably tamer than the Ultra board. NVIDIA hasn’t come up with a final wattage figure on the PSU, but since power requirements are similar to the 5900 Ultra, they claim a PSU in the 300-watt range should be sufficient for the 6800 GT"
ik heb nu een 5900Ultra en doet het perfect hier, dus de GT zou het ook perfect moeten doen. De 6800Ultra heeft ook maar 1 molex nodig (indien je gaat oc-en, moet je er 2 doen), dus ik denk wel dat een zalman 400w genoeg is
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 90323
CJ schreef op 04 juli 2004 @ 16:58:
[...]
offtopic:
Ik weet niet wat voor conclusies jij er allemaal uit kan trekken. De enige conclusie die ik kan trekken is dat jij niet weet dat ATi een heel ander soort overeenkomst heeft gesloten met Microsoft voor de X-Box2 dan nVidia dat gedaan heeft voor de X-Box1.
ATi != nVidia
Dus de fouten die nVidia heeft gemaakt hoeven niet automatisch gemaakt te worden door ATi. Misschien is het handig om even de startpost van het grote ATi topic te lezen.
En wat staat er dan wat ik blijkbaar mis?
[...]
Ik gemailed en gebeld ze hebben nog niks op voorraad, Er is door asus zelf helemaal nergens (in NL) nog wat geleverd mbt 6800.
Het zou een week duren ofzo. Maar ja je kent computerzaken wel dat duurt dus nog minimaal 3 weken.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 90323
Uuuuhm er is niks anders????Mennuz schreef op 04 juli 2004 @ 19:56:
Mja, tis nu allemaal geforce 6800. Alleen what's up met de Geforce 6 series. Daar hoor ik nog niets over?
6200-6600-6700 etc
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 90323
En daar horen we op dit moment dus nog niks over behalve de pci-e misschien als de 6850 een pci-e kaart is, er zijn dan wel wat mobo fabrikanten mee bezig maar ja, ik wil eerst harde bewijzen zien.Deathchant schreef op 04 juli 2004 @ 20:17:
de 6850Ultra (eerst dacht ik 6900Ultra) zal ook gemaakt worden. Verder schat ik dat het net zo gaat als bij de 5 series
6200-6600-6700 etc
En bij die ct systemen heb je een preorder gedaan of ga je er langs?
[ Voor 8% gewijzigd door Anoniem: 90323 op 04-07-2004 20:36 ]
De Geforce 6800 serie = de Geforce 6 serie.Mennuz schreef op 04 juli 2004 @ 19:56:
Mja, tis nu allemaal geforce 6800. Alleen what's up met de Geforce 6 series. Daar hoor ik nog niets over?
Anoniem: 2044
een iets snellere gewone 6800? of een GT met een andere naam?
Een GT met een andere naam, een mooi blauw pcb en 2 molex aansluitingen.Anoniem: 2044 schreef op 04 juli 2004 @ 21:40:
wat is die asus 6800GE nou? (gamers edition)
een iets snellere gewone 6800? of een GT met een andere naam?
Die laat ik dus helaas aan me voorbij gaan.
De V9999GE is de 6800GT met blauwe PCB en 2 connectors.
De V9999 gewone GT heeft 2 DVI's dacht ik
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 90323
Anoniem: 90323 schreef op 04 juli 2004 @ 23:42:
Wat een sletten bij dat ct systemen. Dit hebben ze op hun site staan.
V9999ULTRADELUXE2D €599,00
http://www.asus.com/products/vga/v9999ultra/overview.htm
V9999GTDELUXE2DT25 564,99
http://www.asus.com/products/vga/v9999ge/overview.htm
Bij de foto op ct site staat een foto met groen PCB dus is geen asus ge
En er bestaat helemaal geen v9999 gt ultradeluxe. het is een v9999 ultradeluxe of v9999 (GE) gamers edition. Oftewel ze geven je misinformatie.
Op dit moment heb ik ff geen zin om verder uit te zoeken of de specs van de asus ge overeenkomen met de specs voor een nv40 GT.
En zoiezo vindt ik de benaming nep van ASUS, note the "ultra deluxe" wat suggereerd of het een nv40 "ultra extreme" moet voorstellen.
[ Voor 3% gewijzigd door Anoniem: 90323 op 04-07-2004 23:44 ]
Er is al iemand die z'n 6800 geflashed hebben met de bios van de Ultra. Op zich ging dit goed, maar ik geloof dat het geheugen problemen gaf vanwege de 700 Mhz waarop-ie standaard loopt ten op zichte van de 1100 Mhz van de Ultra. De kaart weigerde teruggeklokt te worden naar 700 Mhz.Sjah schreef op 04 juli 2004 @ 23:55:
Heeft al iemand al iets (al is het maar heel klein beetje) vernomen van mod mogelijkheden van de 6800 12pipes naar 16?
Terugflashen met de 6800 bios leek op het eerste gezicht goed te gaan (alles op goede kloksnelheden), maar na testen bleven er artifacts verschijnen. Na verdere controle bleek de kaart nog steeds 16 pipelines te hebben. De 6800U bios schijnt dus bepaalde dingen te herprogrammeren, iets wat de 6800 bios dus niet doet.
Maar aangezien de kaart nog steeds artifacts vertoonde in bepaalde tests (dus niet alle), gaat men er van uit dat die extra 4 pipelines dus half defect zijn. Sommige games deden het prima, andere games dus totaal niet.
En volgens velen is de kans op een succesvolle mod klein, aangezien nVidia meer slechte NV40 cores schijnt te hebben dan goede.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
CT-systemen heeft ze morgen.....bij al die anderen is geen levertijd bekend, vandaar dat ze zo duur zijn.Anoniem: 90323 schreef op 04 juli 2004 @ 23:45:
en deathchant de v9999ge verkopen ze ergens anders voor 440 check, pricewatch
Er schijnen 2 GT's te zijn bij asus. de normale GT en de GamersEdition GT.
De normale GT schijnt 2 DVI's te hebben en 2 molexen...ik snap het niet meer
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 90323
Als ik zo mijn links bekijk zie ik op de asus site bij de GE (=GT) 1 dvi 1 VGA en 2 molex. bij de ultra deluxe 1 dvi en 1vga (of 2vga met adapter) 2 molex.Deathchant schreef op 05 juli 2004 @ 09:34:
[...]
CT-systemen heeft ze morgen.....bij al die anderen is geen levertijd bekend, vandaar dat ze zo duur zijn.
Er schijnen 2 GT's te zijn bij asus. de normale GT en de GamersEdition GT.
De normale GT schijnt 2 DVI's te hebben en 2 molexen...ik snap het niet meer
http://www.firingsquad.co...force_6800_ultra_extreme/
Op de asus site zie ik zoiezo geen 2 versies van de GT. Er staan er maar 2 de v9999 ultra deluxe en v9999 GE(=GT)
[ Voor 4% gewijzigd door Anoniem: 90323 op 05-07-2004 10:01 ]
Anoniem: 114616
Ik weet niet of ik binnekort een geforce FX5900XT moet kopen of toch maar even wachten. Zakt de prijs als de NV43 er is?
Niet op voorraad.
Anoniem: 99613
het maakt voor de performance van een ati kaart niets uit, deze heeft geen SM3 dus die zal gewoon op SM2 draaien, performance gaat echt niet achteruit.Anoniem: 99613 schreef op 05 juli 2004 @ 16:18:
Mensen, jullie zullen het vast al meegekregen hebben, maar nVidia heeft dus by CryTek doorgedrukt dat SM 3.0 tóch in Patch 1.2 komt (FarCry).. Dit heeft dus ernstige gevolgen voor alle mensen met ATi kaarten, omdat SM 3.0 gewoonweg niet ondersteund wordt, wat duidt op grafische misvorming in het spel.. Omdat de servers ook Patch 1.2 gaat draaien zijn alle ATi users dus ook verplicht om Shader Model 3.0 te gebruiken.. Dit betekend dus dat ATi mensen diep, maar dan ook zéééér diep in hun oor genaaid zijn.. Wat moeten wij hier nou van vinden, zou het een oorlogsverklaring van de kant van nVidia moeten zijn? (misschien dramatiseer ik nu alles, maar dit is toch wel heel erg laag..)
Anoniem: 99613
Neeh, voor de performance niet.. Maar omdat er dus ook SM3 commands zullen worden doorgestuurd (misschien zijn dat er niet heel veel, maar toch), krijgen mensen met een ATi kaart dus last van "artifacts".BlowFish schreef op 05 juli 2004 @ 16:21:
[...]
het maakt voor de performance van een ati kaart niets uit, deze heeft geen SM3 dus die zal gewoon op SM2 draaien, performance gaat echt niet achteruit.
Dan zou ik nog maar eens goed naar de recente tests kijken. Patch 1.2 vermindert namelijk performance op ATi kaarten, varierend van zo'n 2 tot zelfs 10 fps. Tel daarbij op textures die opeens niet goed worden gerenderd... en Cry Tek heeft de eerste nagel op de doodskist gezet van Far Cry.BlowFish schreef op 05 juli 2004 @ 16:21:
[...]
het maakt voor de performance van een ati kaart niets uit, deze heeft geen SM3 dus die zal gewoon op SM2 draaien, performance gaat echt niet achteruit.
Alleen bezitters van een GF6-serie kaart hebben voordelen van deze patch, en die zijn zeker in de minderheid (misschien nog niet eens duizend man/vrouw?), terwijl er honderdduizenden mensen een Radeon hebben die nu dus bagger draait dankzij deze patch. Ook voor online play heeft dit gevolgen. Als straks servers gebruik maken van de 1.2 patch dan zal je een leegloop zien, omdat mensen met ATi kaarten de patch niet installeren vanwege slechtere performance en screencorruption.
Cry Tek probeert nu een beetje het leed te verzachten door aan te kondigen dat patch 1.3 ook 3Dc gaat ondersteunen en dat daar ook performancewinst valt te winnen. Maar als 1.2 echt een goede patch was geweest, dan waren zowel de IQ als de performance gelijk gebleven op niet-nV-kaarten.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
hmm best triest in dat geval hadden ze wel rekening mee mogen houden,CJ schreef op 05 juli 2004 @ 16:36:
[...]
Dan zou ik nog maar eens goed naar de recente tests kijken. Patch 1.2 vermindert namelijk performance op ATi kaarten, varierend van zo'n 2 tot zelfs 10 fps. Tel daarbij op textures die opeens niet goed worden gerenderd... en Cry Tek heeft de eerste nagel op de doodskist gezet van Far Cry.
Alleen bezitters van een GF6-serie kaart hebben voordelen van deze patch, en die zijn zeker in de minderheid (misschien nog niet eens duizend man/vrouw?), terwijl er honderdduizenden mensen een Radeon hebben die nu dus bagger draait dankzij deze patch. Ook voor online play heeft dit gevolgen. Als straks servers gebruik maken van de 1.2 patch dan zal je een leegloop zien, omdat mensen met ATi kaarten de patch niet installeren vanwege slechtere performance en screencorruption.
Cry Tek probeert nu een beetje het leed te verzachten door aan te kondigen dat patch 1.3 ook 3Dc gaat ondersteunen en dat daar ook performancewinst valt te winnen. Maar als 1.2 echt een goede patch was geweest, dan waren zowel de IQ als de performance gelijk gebleven op niet-nV-kaarten.
btw salland krijgt morgen 4 XFX 6800 GT kaarten binnen! ik heb er al een besteld
Problemen op ATi worden veroorzaakt door bugs in het SM2-path van Far Cry. Dat heeft verder niets te maken met het feit dat het spel ook een SM3-path ondersteunt op kaarten die dat aankunnen.Anoniem: 99613 schreef op 05 juli 2004 @ 16:23:
[...]
Neeh, voor de performance niet.. Maar omdat er dus ook SM3 commands zullen worden doorgestuurd (misschien zijn dat er niet heel veel, maar toch), krijgen mensen met een ATi kaart dus last van "artifacts".
Yeah well. The Dude abides.
Anoniem: 93354
Anoniem: 38733
Maaruh, nieuws van Crytek; Ati's texture corruptie's die afgelopen dagen tevoorschijn kwamen in patch 1.2 zijn opgelost.
[ Voor 110% gewijzigd door Anoniem: 38733 op 05-07-2004 17:34 ]
Yep. En als de verwachtingen kloppen dan gebeurt er ook zoiets in HL2 maar dan andersom. Anders kom je nooit aan 40% verschil in snelheid.Anoniem: 93354 schreef op 05 juli 2004 @ 17:22:
Owja dus eerst was er niks aan de hand en nu is de 1.2 patch er en dan is er ''opeens'' een bug in het sm2 path.
Ati en nvidia moeten echt eens ff gezamelijk afspraken gaan maken want dit gaat echt de verkeerde kant op.
De achtergronden van het ontstaan van deze problemen op SM2-kaarten laat ik verder in het midden. Maar de artifacten onstaan natuurlijk niet door rondvliegende SM3-commands op SM2-kaarten, zoals de post waar ik op reageerde beweerde.Anoniem: 93354 schreef op 05 juli 2004 @ 17:22:
Owja dus eerst was er niks aan de hand en nu is de 1.2 patch er en dan is er ''opeens'' een bug in het sm2 path.
Yeah well. The Dude abides.
Anoniem: 38733
Heel simpel; hou je aan de norm van de huidige DirectX, en daarin zit geen ondersteuning voor SM3.0. Over 2 maanden pas komt WinXP service pack 2 met de nieuwe DirectX 9.0c.Ati en nvidia moeten echt eens ff gezamelijk afspraken gaan maken want dit gaat echt de verkeerde kant op.
Maar goed, Nv wilde koste wat het kost die patch er doorheen jagen want de FarCry performance was niet al te best in SM2.0 vergeleken met Ati.
[ Voor 9% gewijzigd door Anoniem: 38733 op 05-07-2004 17:38 ]
Gaat daar de performance ook dan flink omlaag?
Die conclusie laat ik voor jou rekening, best kans dat het aantal goeie cores binnen paar maanden stuk beter zal zijn. Maar wat ik begrijp is er nog amper mee geexperimenteerd, maar het zou dus kunnen met enkel een bios upgrade... (een aangepaste bios met 700mhz mem bijv.?) Nouja zo boeiend is het nou ook weer niet, de 6800 zijn echte probleem ligt bij de Mem-snelheid en niet zozeer bij "maar" 12 pipes.CJ schreef op 05 juli 2004 @ 02:42:
[...]
Maar aangezien de kaart nog steeds artifacts vertoonde in bepaalde tests (dus niet alle), gaat men er van uit dat die extra 4 pipelines dus half defect zijn. Sommige games deden het prima, andere games dus totaal niet.
En volgens velen is de kans op een succesvolle mod klein, aangezien nVidia meer slechte NV40 cores schijnt te hebben dan goede.
Het lijkt mij juist heel gezond dat de fabrikanten elkaar de loef af trachten te steken met nieuwe uitbreidingen, en als die dan compatibel zijn met/de basis zijn van een volgende DirectX specificatie, des te beter. 3DC wordt toch ook niet gespecificeerd in de huidige DirectX, moet ATi dat dan maar weglaten?Anoniem: 38733 schreef op 05 juli 2004 @ 17:37:
[...]
Heel simpel; hou je aan de norm van de huidige DirectX, en daarin zit geen ondersteuning voor SM3.0.
Maar goed, Nv wilde koste wat het kost die patch er doorheen jagen want de FarCry performance was niet al te best in SM2.0 vergeleken met Ati.
Dat verhindert niet dat ze tegelijkertijd wel kunnen voldoen aan de huidige specificatie. Voor zover ik weet is de huidige generatie van beide fabrikanten volkomen DX9(-b) conform.
Yeah well. The Dude abides.
Niet noodzakelijkerwijs, aangezien die sowieso al een eigen NV30 path draaien wat niet hetzelfde is als wat de ATi kaarten gebruiken.Legion schreef op 05 juli 2004 @ 17:39:
Hoe zit het dan met de "oude" SM2.0 kaarten van Nvidia?
Gaat daar de performance ook dan flink omlaag?
Yeah well. The Dude abides.
Anoniem: 38733
De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is. Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje. Maar goed, het probleem lijkt al opgelost te zijn.3DC wordt toch ook niet gespecificeerd in de huidige DirectX, moet ATi dat dan maar weglaten?
De SM3-ondersteuning van Far Cry werkt dan ook alleen met DX9c, wat overigens niet al te lang meer op zich zal laten wachten.Anoniem: 38733 schreef op 05 juli 2004 @ 17:53:
[...]
De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is.
Tja ik zou zelf eigenlijk niet al te veel conclusies durven trekken uit hetgeen wat een beta patch doet op een OS met een beta service pack met beta videodrivers...Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje.
MooiMaar goed, het probleem lijkt al opgelost te zijn.
Yeah well. The Dude abides.
Anoniem: 93354
sm2 en de oude nvidia kaarten is net zoiets als proberen een ferrarie er op je fiets uit te blazenLegion schreef op 05 juli 2004 @ 17:39:
Hoe zit het dan met de "oude" SM2.0 kaarten van Nvidia?
Gaat daar de performance ook dan flink omlaag?
ff serieus, de oude kaarten van nvidia lopen op een speciaal path wat geen sm2 gebruikt (dus eigelijk rendert fc het spel net zoals het met bv een gf4ti zou doen).
Iedereen kan SP2 RC2 incl dX9.0C gewoon downloaden en installeren dus wat maak je je druk? Bij mij werkt het prima en ik hoor van anderen ook weinig klachten.Anoniem: 38733 schreef op 05 juli 2004 @ 17:53:
[...]
De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is. Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje. Maar goed, het probleem lijkt al opgelost te zijn.
Het is pas een probleem als de patch officieel uitgebracht wordt terwijl tests met de RTM patch uitgewezen hebben dat ATI bezitters slechte(re) IQ hebben.
Verder is die hele 1.2 patch dus nog niet eens uit maar er worden weer allemaal voorbarige conclusies getrokken. Wie zegt dat Crytek die patch released als ATI kaarten m.n. IQ problemen hebben?
Daarnaast, de ATI fanboys vinden het geweldig dat HL2 supposedly veel sneller zou draaien op ATI kaarten. Hoe kan dat? Misschien ook omdat Gabe voor ATI optimaliseert.
Alleen heb ik geen ATI adept gehoord dat dat misschien niet helemaal eerlijk is voor al die nVidia bezitters out there.
Meten met twee maten. Anyone?
Ja Crytek is een TWIMTBP spel (ofzoiets) dus nVidia zal zeker alles op alles zetten om hun architectuur optimaal ondersteund te krijgen. Dat lijkt me logisch en ATI doet precies hetzelfde.
Het is aan de developers om ervoor te zorgen dat het geld van ATI of nVidia hen er niet toe dwingt om een vd twee te cripplen. Dat kan een probleem worden maar voorlopig is dat nog niet bewezen.
Ik geloof er alleen niks van dat Crytek een patch zal gaan lanceren waarbij de ATI bezitters corrupte IQ hebben enzovoorts. Daarmee snijden ze alleen zichzelf in de vingers want hoeveel mensen hebben wel niet een ATI.
Verder heb ik er geen problemen mee hoor als gamedevelopers zsm de nieuwste features in hun spel proberen te ondersteunen. Of het nou 3DC is of SM3 hoe eerder hoe beter.
[ Voor 13% gewijzigd door Help!!!! op 05-07-2004 19:02 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 93354
Anoniem: 2044
Heb je ook de review van de XFX gelezen?? Dat dit merk wel de aller aller luidruchtigste koeler heeft van allemaal?BlowFish schreef op 05 juli 2004 @ 17:09:
[...]
hmm best triest in dat geval hadden ze wel rekening mee mogen houden,
btw salland krijgt morgen 4 XFX 6800 GT kaarten binnen! ik heb er al een bestelddus zijn er nog 3 wees snel
Dat klopt dat het niet goed zat in een betapatch en het is, wat ik ervan hoor, idd gelukkig opgelost.Anoniem: 93354 schreef op 05 juli 2004 @ 19:25:
Bij die patch van farcry zag je gewoon dat het niet helemaal goedzat. Gelukkig heeft crytech het snel opgelost.
Alleen jammer dat er zovelen gelijk weer allemaal conclusies trekken dat Crytek dit expres doet omdat ze geld van nVidia krijgen.
Wat mij betreft wordt er weer veel te vroeg "gehuild"
ps:
HL2 zal ongetwijveld geheel Dx9 zijn. Maar wie heeft de code van HL2 bekeken? Wie zegt mij dat het echt zo is. Omdat Gabe het zegt? Call me paranoia maar Gabe kan zoveel zeggen. Wie zegt mij dat Valve niet in de eerste plaats bezig is om iets te programmeren dat vooral goed werkt op ATI omdat ze geld krijgen van ATI.
Al zou het zo zijn dat Valve strikt volgens de dX9 richtlijnen programmeert dan nog kun je je afvragen hoe "ethisch" dat zou zijn. Miljoenen mensen op de wereld hebben een nVidia en willen ook van HL2 genieten.
Dit is gewoon een dilemma. Als gamedeveloper programeer je voor je fans en buyers ongeacht hun videokaart.
Als je als developer besluit om strikt 9.0 te programmeren terwijl je weet dat er enorm veel kaarten zijn die met dat pad niet helemaal perfekt lopen , ben je dan goed bezig? Ik weet het niet.
[ Voor 8% gewijzigd door Help!!!! op 05-07-2004 19:41 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Tja, vergelijk die situatie met de miljoenen website bouwers die voornamelijk hun site voor IE bouwen, en de sites die dan conform de W3 standaard worden gebouwd, zien er niet goed uit in IE omdat MS hun eigen regels er op nahoudt.Help!!!! schreef op 05 juli 2004 @ 19:38:
[...]
Dat klopt en het is, wat ik ervan hoor, idd gelukkig opgelost.
Alleen jammer dat er zovelen gelijk weer allemaal conclusies trekken dat Crytek dit expres doet omdat ze geld van nVidia krijgen.
Wat mij betreft wordt er weer veel te vroeg "gehuild".
ps:
HL2 zal ongetwijveld geheel Dx9 zijn. Maar wie heeft de code van HL2 bekeken? Wie zegt mij dat het echt zo is. Omdat Gabe het zegt? Call me paranoia maar Gabe kan zoveel zeggen. Wie zegt mij dat Valve niet in de eerste plaats bezig is om iets te programmeren dat vooral goed werkt op ATI omdat ze geld krijgen van ATI.
Al zou het zo zijn dat Valve strikt volgens de dX9 richtlijnen programmeert dan nog kun je je afvragen hoe "ethisch" dat zou zijn. Miljoenen mensen op de wereld hebben een nVidia en willen ook van HL2 genieten.
Dit is gewoon een dilemma. Als gamedeveloper programeer je voor je fans en buyers ongeacht hun videokaart.
Als je als developer besluit om strikt 9.0 te programmeren terwijl je weet dat er enorm veel kaarten zijn die met dat pad niet helemaal perfekt lopen , ben je dan goed bezig? Ik weet het niet.
Ik heb liever dat HL2 of andere spellen zich aan een (vooraf) bepaalde standaard houden dan dat ze het zelf interpreteren zoals het willen (of hoe een bepaalde videokaart fabrikant het wil). Met andere woorden kies ik dus liever voor een bedrijf dat de standaarden volgt dan een eigen standaard verzint en vervolgens daar op doorgaat (tot in zekere mate, eigen engines en zo mogen van mij zeker ontwikkeld blijven worden, het is alleen dat het volgens een bepaalde architectuur moet lopen die bij de verschillende videokaartfabrikanten ook strict gevolgd worden).
Signature
Tja,pastapappie.NET schreef op 05 juli 2004 @ 19:43:
[...]
Tja, vergelijk die situatie met de miljoenen website bouwers die voornamelijk hun site voor IE bouwen, en de sites die dan conform de W3 standaard worden gebouwd, zien er niet goed uit in IE omdat MS hun eigen regels er op nahoudt.
Ik heb liever dat HL2 of andere spellen zich aan een (vooraf) bepaalde standaard houden dan dat ze het zelf interpreteren zoals het willen (of hoe een bepaalde videokaart fabrikant het wil). Met andere woorden kies ik dus liever voor een bedrijf dat de standaarden volgt dan een eigen standaard verzint en vervolgens daar op doorgaat (tot in zekere mate, eigen engines en zo mogen van mij zeker ontwikkeld blijven worden, het is alleen dat het volgens een bepaalde architectuur moet lopen die bij de verschillende videokaartfabrikanten ook strict gevolgd worden).
Dat is het dilemma voor de developer.
Ik vind dat je als developer dan geen keus hebt en voor beide kaarten moet programmeren hoe inefficient dat ook is.
PS:
Ook hier http://graphics.tomshardware.com/graphic/20040705/index.html Farcry 1.2 onder de loep.
[ Voor 6% gewijzigd door Help!!!! op 05-07-2004 20:18 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Met als gevolg dat het developen van een game soms 2x zo lang duurt... zie ook HL2 waar 5x meer tijd besteed werd aan het optimaliseren voor nV FX hardware t.o.v. ATi hardware om het goed te laten lopen... dat was niet nodig geweest als nV zich gewoon aan de DX standaard had gehouden. Of denk aan Doom3. Hoeveel kostbare tijd is er wel niet verspild aan het FX pad, omdat FX hardware niet goed overweg kon met het standaard ARB2 pad? En nu is het ook nog eens geschrapt... echt zonde van de tijd gewoon.Help!!!! schreef op 05 juli 2004 @ 19:52:
[...]
Ik vind dat je als developer dan geen keus hebt en voor beide kaarten moet programmeren hoe inefficient dat ook is.
En dat heeft allemaal weer tot gevolg dat de hardware steeds verder op de software vooruit komt te lopen. Nog meer zelfs dan we nu al doen. Nee dank je. Doe mij dan maar één standaard pad.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Kan jij makkelijk zeggen want je hebt een ATI....CJ schreef op 05 juli 2004 @ 20:19:
[...]
Met als gevolg dat het developen van een game soms 2x zo lang duurt... zie ook HL2 waar 5x meer tijd besteed werd aan het optimaliseren voor nV FX hardware t.o.v. ATi hardware om het goed te laten lopen... dat was niet nodig geweest als nV zich gewoon aan de DX standaard had gehouden. Of denk aan Doom3. Hoeveel kostbare tijd is er wel niet verspild aan het FX pad, omdat FX hardware niet goed overweg kon met het standaard ARB2 pad? En nu is het ook nog eens geschrapt... echt zonde van de tijd gewoon.![]()
En dat heeft allemaal weer tot gevolg dat de hardware steeds verder op de software vooruit komt te lopen. Nog meer zelfs dan we nu al doen. Nee dank je. Doe mij dan maar één standaard pad.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ach ja, niks mis met een 5950U, dat is een betere kaart dan de kaart die ik heb nl : :een 9800PRO met gratis brakke ATI drivers. Overigens zijn beide kaarten toch te traag om echte dx9 features in hoge resoluties met aa en af te spelen.CJ schreef op 05 juli 2004 @ 20:43:
Als ik een nV bezitter was met bijvoorbeeld een FX5950U dan zou ik ook behoorlijk pissig zijn hoor.Het is toch jammer dat er een hele nieuwe serie kaarten nodig is om de fouten weer goed te maken? Ondertussen zitten wel duizenden mensen 'opgescheept' met hun FX kaart die door nieuwere games als DX8.1 kaart wordt behandeld.
ps. Zullen weer lekker positief over Nvidia praten ? het is tenslotte een Nvidia topic en geen ATI topic
Turning the flashlight on costs the GeForce 6800 Ultra much less performance (9%) than the X800 XT PE (18%).

(Lichtgroen is SM3, donkergroen is SM2.)
[ Voor 8% gewijzigd door Tyranium op 05-07-2004 23:08 ]
En als ik naar de next-gen games kijk, zie ik veel shaders...
Laten we eerst maar eens wachten totdat ze echt uit zijn. ik ga niet meer van die benchies uit.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Heb je de scores gezien van de FX5950U in Far Cry in de laatste review van Tom's Hardware?epo schreef op 05 juli 2004 @ 21:19:
[...]
Ach ja, niks mis met een 5950U, dat is een betere kaart dan de kaart die ik heb nl : :een 9800PRO met gratis brakke ATI drivers. Overigens zijn beide kaarten toch te traag om echte dx9 features in hoge resoluties met aa en af te spelen.

http://graphics.tomshardw...ry-05.html#level_research
En daarom vind ik het zo sneu dat de FX5950U bezitters er nu zo bekaaid van af komen.
[ Voor 7% gewijzigd door CJ op 06-07-2004 01:38 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Voor de 6800 is het een goed teken dat sm.3 meer snelheid laat zien in far cry laat toch wel zien dat die kaart zeker wel snel is in de nieuwste games.
Het is natuurlijk niet de bedoeling dat ati kaarten hier op achteruit gaan maar is die patch 1.2 nou al af of was het een beta test?? Als ie beta was snap ik de hele discussie niet.
Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?
Als dit idd geen dx standaard is is het eigenlijk complete onzin om deze te ondersteunen. (nogmaals als ie wel dx9 is neem ik dit terug)
Nvidia heeft het voortouw genomen door sm3 te ondersteunen en ati niet ( net zoiets als de fx geen volledige dx9 is) en dan is volgens mij logsch dat nvidia hiervan profijt heeft in snelheid. Dit is een keuze die ati ook had kunnen maken en valt niemand te verwijten behalve de gene die er voor kiest het niet te nemen als de ander het wel doet.
Verder wil ik even verzoeken (geen flame maar wil dat dit topic blijft bestaan) dat bv mensen zoals b3n666 en apple ff wat rustig gaan doen. Volgens mij is het voor jullie een spel om een flame war te beginnen ofzo (sommige hier doen dat ook). En mij is het ondertussen wel duidelijk dat jullie voorkeur ati is, maar doe dit dan aub in het ati topic. Dit is geen flame maar een vriendelijk verzoek doe ermee wat jullie willen.
"Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?"
PS3.0 zit toch ook niet in DX9? Dus waarom zou Farcry PS3.0 moeten gaan ondersteunen.....
mmmmm
There is no place like ::1
[eigenlijk offtopic]sjek schreef op 06 juli 2004 @ 01:41:
Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?
Als dit idd geen dx standaard is is het eigenlijk complete onzin om deze te ondersteunen. (nogmaals als ie wel dx9 is neem ik dit terug)
3Dc zit niet in rechtstreekse vorm in DX9. 3Dc is een manier van texture compressie waardoor er een stuk minder geheugen verbruikt wordt. Zie het als een soort van middel om een doel te bereiken. Elke IHV heeft verschillende middelen om hun doel te bereiken; zo verschillen de FSAA en AF algoritmes van beide IHVs, terwijl de output (zo goed als) identiek is. De een is echter net wat sneller in FSAA, terwijl de ander misschien sneller is in AF. Maar hoe men precies AA en AF moet toepassen staat niet exact gedefinieerd in de DX9 standaard. Daar zijn de IHVs vrij in om er hun eigen methodes voor te verzinnen.
Zo is 3Dc een methode/middel om snelheid te winnen wanneer er gebruik wordt gemaakt van normal maps, zonder dat de IQ omlaag gaat. Of in het omgekeerde geval, om tot 4x zo veel detail toe te voegen zonder dat er meer geheugen benodigd is en zonder de performance te beinvloeden.
Tot voor kort waren er nog geen goede methodes om met normalmap compressie om te gaan, aangezien de standaard DXTC voor artifacts/blokkerigheid kan zorgen. Dus is men op zoek gegaan naar een compressiemethode die wel goed werkt met normal maps. Resultaat: 3Dc.
Normal maps worden in nieuwe games zeer intensief gebruikt, zie Far Cry, Doom 3, Serious Sam 2, Half Life 2 etc. En dit nieuwe techniekje kan dus voor een leuke performanceboost zorgen, terwijl het ook nog eens heel gemakkelijk is te implementeren. De tools zijn zelfs al voor devs beschikbaar.
Gamedevs willen natuurlijk dat hun game er zo mooi mogelijk uit ziet dan wel zeer snel loopt. En Cry Tek realiseert zich natuurlijk ook dondersgoed dat ATi inmiddels een stevige positie heeft en wil die fanbase waarschijnlijk niet teleurstellen. Dus stoppen ze ook 3Dc in de game, aangezien die zich er toch al goed voor leent door het hoge normalmap gehalte.
ATi wil natuurlijk niets liever dan 3Dc als "standaard" voor normalmapcompressie in DX te krijgen, en om dit zo gemakkelijk mogelijk te maken hebben ze gekozen voor een open standaard. Het staat nVidia, S3, XGI, Matrox etc dus vrij om dit kosteloos te integreren in hun hardware. En toevallig is het ontwikkeld door drie mensen die ook verantwoordelijk zijn voor S3TC texture compression, wat later in DirectX is verschenen als DXTC. Dus het zou me niets verbazen als we 3Dc in een volgende versie of revisie van DX gaan zien, dan wel in X-Box2.[/ eigenlijk offtopic]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 38733
FiringSquad: In addition to SM 3.0, Far Cry will also be patched to take advantage of AMD’s 64-bit architecture in the future – what changes are you implementing in the 64-bit version of Far Cry?
Cevat Yerli: We’ve done it mainly for content development creators and mod creators, there will be huge benefits from it. For the gameplay it will be more beneficial to the environment, you will have some specific content for 64-bit. There will be a 64-bit version of Far Cry, a separate one eventually. That will be essentially content-wise slightly improved over the 32-bit version but it’s not something which, I mean people with the 32-bit version can still compare to the 64-bit version, but it’s optimized for the 64-bit experience. And the user of course will benefit from the 64-bit CPU architecture, which is more registers, better memory controller, but also more addressable memory.
FiringSquad: Will it look any better, or are you just going to use 64-bit to enhance performance?
Cevat Yerli: Well you will have a better experience, not necessarily “the look”; well you will have more environmental objects. If you consider that a better “look”, then yes, but the experience will be better because more things will be happening on screen.
Tuurlijk zit PS3.0 wel in DX9c. Net zoals PS2.0 in DX9b zit. De fout die Nvidia maakte door niet volledig PS2.0 te ondersteunen, maakt misschien Ati nu ook wel door geen PS3.0 te ondersteunen.swampy schreef op 06 juli 2004 @ 02:17:
@sjek
"Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?"
PS3.0 zit toch ook niet in DX9? Dus waarom zou Farcry PS3.0 moeten gaan ondersteunen.....
mmmmm
Ik zeg ook nadrukkelijk misschien want een performance winst in nog maar 1 game vind ik toch te weinig om me volledige conclusie te trekken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 38733
Waar ik nou werkelijk benieuwd naar ben is of de sm3.0 performance in de échte Far Cry game nou ook zo "jaw dropping" is, ik bedoel hiermee dat de reviews die we tot nu toe gelezen hebben 4 demo levels bevatten die door Nv aangereikt zijn, en dus niet in het werkelijke spel voorkomen.Ik zeg ook nadrukkelijk misschien want een performance winst in nog maar 1 game vind ik toch te weinig om me volledige conclusie te trekken.

Airstrip: http://www.anandtech.com/video/showdoc.aspx?i=2102&p=5
Mangoriver: http://www.anandtech.com/video/showdoc.aspx?i=2102&p=6
Als de patch eenmaal in omloop is zullen we vast wel reviews/benches te zien krijgen over wat SM3.0 nu in de praktijk brengt, en niet op demo levels van Nv.
(Dezelfde "marketing" krijgen we in de toekomst natuurlijk ook te zien als Ati met 3Dc demo's aan komt kakken, je krijgt dan een veel rooskleuriger beeld voorgeschoteld als dat het in de praktijk op zal leveren. Ik zeg dit even omdat ik niet flamerig over wil komen
[ Voor 17% gewijzigd door Anoniem: 38733 op 06-07-2004 09:45 ]
Anoniem: 93354
Uhm oke... Wat flame ik nou weer? Ik heb al 6x gezegd dat Nvidia atm een betere keus is. Ik zal vast wel wat minder leuke dingen over Nv gezegd hebben maar volgens mij nooit zonder het ook te onderbouwen (en dat is dus geen flamen, dat heet een onderbouwde mening geven). En zelf ben je geloof ik ook niet altijd even objectief? Maargoed zoals ik al 10x heb gezegd boeit het merk mij niet, de enige reden dat ik liever had gezien dat ati sneller was is omdat ik dan geen niew gpu blok voor me wc had hoeven kopen (nee ik heb idd geen geld over).sjek schreef op 06 juli 2004 @ 01:41:
Verder wil ik even verzoeken (geen flame maar wil dat dit topic blijft bestaan) dat bv mensen zoals b3n666 en apple ff wat rustig gaan doen. Volgens mij is het voor jullie een spel om een flame war te beginnen ofzo (sommige hier doen dat ook). En mij is het ondertussen wel duidelijk dat jullie voorkeur ati is, maar doe dit dan aub in het ati topic. Dit is geen flame maar een vriendelijk verzoek doe ermee wat jullie willen.
Anyway, Is het al bekend wanneer er voldoende GT kaarten zijn overal?
Nou het is echt heel erg gesteld daarmee.Anoniem: 93354 schreef op 06 juli 2004 @ 09:49:
[...]
Uhm oke... Wat flame ik nou weer? Ik heb al 6x gezegd dat Nvidia atm een betere keus is. Ik zal vast wel wat minder leuke dingen over Nv gezegd hebben maar volgens mij nooit zonder het ook te onderbouwen (en dat is dus geen flamen, dat heet een onderbouwde mening geven). En zelf ben je geloof ik ook niet altijd even objectief? Maargoed zoals ik al 10x heb gezegd boeit het merk mij niet, de enige reden dat ik liever had gezien dat ati sneller was is omdat ik dan geen niew gpu blok voor me wc had hoeven kopen (nee ik heb idd geen geld over).
Anyway, Is het al bekend wanneer er voldoende GT kaarten zijn overal?
Het lijkt erop dat de GTs eerder leverbaar worden als de Ultras terwijl het precies andersom had moeten zijn ....

Turn it off and on again.
Inmiddels is mijn XFX 6800GT ook besteld: heb de asus maar laten vallen, want die laat nog minstens twee weken op zich wachten.
Dit topic is gesloten.