[Algemeen] nVidia NV40 / GeForce 6800 Topic! Deel 5 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 2.338 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 04-05 19:02
epo schreef op 03 juli 2004 @ 17:59:
[...]


Ach ja, het enige wat jij doet is ATI promoten dus....
Ach ja, het enige wat jij doet is nVidia promoten dus....

:+

specs desktop | specs laptop


Acties:
  • 0 Henk 'm!

  • joostve
  • Registratie: Januari 2002
  • Laatst online: 16-10-2024
hoho jongens niet ruzieën :)
de kaarten zijn allemaal even goed, de één wat beter hier, en de ander wat beter daar.
het is maar naar waar je voorkeur naar uit gaat.
ik koop al jaren Nvidia en ik ben er tevreden mee dus ook nu koop ik gewoon weer Nvidia

C2D 6600, 275 GTX Windows 7


Acties:
  • 0 Henk 'm!

Anoniem: 99613

silentsnow schreef op 03 juli 2004 @ 00:39:
DirectX 9.0C zit overigens al in XP SP2. Nog twee maandjes wachten ongeveer.
Nog twee maandjes? Ik dacht dat SP2 final eind juli al zou arriveren.. Maarja, we hebben het wel over MS inderdaad, en daarbij komt dat ik nog geen enkele alpha/beta release van DirectX heb gezien/waargenomen/gehoord.. Wie wel, en wie weet er maybe de characteristics van?

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Enne in patch 1.3 komen er waten leuke eye candy spulletjes in exclusief voor de 6800 daar zit je dan met die x800 8)
"Exclusief" voor de 6800 zou kunnen, ik kan me namelijk voorstellen dat Nv met een pak geld Crytek er van overtuigt om bijv. displacement mapping enkel in het sm3.0 pad te gooien, om koste wat het kost de wereld te laten zien dat je toch echt sm3.0 nodig hebt om in vol ornaat te kunnen spelen (wat dus niet klopt, aangezien PS2.0 dit ook kan. En dan heb ik het nog geneens over de eigenaren van een GF FX, die worden dan ook door Nv in de kou gezet).
Dit zou een kwalijke zaak zijn, want wat kan er vervolgens gebeuren? Ati gaat Gabe N. een pak geld toestoppen om er voor te zorgen dat als HL2 een Nv kaart detecteert dat bijv. textures automatisch op low gezet zullen worden, ik noem maar wat. Krijgen we dalijk de situatie dat je 2 videokaarten nodig hebt om alle spellen in vol ornaat te mogen zien. :X Dat wordt een complete oorlog, daar zitten we niet op te wachten.

[ Voor 15% gewijzigd door Anoniem: 38733 op 03-07-2004 18:51 ]


Acties:
  • 0 Henk 'm!

  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

Anoniem: 99613 schreef op 03 juli 2004 @ 18:31:
[...]

Nog twee maandjes? Ik dacht dat SP2 final eind juli al zou arriveren.. Maarja, we hebben het wel over MS inderdaad, en daarbij komt dat ik nog geen enkele alpha/beta release van DirectX heb gezien/waargenomen/gehoord.. Wie wel, en wie weet er maybe de characteristics van?
Eind juli of augustus inderdaad. DirectX 9.0c draait hier overigens al ruim twee maanden.

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 14:34

epo

shuogg schreef op 03 juli 2004 @ 18:00:
[...]


Ach ja, het enige wat jij doet is nVidia promoten dus....

:+
yep, omdat Nvidia het nu nodig heeft en ATI niet. Ik heb erzelf eentje, maar hoop snel van mijn 9800pro af te zijn voor een 6800GT !

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 14:34

epo

Anoniem: 38733 schreef op 03 juli 2004 @ 18:42:
[...]


"Exclusief" voor de 6800 zou kunnen, ik kan me namelijk voorstellen dat Nv met een pak geld Crytek er van overtuigt om bijv. displacement mapping enkel in het sm3.0 pad te gooien, om koste wat het kost de wereld te laten zien dat je toch echt sm3.0 nodig hebt om in vol ornaat te kunnen spelen (wat dus niet klopt, aangezien PS2.0 dit ook kan. En dan heb ik het nog geneens over de eigenaren van een GF FX, die worden dan ook door Nv in de kou gezet).
Dit zou een kwalijke zaak zijn, want wat kan er vervolgens gebeuren? Ati gaat Gabe N. een pak geld toestoppen om er voor te zorgen dat als HL2 een Nv kaart detecteert dat bijv. textures automatisch op low gezet zullen worden, ik noem maar wat. Krijgen we dalijk de situatie dat je 2 videokaarten nodig hebt om alle spellen in vol ornaat te mogen zien. :X Dat wordt een complete oorlog, daar zitten we niet op te wachten.
nah, het zijn sm3.0 features :P

Acties:
  • 0 Henk 'm!

Anoniem: 23009

Zo de meine heb ik al besteld bij Salland Frijdag 2 Juli om 10:30 AM.

Ik heb voor de ASUS V9999 Gamer Edition gekozen:

Afbeeldingslocatie: http://www.hardware.info/images/artikelen/000105-19.jpg

Afbeeldingslocatie: http://static.prohardver.hu/pics/newsx/2004-06/asusgf1.jpg

Afbeeldingslocatie: http://www.gzeasy.com/newsphoto/y2k4/04/15/asus2.jpg

De ASUS is idd het mooiste model, ik ga voor de blauwe PCB en de Blauwe leds er in, scheelt weer wat mod werk, een beetje OC'en en hij komt overheen met de ULTRA. :) scheelt weer wat poetjes.

[ Voor 43% gewijzigd door Anoniem: 23009 op 04-07-2004 02:04 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 29-04 23:32

edward2

Schieten op de beesten

dx9c is makkelijk te krijgen. bv op nv news. De patch komt maandag? Nou de gf6800 nog...

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 04-05 19:02
epo schreef op 03 juli 2004 @ 21:12:
[...]


yep, omdat Nvidia het nu nodig heeft en ATI niet. Ik heb erzelf eentje, maar hoop snel van mijn 9800pro af te zijn voor een 6800GT !
Hoezo heeft nVidia het nodig? Ze hebben ohm alle kaarten in handen dacht ik zo :{

Oh en, wat boeit het hoe je Far Cry speelt? Zo'n goede game was het niet, na een keer de SP gedaan te hebben had ik het iig wel gezien. Het is nu gewoon een veredelde benchmark, net zoals Doom 3 gaat worden.

[ Voor 25% gewijzigd door shuogg op 04-07-2004 09:23 ]

specs desktop | specs laptop


Acties:
  • 0 Henk 'm!

Anoniem: 38733

epo schreef op 03 juli 2004 @ 21:14:
[...]


nah, het zijn sm3.0 features :P
Op het launch event filmpje van de 6800 toont de maker van FarCry een demo waar alle eye-candy in zit, luister eens goed naar het commentaar van de maker.

Stream vind je hier
(als je naar de 26e minuut scrollt zie je de Far Cry demo met bijbehorende commentaar.)

Nvidia: "oh wat mooi, dus dit is allemaal mogelijk met shader model 3.0"
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"
Nvidia: "Cool, maar laten we even naar het inside level kijken. Het lijkt erop dat je hier een soort van bumpmapping gebruikt hebt. Really cool. Mooi zeg dankzij shader model 3.0."
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"

:+


Edit: gelezen op 't forum van Rage3d.com:

quote from the Yerli brothers themselves:

"We support this [virtual displacement mapping] for Pixelshader 2.0 (e.g. ATI 9500) and higher."

:P

[ Voor 17% gewijzigd door Anoniem: 38733 op 04-07-2004 11:41 ]


Acties:
  • 0 Henk 'm!

  • Maverick
  • Registratie: Oktober 2001
  • Laatst online: 07:55
lol, zit het nu te kijken, is wel erg typisch, die gast maar "shadermodel 2.0 en 3.0" zeggen, en die vnidia PR dude maar daar shadermodel 3.0 van maken :D

PSN: DutchTrickle PVoutput


Acties:
  • 0 Henk 'm!

  • semicon
  • Registratie: Augustus 2003
  • Laatst online: 29-01-2024
om nog even terug te komen op die reviews, ik denk dat je toch niet kan uitgaan van die shots, de kaart heeft amper de juiste drivers nog. Geld voor zowel nvidia en ati er moet nog veel meer getest worden en net als toen met die 5950 heeft het volgens mij wel 4 maanden geduurt voordat echt betrouwbare info beschikbaar was..

ik denk zo ie zo een tijd te wachten met het kopen van mn nieuwe videokaart, maar... aan de specs te zien denk ik dat nvidia toch deze strijd gaat winnen.

Acties:
  • 0 Henk 'm!

  • peke
  • Registratie: Februari 2002
  • Laatst online: 13-01 16:47
De grote winnaar zal deze zijn met de goedkoopste kaarten en de beste beschikbaarheid gezien beide gpu's erg aan elkaar gewaagd zijn.
In theorie zou dat ATI zijn want de x800 core heeft een pak minder transistoren wat dus meer cores per wafer oplevert en de kosten drukt.

Acties:
  • 0 Henk 'm!

Anoniem: 90323

Over alle bench sites gemmiddeld gezien, dan brengt de 6800 er beter vanaf. Hiernaast gaat/is ati bezig met de chipset voor de xbox2 waar nvidia mee bezig was voor de xbox1 tegelijkertijd met de gpu 5 series. En we weten allemaal hoe het afgelopen is met de 5series van nvidia. Dus iedereen kan hier zijn conclusies wel uit trekken.

Acties:
  • 0 Henk 'm!

  • BlowFish
  • Registratie: Maart 2004
  • Laatst online: 08:09
Anoniem: 38733 schreef op 04 juli 2004 @ 10:21:
[...]


Op het launch event filmpje van de 6800 toont de maker van FarCry een demo waar alle eye-candy in zit, luister eens goed naar het commentaar van de maker.

Stream vind je hier
(als je naar de 26e minuut scrollt zie je de Far Cry demo met bijbehorende commentaar.)

Nvidia: "oh wat mooi, dus dit is allemaal mogelijk met shader model 3.0"
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"
Nvidia: "Cool, maar laten we even naar het inside level kijken. Het lijkt erop dat je hier een soort van bumpmapping gebruikt hebt. Really cool. Mooi zeg dankzij shader model 3.0."
Crytek: "Ja, dit is mogelijk met shader model 2.0 en 3.0"

:+


Edit: gelezen op 't forum van Rage3d.com:

quote from the Yerli brothers themselves:

"We support this [virtual displacement mapping] for Pixelshader 2.0 (e.g. ATI 9500) and higher."

:P
jah maar het gaat erom dat de 6800 voordeel haalt uit de SM3, tuurlijk zal SM2 het ook de eye-candy naar voren kunnen toveren alleen is de "prijs" in de vorm van frame rate bij de SM2 veel hoger. Dus met een 6800 wordt het pas gunstig gebruik te maken van SM3 omdat de 6800 er veel beter gebruik van maakt juist omdat ze de Pixel shaders 3 ondersteunt

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 14:34

epo

BlowFish schreef op 04 juli 2004 @ 16:01:
[...]


jah maar het gaat erom dat de 6800 voordeel haalt uit de SM3, tuurlijk zal SM2 het ook de eye-candy naar voren kunnen toveren alleen is de "prijs" in de vorm van frame rate bij de SM2 veel hoger. Dus met een 6800 wordt het pas gunstig gebruik te maken van SM3 omdat de 6800 er veel beter gebruik van maakt juist omdat ze de Pixel shaders 3 ondersteunt
inderdaad :) eye candy is leuk als je framerate goed blijft, en dat zal dan bij de sm2.0 kaarten flink inzakken :P

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 90323 schreef op 04 juli 2004 @ 15:17:
Over alle bench sites gemmiddeld gezien, dan brengt de 6800 er beter vanaf. Hiernaast gaat/is ati bezig met de chipset voor de xbox2 waar nvidia mee bezig was voor de xbox1 tegelijkertijd met de gpu 5 series. En we weten allemaal hoe het afgelopen is met de 5series van nvidia. Dus iedereen kan hier zijn conclusies wel uit trekken.
offtopic:
Ik weet niet wat voor conclusies jij er allemaal uit kan trekken. De enige conclusie die ik kan trekken is dat jij niet weet dat ATi een heel ander soort overeenkomst heeft gesloten met Microsoft voor de X-Box2 dan nVidia dat gedaan heeft voor de X-Box1.

ATi != nVidia

Dus de fouten die nVidia heeft gemaakt hoeven niet automatisch gemaakt te worden door ATi. Misschien is het handig om even de startpost van het grote ATi topic te lezen. ;)
BlowFish schreef op 04 juli 2004 @ 16:01:
[...]


jah maar het gaat erom dat de 6800 voordeel haalt uit de SM3, tuurlijk zal SM2 het ook de eye-candy naar voren kunnen toveren alleen is de "prijs" in de vorm van frame rate bij de SM2 veel hoger. Dus met een 6800 wordt het pas gunstig gebruik te maken van SM3 omdat de 6800 er veel beter gebruik van maakt juist omdat ze de Pixel shaders 3 ondersteunt
Dit topic zeker nog niet gelezen: New Dynamic Branching without PS 3.0 ;) Performanceboost is 2-4x wanneer er gebruik van wordt gemaakt op PS2.0 kaarten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 93354

Jaja dus alles wat de gf6800 met sm3 kan op een speelbare framerate kan ook in sm2 gedaan worden met een speelbare fps alleen Nvidia heeft Crytech een zak geld gegeven zodat ze het alleen voor sm3 doen?

Acties:
  • 0 Henk 'm!

  • Maverick
  • Registratie: Oktober 2001
  • Laatst online: 07:55
Anoniem: 93354 schreef op 04 juli 2004 @ 17:13:
Jaja dus alles wat de gf6800 met sm3 kan op een speelbare framerate kan ook in sm2 gedaan worden met een speelbare fps alleen Nvidia heeft Crytech een zak geld gegeven zodat ze het alleen voor sm3 doen?
Nee, het wordt ook voor sm2 gedaan afaik. Je ziet in het filmpje ook duidelijk dat die crytek man dat zegt. het kan met beiden, dat Nvidia er in haar eigen PRpraat van maakt dat dit allemaal alleen met sm3 kan, is omdat ze willen dat mensen die niet verder kijken dan hun neus lang is dan hun kaarten kopen, om een feature die geen meerwaarde heeft.

PSN: DutchTrickle PVoutput


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 14:34

epo

gaan we weer, er is iig een performancewinst met sm3.0 te halen ! de testen hebben dat al bewezen met Far Cry.

Acties:
  • 0 Henk 'm!

  • BlowFish
  • Registratie: Maart 2004
  • Laatst online: 08:09
[quote]CJ schreef op 04 juli 2004 @ 16:58:
[...]
Dit topic zeker nog niet gelezen: New Dynamic Branching without PS 3.0 ;) Performanceboost is 2-4x wanneer er gebruik van wordt gemaakt op PS2.0 kaarten.
Ok maar ik heb het over de voordelen van de pixel shaders 3 tov de pixel sharders 2, je kan me niet vertellen dat de PS3 geen enkel voordeel heeft tov 2. Zo als ik het nu zie kunnen bijde shaders alle eye-candy naar voren tover met alternatieven en soms niet, maar volgens mij moet niet vergeten worden dat de PS3 meer aan kan dan de ps2 dus wel degelijk zal de ps3 altijd een voordeel hebben tov de ps2

Acties:
  • 0 Henk 'm!

  • Maverick
  • Registratie: Oktober 2001
  • Laatst online: 07:55
[quote]BlowFish schreef op 04 juli 2004 @ 17:22:
CJ schreef op 04 juli 2004 @ 16:58:
[...]


[...]


Ok maar ik heb het over de voordelen van de pixel shaders 3 tov de pixel sharders 2, je kan me niet vertellen dat de PS3 geen enkel voordeel heeft tov 2. Zo als ik het nu zie kunnen bijde shaders alle eye-candy naar voren tover met alternatieven en soms niet, maar volgens mij moet niet vergeten worden dat de PS3 meer aan kan dan de ps2 dus wel degelijk zal de ps3 altijd een voordeel hebben tov de ps2
Voor nvidia heetf het voordelen ten opzichte van ps2 maar ati zegt met ps2 dezelfde performance winst te kunne halen, kortom aan het eind van de lijn zijn ze allebei sneller. Zoals je ziet zijn er meer wegen die naar rome leiden ;)

PSN: DutchTrickle PVoutput


Acties:
  • 0 Henk 'm!

  • SI4live
  • Registratie: Januari 2003
  • Laatst online: 12-09-2024
Er is een hele grote performance winst behaalt met SM 3.0 bij Far Cry, want eerder hadden ze een 16/32 bit precision, maar nu door de SM 3.0 hebben ze full 32 bit precision. Die SM 3.0 maakt al die performance lose door die 32 bit precision goed en voegd er nog een klein beejte performance bij :)

EDIT: Xbitlabs heeft zijn review geupdate; ze hebben nu ook met FSAA en Anistropic aan getest:
The results of testing in “Eye-Candy” mode with full-scene antialiasing along with anisotropic filtering enabled tell us that the ATI RADEON X800 XT is more powerful option than the NVIDIA GeForce 6800 Ultra under intensive load. Nevertheless, the GeForce 6800 GT and the GeForce 6800 leave the RADEON X800 PRO along with the RADEON 9800 XT behind. Even though the speed advantage is not really big, it can be noticed and proves the thesis about superiority of NVIDIA’s $299 and $399 offerings in term’s of price/performance ratio for the FarCry game.

[ Voor 66% gewijzigd door SI4live op 04-07-2004 18:05 ]

http://www.swfemedia.com


Acties:
  • 0 Henk 'm!

Anoniem: 93354

epo schreef op 04 juli 2004 @ 17:21:
gaan we weer, er is iig een performancewinst met sm3.0 te halen ! de testen hebben dat al bewezen met Far Cry.
Dat weet ik wel, Ik bedoel alleen omdat ze zeggen dat ze er nu effecten in gaan stoppen die alleen voor nvidia kaarten beschikbaar zijn omdat die sm3 hebben maar eigelijk zou dat dus ook in sm2 moeten kunnen maar dat doen ze dus niet?

Acties:
  • 0 Henk 'm!

Anoniem: 90323

Voor degene die een 6800ultra gaan kopen......

Wat voor voeding kopen jullie erbij aangezien die nogal wat ampere gaat vreten.

info:
http://www.firingsquad.co...0_ultra_extreme/page3.asp

Het wattage blijkt niet uit maken maar het ampere op de 12v lijn....Dus ik vraag me af of mijn setup:

1. amd 64 3200
2. asus v9999
3. 1024 3200
4. 2hd 2dvd
5. msi neo
6. zalman 400 aps

Het allemaal wel stabiel gaat trekken..

advies graag.

Acties:
  • 0 Henk 'm!

  • BlowFish
  • Registratie: Maart 2004
  • Laatst online: 08:09
Anoniem: 90323 schreef op 04 juli 2004 @ 18:57:
Voor degene die een 6800ultra gaan kopen......

Wat voor voeding kopen jullie erbij aangezien die nogal wat ampere gaat vreten.

info:
http://www.firingsquad.co...0_ultra_extreme/page3.asp

Het wattage blijkt niet uit maken maar het ampere op de 12v lijn....Dus ik vraag me af of mijn setup:

1. amd 64 3200
2. asus v9999
3. 1024 3200
4. 2hd 2dvd
5. msi neo
6. zalman 400 aps

Het allemaal wel stabiel gaat trekken..

advies graag.
die zalman 400 is pretty solid hij zal het wel trekken

Acties:
  • 0 Henk 'm!

  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

Anoniem: 38733 schreef op 03 juli 2004 @ 18:42:
Krijgen we dalijk de situatie dat je 2 videokaarten nodig hebt om alle spellen in vol ornaat te mogen zien. :X Dat wordt een complete oorlog, daar zitten we niet op te wachten.
Kan wel leuk zijn. PCI-express en dan gewoon 2 kaarten in je PC proppen, een Ati en een nVidia. :)
Ik kan me de tijd herinneren dat je 2 geluidskaarten wilde hebben: Ultrasound en Soundblaster16, ging goed samen toen.

Acties:
  • 0 Henk 'm!

  • mennuz
  • Registratie: Juni 2002
  • Laatst online: 08-05 22:39
Snif, wat is die meuk duur allemaal. Zat te kijken naar wat ik allemaal zou kunnen en willen upgraden, en FLOEP, zo zat ik op 750 euro.Tis niet meer bij te houden allemaal

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

ja idd. Niks krijg je bij gehouden. maar ergens moet je de knoop doorhakken. Dat PCI express zie ik niet zo snel groeien als AGP. Evenals SLI. Ik denk nog wel dat het zeker 2 jaartjes duurt eer alles volledig ondersteund wordt.
Ik ga nu voor de V9999 (GT of Ultra) en kijk hoever ik daarmee kom het komend jaar (jaren).

Trouwens, hadden ze die V9999 bij Salland op voorraad? En wat kost die ?

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

Anoniem: 90323 schreef op 04 juli 2004 @ 18:57:
Voor degene die een 6800ultra gaan kopen......

Wat voor voeding kopen jullie erbij aangezien die nogal wat ampere gaat vreten.

info:
http://www.firingsquad.co...0_ultra_extreme/page3.asp

Het wattage blijkt niet uit maken maar het ampere op de 12v lijn....Dus ik vraag me af of mijn setup:

1. amd 64 3200
2. asus v9999
3. 1024 3200
4. 2hd 2dvd
5. msi neo
6. zalman 400 aps

Het allemaal wel stabiel gaat trekken..

advies graag.
Toevallig heb ik een soort gelijk systeempje (zie specs onderaan) Kep alleen maar 2 HDD, maar wel 7 casefans. Ik maakte me namelijk ook druk of het allemaal zou lukken. Als jij zorgt dat je gewoon 1 voedingslijn helemaal vrij houdt, dan kun je de rest verdelen over de 2 andere lijnen mbv splitters

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 90323

[quote]CJ schreef op 04 juli 2004 @ 16:58:
[...]


offtopic:
Ik weet niet wat voor conclusies jij er allemaal uit kan trekken. De enige conclusie die ik kan trekken is dat jij niet weet dat ATi een heel ander soort overeenkomst heeft gesloten met Microsoft voor de X-Box2 dan nVidia dat gedaan heeft voor de X-Box1.

ATi != nVidia

Dus de fouten die nVidia heeft gemaakt hoeven niet automatisch gemaakt te worden door ATi. Misschien is het handig om even de startpost van het grote ATi topic te lezen. ;)


En wat staat er dan wat ik blijkbaar mis?
Deathchant schreef op 04 juli 2004 @ 19:29:
ja idd. Niks krijg je bij gehouden. maar ergens moet je de knoop doorhakken. Dat PCI express zie ik niet zo snel groeien als AGP. Evenals SLI. Ik denk nog wel dat het zeker 2 jaartjes duurt eer alles volledig ondersteund wordt.
Ik ga nu voor de V9999 (GT of Ultra) en kijk hoever ik daarmee kom het komend jaar (jaren).

Trouwens, hadden ze die V9999 bij Salland op voorraad? En wat kost die ?
Ik gemailed en gebeld ze hebben nog niks op voorraad, Er is door asus zelf helemaal nergens nog wat geleverd mbt 6800.
Het zou een week duren ofzo. Maar ja je kent computerzaken wel dat duurt dus nog minimaal 3 weken.

[ Voor 38% gewijzigd door Anoniem: 90323 op 04-07-2004 19:39 ]


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

EDIT:

"The power requirements for the GeForce 6800 GT are considerably tamer than the Ultra board. NVIDIA hasn’t come up with a final wattage figure on the PSU, but since power requirements are similar to the 5900 Ultra, they claim a PSU in the 300-watt range should be sufficient for the 6800 GT"

ik heb nu een 5900Ultra en doet het perfect hier, dus de GT zou het ook perfect moeten doen. De 6800Ultra heeft ook maar 1 molex nodig (indien je gaat oc-en, moet je er 2 doen), dus ik denk wel dat een zalman 400w genoeg is

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 90323

[quote]Anoniem: 90323 schreef op 04 juli 2004 @ 19:35:
CJ schreef op 04 juli 2004 @ 16:58:
[...]


offtopic:
Ik weet niet wat voor conclusies jij er allemaal uit kan trekken. De enige conclusie die ik kan trekken is dat jij niet weet dat ATi een heel ander soort overeenkomst heeft gesloten met Microsoft voor de X-Box2 dan nVidia dat gedaan heeft voor de X-Box1.

ATi != nVidia

Dus de fouten die nVidia heeft gemaakt hoeven niet automatisch gemaakt te worden door ATi. Misschien is het handig om even de startpost van het grote ATi topic te lezen. ;)


En wat staat er dan wat ik blijkbaar mis?


[...]


Ik gemailed en gebeld ze hebben nog niks op voorraad, Er is door asus zelf helemaal nergens (in NL) nog wat geleverd mbt 6800.
Het zou een week duren ofzo. Maar ja je kent computerzaken wel dat duurt dus nog minimaal 3 weken.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

kep CT Systemen gebeld, zij hebben hem dinsdag

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • mennuz
  • Registratie: Juni 2002
  • Laatst online: 08-05 22:39
Mja, tis nu allemaal geforce 6800. Alleen what's up met de Geforce 6 series. Daar hoor ik nog niets over?

Acties:
  • 0 Henk 'm!

Anoniem: 90323

Mennuz schreef op 04 juli 2004 @ 19:56:
Mja, tis nu allemaal geforce 6800. Alleen what's up met de Geforce 6 series. Daar hoor ik nog niets over?
Uuuuhm er is niks anders????

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

de 6850Ultra (eerst dacht ik 6900Ultra) zal ook gemaakt worden. Verder schat ik dat het net zo gaat als bij de 5 series

6200-6600-6700 etc

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 90323

Deathchant schreef op 04 juli 2004 @ 20:17:
de 6850Ultra (eerst dacht ik 6900Ultra) zal ook gemaakt worden. Verder schat ik dat het net zo gaat als bij de 5 series

6200-6600-6700 etc
En daar horen we op dit moment dus nog niks over behalve de pci-e misschien als de 6850 een pci-e kaart is, er zijn dan wel wat mobo fabrikanten mee bezig maar ja, ik wil eerst harde bewijzen zien.

En bij die ct systemen heb je een preorder gedaan of ga je er langs?

[ Voor 8% gewijzigd door Anoniem: 90323 op 04-07-2004 20:36 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Mennuz schreef op 04 juli 2004 @ 19:56:
Mja, tis nu allemaal geforce 6800. Alleen what's up met de Geforce 6 series. Daar hoor ik nog niets over?
De Geforce 6800 serie = de Geforce 6 serie. :+

Acties:
  • 0 Henk 'm!

Anoniem: 2044

wat is die asus 6800GE nou? (gamers edition)
een iets snellere gewone 6800? of een GT met een andere naam?

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 2044 schreef op 04 juli 2004 @ 21:40:
wat is die asus 6800GE nou? (gamers edition)
een iets snellere gewone 6800? of een GT met een andere naam?
Een GT met een andere naam, een mooi blauw pcb en 2 molex aansluitingen.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

nee weet je wat die kosten? CT Systemen weet wel in te spelen op vraag/aanbod. Ze doen de GT tegen ultra prijzen verkopen (550) en de Ultra voor 600!!

Die laat ik dus helaas aan me voorbij gaan.

De V9999GE is de 6800GT met blauwe PCB en 2 connectors.
De V9999 gewone GT heeft 2 DVI's dacht ik

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 90323

1

[ Voor 100% gewijzigd door Anoniem: 90323 op 04-07-2004 23:45 ]


Acties:
  • 0 Henk 'm!

Anoniem: 90323

Anoniem: 90323 schreef op 04 juli 2004 @ 23:42:
Wat een sletten bij dat ct systemen. Dit hebben ze op hun site staan.

V9999ULTRADELUXE2D €599,00
http://www.asus.com/products/vga/v9999ultra/overview.htm

V9999GTDELUXE2DT25 564,99
http://www.asus.com/products/vga/v9999ge/overview.htm
Bij de foto op ct site staat een foto met groen PCB dus is geen asus ge

En er bestaat helemaal geen v9999 gt ultradeluxe. het is een v9999 ultradeluxe of v9999 (GE) gamers edition. Oftewel ze geven je misinformatie.

Op dit moment heb ik ff geen zin om verder uit te zoeken of de specs van de asus ge overeenkomen met de specs voor een nv40 GT.

En zoiezo vindt ik de benaming nep van ASUS, note the "ultra deluxe" wat suggereerd of het een nv40 "ultra extreme" moet voorstellen.

[ Voor 3% gewijzigd door Anoniem: 90323 op 04-07-2004 23:44 ]


Acties:
  • 0 Henk 'm!

Anoniem: 90323

en deathchant de v9999ge verkopen ze ergens anders voor 440 check, pricewatch

[ Voor 189% gewijzigd door Anoniem: 90323 op 04-07-2004 23:52 ]


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:05
Heeft al iemand al iets (al is het maar heel klein beetje) vernomen van mod mogelijkheden van de 6800 12pipes naar 16?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Sjah schreef op 04 juli 2004 @ 23:55:
Heeft al iemand al iets (al is het maar heel klein beetje) vernomen van mod mogelijkheden van de 6800 12pipes naar 16?
Er is al iemand die z'n 6800 geflashed hebben met de bios van de Ultra. Op zich ging dit goed, maar ik geloof dat het geheugen problemen gaf vanwege de 700 Mhz waarop-ie standaard loopt ten op zichte van de 1100 Mhz van de Ultra. De kaart weigerde teruggeklokt te worden naar 700 Mhz.

Terugflashen met de 6800 bios leek op het eerste gezicht goed te gaan (alles op goede kloksnelheden), maar na testen bleven er artifacts verschijnen. Na verdere controle bleek de kaart nog steeds 16 pipelines te hebben. De 6800U bios schijnt dus bepaalde dingen te herprogrammeren, iets wat de 6800 bios dus niet doet.

Maar aangezien de kaart nog steeds artifacts vertoonde in bepaalde tests (dus niet alle), gaat men er van uit dat die extra 4 pipelines dus half defect zijn. Sommige games deden het prima, andere games dus totaal niet.

En volgens velen is de kans op een succesvolle mod klein, aangezien nVidia meer slechte NV40 cores schijnt te hebben dan goede.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

Anoniem: 90323 schreef op 04 juli 2004 @ 23:45:
en deathchant de v9999ge verkopen ze ergens anders voor 440 check, pricewatch
CT-systemen heeft ze morgen.....bij al die anderen is geen levertijd bekend, vandaar dat ze zo duur zijn.

Er schijnen 2 GT's te zijn bij asus. de normale GT en de GamersEdition GT.
De normale GT schijnt 2 DVI's te hebben en 2 molexen...ik snap het niet meer

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 90323

Deathchant schreef op 05 juli 2004 @ 09:34:
[...]

CT-systemen heeft ze morgen.....bij al die anderen is geen levertijd bekend, vandaar dat ze zo duur zijn.

Er schijnen 2 GT's te zijn bij asus. de normale GT en de GamersEdition GT.
De normale GT schijnt 2 DVI's te hebben en 2 molexen...ik snap het niet meer
Als ik zo mijn links bekijk zie ik op de asus site bij de GE (=GT) 1 dvi 1 VGA en 2 molex. bij de ultra deluxe 1 dvi en 1vga (of 2vga met adapter) 2 molex.

http://www.firingsquad.co...force_6800_ultra_extreme/

Op de asus site zie ik zoiezo geen 2 versies van de GT. Er staan er maar 2 de v9999 ultra deluxe en v9999 GE(=GT)

[ Voor 4% gewijzigd door Anoniem: 90323 op 05-07-2004 10:01 ]


Acties:
  • 0 Henk 'm!

Anoniem: 90323

delete

[ Voor 98% gewijzigd door Anoniem: 90323 op 05-07-2004 09:55 ]


Acties:
  • 0 Henk 'm!

Anoniem: 114616

Is er al nieuws over de NV43?????

Ik weet niet of ik binnekort een geforce FX5900XT moet kopen of toch maar even wachten. Zakt de prijs als de NV43 er is?

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 29-04 23:32

edward2

Schieten op de beesten

En nog steeds geen 6800u in dit land, bij alternate kan je ze zelfs niet meer bestellen (teveel in de backorder?)

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 99613

Mensen, jullie zullen het vast al meegekregen hebben, maar nVidia heeft dus by CryTek doorgedrukt dat SM 3.0 tóch in Patch 1.2 komt (FarCry).. Dit heeft dus ernstige gevolgen voor alle mensen met ATi kaarten, omdat SM 3.0 gewoonweg niet ondersteund wordt, wat duidt op grafische misvorming in het spel.. Omdat de servers ook Patch 1.2 gaat draaien zijn alle ATi users dus ook verplicht om Shader Model 3.0 te gebruiken.. Dit betekend dus dat ATi mensen diep, maar dan ook zéééér diep in hun oor genaaid zijn.. Wat moeten wij hier nou van vinden, zou het een oorlogsverklaring van de kant van nVidia moeten zijn? (misschien dramatiseer ik nu alles, maar dit is toch wel heel erg laag..)

Acties:
  • 0 Henk 'm!

  • BlowFish
  • Registratie: Maart 2004
  • Laatst online: 08:09
Anoniem: 99613 schreef op 05 juli 2004 @ 16:18:
Mensen, jullie zullen het vast al meegekregen hebben, maar nVidia heeft dus by CryTek doorgedrukt dat SM 3.0 tóch in Patch 1.2 komt (FarCry).. Dit heeft dus ernstige gevolgen voor alle mensen met ATi kaarten, omdat SM 3.0 gewoonweg niet ondersteund wordt, wat duidt op grafische misvorming in het spel.. Omdat de servers ook Patch 1.2 gaat draaien zijn alle ATi users dus ook verplicht om Shader Model 3.0 te gebruiken.. Dit betekend dus dat ATi mensen diep, maar dan ook zéééér diep in hun oor genaaid zijn.. Wat moeten wij hier nou van vinden, zou het een oorlogsverklaring van de kant van nVidia moeten zijn? (misschien dramatiseer ik nu alles, maar dit is toch wel heel erg laag..)
het maakt voor de performance van een ati kaart niets uit, deze heeft geen SM3 dus die zal gewoon op SM2 draaien, performance gaat echt niet achteruit.

Acties:
  • 0 Henk 'm!

Anoniem: 99613

BlowFish schreef op 05 juli 2004 @ 16:21:
[...]
het maakt voor de performance van een ati kaart niets uit, deze heeft geen SM3 dus die zal gewoon op SM2 draaien, performance gaat echt niet achteruit.
Neeh, voor de performance niet.. Maar omdat er dus ook SM3 commands zullen worden doorgestuurd (misschien zijn dat er niet heel veel, maar toch), krijgen mensen met een ATi kaart dus last van "artifacts".

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
BlowFish schreef op 05 juli 2004 @ 16:21:
[...]


het maakt voor de performance van een ati kaart niets uit, deze heeft geen SM3 dus die zal gewoon op SM2 draaien, performance gaat echt niet achteruit.
Dan zou ik nog maar eens goed naar de recente tests kijken. Patch 1.2 vermindert namelijk performance op ATi kaarten, varierend van zo'n 2 tot zelfs 10 fps. Tel daarbij op textures die opeens niet goed worden gerenderd... en Cry Tek heeft de eerste nagel op de doodskist gezet van Far Cry.

Alleen bezitters van een GF6-serie kaart hebben voordelen van deze patch, en die zijn zeker in de minderheid (misschien nog niet eens duizend man/vrouw?), terwijl er honderdduizenden mensen een Radeon hebben die nu dus bagger draait dankzij deze patch. Ook voor online play heeft dit gevolgen. Als straks servers gebruik maken van de 1.2 patch dan zal je een leegloop zien, omdat mensen met ATi kaarten de patch niet installeren vanwege slechtere performance en screencorruption.

Cry Tek probeert nu een beetje het leed te verzachten door aan te kondigen dat patch 1.3 ook 3Dc gaat ondersteunen en dat daar ook performancewinst valt te winnen. Maar als 1.2 echt een goede patch was geweest, dan waren zowel de IQ als de performance gelijk gebleven op niet-nV-kaarten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • BlowFish
  • Registratie: Maart 2004
  • Laatst online: 08:09
CJ schreef op 05 juli 2004 @ 16:36:
[...]


Dan zou ik nog maar eens goed naar de recente tests kijken. Patch 1.2 vermindert namelijk performance op ATi kaarten, varierend van zo'n 2 tot zelfs 10 fps. Tel daarbij op textures die opeens niet goed worden gerenderd... en Cry Tek heeft de eerste nagel op de doodskist gezet van Far Cry.

Alleen bezitters van een GF6-serie kaart hebben voordelen van deze patch, en die zijn zeker in de minderheid (misschien nog niet eens duizend man/vrouw?), terwijl er honderdduizenden mensen een Radeon hebben die nu dus bagger draait dankzij deze patch. Ook voor online play heeft dit gevolgen. Als straks servers gebruik maken van de 1.2 patch dan zal je een leegloop zien, omdat mensen met ATi kaarten de patch niet installeren vanwege slechtere performance en screencorruption.

Cry Tek probeert nu een beetje het leed te verzachten door aan te kondigen dat patch 1.3 ook 3Dc gaat ondersteunen en dat daar ook performancewinst valt te winnen. Maar als 1.2 echt een goede patch was geweest, dan waren zowel de IQ als de performance gelijk gebleven op niet-nV-kaarten.
hmm best triest in dat geval hadden ze wel rekening mee mogen houden,

btw salland krijgt morgen 4 XFX 6800 GT kaarten binnen! ik heb er al een besteld :P dus zijn er nog 3 wees snel ;)

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Anoniem: 99613 schreef op 05 juli 2004 @ 16:23:
[...]


Neeh, voor de performance niet.. Maar omdat er dus ook SM3 commands zullen worden doorgestuurd (misschien zijn dat er niet heel veel, maar toch), krijgen mensen met een ATi kaart dus last van "artifacts".
Problemen op ATi worden veroorzaakt door bugs in het SM2-path van Far Cry. Dat heeft verder niets te maken met het feit dat het spel ook een SM3-path ondersteunt op kaarten die dat aankunnen.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Anoniem: 93354

Owja dus eerst was er niks aan de hand en nu is de 1.2 patch er en dan is er ''opeens'' een bug in het sm2 path.

Acties:
  • 0 Henk 'm!

Anoniem: 38733

lol, wou net zeggen...


Maaruh, nieuws van Crytek; Ati's texture corruptie's die afgelopen dagen tevoorschijn kwamen in patch 1.2 zijn opgelost.

[ Voor 110% gewijzigd door Anoniem: 38733 op 05-07-2004 17:34 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08-05 18:48
Anoniem: 93354 schreef op 05 juli 2004 @ 17:22:
Owja dus eerst was er niks aan de hand en nu is de 1.2 patch er en dan is er ''opeens'' een bug in het sm2 path.
Yep. En als de verwachtingen kloppen dan gebeurt er ook zoiets in HL2 maar dan andersom. Anders kom je nooit aan 40% verschil in snelheid.
Ati en nvidia moeten echt eens ff gezamelijk afspraken gaan maken want dit gaat echt de verkeerde kant op.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Anoniem: 93354 schreef op 05 juli 2004 @ 17:22:
Owja dus eerst was er niks aan de hand en nu is de 1.2 patch er en dan is er ''opeens'' een bug in het sm2 path.
De achtergronden van het ontstaan van deze problemen op SM2-kaarten laat ik verder in het midden. Maar de artifacten onstaan natuurlijk niet door rondvliegende SM3-commands op SM2-kaarten, zoals de post waar ik op reageerde beweerde.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Ati en nvidia moeten echt eens ff gezamelijk afspraken gaan maken want dit gaat echt de verkeerde kant op.
Heel simpel; hou je aan de norm van de huidige DirectX, en daarin zit geen ondersteuning voor SM3.0. Over 2 maanden pas komt WinXP service pack 2 met de nieuwe DirectX 9.0c.
Maar goed, Nv wilde koste wat het kost die patch er doorheen jagen want de FarCry performance was niet al te best in SM2.0 vergeleken met Ati.

[ Voor 9% gewijzigd door Anoniem: 38733 op 05-07-2004 17:38 ]


Acties:
  • 0 Henk 'm!

  • Refragmental
  • Registratie: Oktober 2000
  • Laatst online: 04-05 10:32
Hoe zit het dan met de "oude" SM2.0 kaarten van Nvidia?
Gaat daar de performance ook dan flink omlaag?

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:05
CJ schreef op 05 juli 2004 @ 02:42:
[...]

Maar aangezien de kaart nog steeds artifacts vertoonde in bepaalde tests (dus niet alle), gaat men er van uit dat die extra 4 pipelines dus half defect zijn. Sommige games deden het prima, andere games dus totaal niet.

En volgens velen is de kans op een succesvolle mod klein, aangezien nVidia meer slechte NV40 cores schijnt te hebben dan goede.
Die conclusie laat ik voor jou rekening, best kans dat het aantal goeie cores binnen paar maanden stuk beter zal zijn. Maar wat ik begrijp is er nog amper mee geexperimenteerd, maar het zou dus kunnen met enkel een bios upgrade... (een aangepaste bios met 700mhz mem bijv.?) Nouja zo boeiend is het nou ook weer niet, de 6800 zijn echte probleem ligt bij de Mem-snelheid en niet zozeer bij "maar" 12 pipes.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Anoniem: 38733 schreef op 05 juli 2004 @ 17:37:
[...]


Heel simpel; hou je aan de norm van de huidige DirectX, en daarin zit geen ondersteuning voor SM3.0.
Maar goed, Nv wilde koste wat het kost die patch er doorheen jagen want de FarCry performance was niet al te best in SM2.0 vergeleken met Ati.
Het lijkt mij juist heel gezond dat de fabrikanten elkaar de loef af trachten te steken met nieuwe uitbreidingen, en als die dan compatibel zijn met/de basis zijn van een volgende DirectX specificatie, des te beter. 3DC wordt toch ook niet gespecificeerd in de huidige DirectX, moet ATi dat dan maar weglaten?

Dat verhindert niet dat ze tegelijkertijd wel kunnen voldoen aan de huidige specificatie. Voor zover ik weet is de huidige generatie van beide fabrikanten volkomen DX9(-b) conform.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Legion schreef op 05 juli 2004 @ 17:39:
Hoe zit het dan met de "oude" SM2.0 kaarten van Nvidia?
Gaat daar de performance ook dan flink omlaag?
Niet noodzakelijkerwijs, aangezien die sowieso al een eigen NV30 path draaien wat niet hetzelfde is als wat de ATi kaarten gebruiken.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Anoniem: 38733

3DC wordt toch ook niet gespecificeerd in de huidige DirectX, moet ATi dat dan maar weglaten?
De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is. Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje. Maar goed, het probleem lijkt al opgelost te zijn.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Anoniem: 38733 schreef op 05 juli 2004 @ 17:53:
[...]


De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is.
De SM3-ondersteuning van Far Cry werkt dan ook alleen met DX9c, wat overigens niet al te lang meer op zich zal laten wachten.
Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje.
Tja ik zou zelf eigenlijk niet al te veel conclusies durven trekken uit hetgeen wat een beta patch doet op een OS met een beta service pack met beta videodrivers...
Maar goed, het probleem lijkt al opgelost te zijn.
Mooi :)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Anoniem: 93354

Legion schreef op 05 juli 2004 @ 17:39:
Hoe zit het dan met de "oude" SM2.0 kaarten van Nvidia?
Gaat daar de performance ook dan flink omlaag?
sm2 en de oude nvidia kaarten is net zoiets als proberen een ferrarie er op je fiets uit te blazen ;)

ff serieus, de oude kaarten van nvidia lopen op een speciaal path wat geen sm2 gebruikt (dus eigelijk rendert fc het spel net zoals het met bv een gf4ti zou doen).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 38733 schreef op 05 juli 2004 @ 17:53:
[...]


De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is. Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje. Maar goed, het probleem lijkt al opgelost te zijn.
Iedereen kan SP2 RC2 incl dX9.0C gewoon downloaden en installeren dus wat maak je je druk? Bij mij werkt het prima en ik hoor van anderen ook weinig klachten.
Het is pas een probleem als de patch officieel uitgebracht wordt terwijl tests met de RTM patch uitgewezen hebben dat ATI bezitters slechte(re) IQ hebben.

Verder is die hele 1.2 patch dus nog niet eens uit maar er worden weer allemaal voorbarige conclusies getrokken. Wie zegt dat Crytek die patch released als ATI kaarten m.n. IQ problemen hebben?

Daarnaast, de ATI fanboys vinden het geweldig dat HL2 supposedly veel sneller zou draaien op ATI kaarten. Hoe kan dat? Misschien ook omdat Gabe voor ATI optimaliseert.
Alleen heb ik geen ATI adept gehoord dat dat misschien niet helemaal eerlijk is voor al die nVidia bezitters out there.

Meten met twee maten. Anyone?

Ja Crytek is een TWIMTBP spel (ofzoiets) dus nVidia zal zeker alles op alles zetten om hun architectuur optimaal ondersteund te krijgen. Dat lijkt me logisch en ATI doet precies hetzelfde.

Het is aan de developers om ervoor te zorgen dat het geld van ATI of nVidia hen er niet toe dwingt om een vd twee te cripplen. Dat kan een probleem worden maar voorlopig is dat nog niet bewezen.

Ik geloof er alleen niks van dat Crytek een patch zal gaan lanceren waarbij de ATI bezitters corrupte IQ hebben enzovoorts. Daarmee snijden ze alleen zichzelf in de vingers want hoeveel mensen hebben wel niet een ATI.

Verder heb ik er geen problemen mee hoor als gamedevelopers zsm de nieuwste features in hun spel proberen te ondersteunen. Of het nou 3DC is of SM3 hoe eerder hoe beter.

[ Voor 13% gewijzigd door Help!!!! op 05-07-2004 19:02 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 93354

hl2 en ati is een ander verhaal. hl2 is opzich helemaal dx9 het enige wat erin zit is 3dc maar dat is een open standaart dus dat zou nvidia ook kunnen gebruiken als ze zouden willen. Bij die patch van farcry zag je gewoon dat het niet helemaal goedzat. Gelukkig heeft crytech het snel opgelost.

Acties:
  • 0 Henk 'm!

Anoniem: 2044

BlowFish schreef op 05 juli 2004 @ 17:09:
[...]


hmm best triest in dat geval hadden ze wel rekening mee mogen houden,

btw salland krijgt morgen 4 XFX 6800 GT kaarten binnen! ik heb er al een besteld :P dus zijn er nog 3 wees snel ;)
Heb je ook de review van de XFX gelezen?? Dat dit merk wel de aller aller luidruchtigste koeler heeft van allemaal?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 93354 schreef op 05 juli 2004 @ 19:25:
Bij die patch van farcry zag je gewoon dat het niet helemaal goedzat. Gelukkig heeft crytech het snel opgelost.
Dat klopt dat het niet goed zat in een betapatch en het is, wat ik ervan hoor, idd gelukkig opgelost. :)

Alleen jammer dat er zovelen gelijk weer allemaal conclusies trekken dat Crytek dit expres doet omdat ze geld van nVidia krijgen.

Wat mij betreft wordt er weer veel te vroeg "gehuild" :+ .


ps:
HL2 zal ongetwijveld geheel Dx9 zijn. Maar wie heeft de code van HL2 bekeken? Wie zegt mij dat het echt zo is. Omdat Gabe het zegt? Call me paranoia maar Gabe kan zoveel zeggen. Wie zegt mij dat Valve niet in de eerste plaats bezig is om iets te programmeren dat vooral goed werkt op ATI omdat ze geld krijgen van ATI. :o

Al zou het zo zijn dat Valve strikt volgens de dX9 richtlijnen programmeert dan nog kun je je afvragen hoe "ethisch" dat zou zijn. Miljoenen mensen op de wereld hebben een nVidia en willen ook van HL2 genieten.
Dit is gewoon een dilemma. Als gamedeveloper programeer je voor je fans en buyers ongeacht hun videokaart.

Als je als developer besluit om strikt 9.0 te programmeren terwijl je weet dat er enorm veel kaarten zijn die met dat pad niet helemaal perfekt lopen , ben je dan goed bezig? Ik weet het niet.

[ Voor 8% gewijzigd door Help!!!! op 05-07-2004 19:41 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • pasta
  • Registratie: September 2002
  • Laatst online: 12-01 14:16

pasta

Ondertitel

Help!!!! schreef op 05 juli 2004 @ 19:38:
[...]

Dat klopt en het is, wat ik ervan hoor, idd gelukkig opgelost.

Alleen jammer dat er zovelen gelijk weer allemaal conclusies trekken dat Crytek dit expres doet omdat ze geld van nVidia krijgen.

Wat mij betreft wordt er weer veel te vroeg "gehuild" :+ .


ps:
HL2 zal ongetwijveld geheel Dx9 zijn. Maar wie heeft de code van HL2 bekeken? Wie zegt mij dat het echt zo is. Omdat Gabe het zegt? Call me paranoia maar Gabe kan zoveel zeggen. Wie zegt mij dat Valve niet in de eerste plaats bezig is om iets te programmeren dat vooral goed werkt op ATI omdat ze geld krijgen van ATI. :o

Al zou het zo zijn dat Valve strikt volgens de dX9 richtlijnen programmeert dan nog kun je je afvragen hoe "ethisch" dat zou zijn. Miljoenen mensen op de wereld hebben een nVidia en willen ook van HL2 genieten.
Dit is gewoon een dilemma. Als gamedeveloper programeer je voor je fans en buyers ongeacht hun videokaart.

Als je als developer besluit om strikt 9.0 te programmeren terwijl je weet dat er enorm veel kaarten zijn die met dat pad niet helemaal perfekt lopen , ben je dan goed bezig? Ik weet het niet.
Tja, vergelijk die situatie met de miljoenen website bouwers die voornamelijk hun site voor IE bouwen, en de sites die dan conform de W3 standaard worden gebouwd, zien er niet goed uit in IE omdat MS hun eigen regels er op nahoudt.

Ik heb liever dat HL2 of andere spellen zich aan een (vooraf) bepaalde standaard houden dan dat ze het zelf interpreteren zoals het willen (of hoe een bepaalde videokaart fabrikant het wil). Met andere woorden kies ik dus liever voor een bedrijf dat de standaarden volgt dan een eigen standaard verzint en vervolgens daar op doorgaat (tot in zekere mate, eigen engines en zo mogen van mij zeker ontwikkeld blijven worden, het is alleen dat het volgens een bepaalde architectuur moet lopen die bij de verschillende videokaartfabrikanten ook strict gevolgd worden).

Signature


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

pastapappie.NET schreef op 05 juli 2004 @ 19:43:
[...]

Tja, vergelijk die situatie met de miljoenen website bouwers die voornamelijk hun site voor IE bouwen, en de sites die dan conform de W3 standaard worden gebouwd, zien er niet goed uit in IE omdat MS hun eigen regels er op nahoudt.

Ik heb liever dat HL2 of andere spellen zich aan een (vooraf) bepaalde standaard houden dan dat ze het zelf interpreteren zoals het willen (of hoe een bepaalde videokaart fabrikant het wil). Met andere woorden kies ik dus liever voor een bedrijf dat de standaarden volgt dan een eigen standaard verzint en vervolgens daar op doorgaat (tot in zekere mate, eigen engines en zo mogen van mij zeker ontwikkeld blijven worden, het is alleen dat het volgens een bepaalde architectuur moet lopen die bij de verschillende videokaartfabrikanten ook strict gevolgd worden).
Tja, ;) dat heb ik ook liever maar het feit ligt er dat dit niet de realiteit is. In the end is er maar een zeeeeer klein gedeelte van de kopers van videokaarten die zich uberhaupt bewust is van deze dingen en moet je als gamedeveloper deze mensen dan in de kou laten staan terwijl zij wel jouw game kopen??

Dat is het dilemma voor de developer.

Ik vind dat je als developer dan geen keus hebt en voor beide kaarten moet programmeren hoe inefficient dat ook is.

PS:
Ook hier http://graphics.tomshardware.com/graphic/20040705/index.html Farcry 1.2 onder de loep.

[ Voor 6% gewijzigd door Help!!!! op 05-07-2004 20:18 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Help!!!! schreef op 05 juli 2004 @ 19:52:
[...]
Ik vind dat je als developer dan geen keus hebt en voor beide kaarten moet programmeren hoe inefficient dat ook is.
Met als gevolg dat het developen van een game soms 2x zo lang duurt... zie ook HL2 waar 5x meer tijd besteed werd aan het optimaliseren voor nV FX hardware t.o.v. ATi hardware om het goed te laten lopen... dat was niet nodig geweest als nV zich gewoon aan de DX standaard had gehouden. Of denk aan Doom3. Hoeveel kostbare tijd is er wel niet verspild aan het FX pad, omdat FX hardware niet goed overweg kon met het standaard ARB2 pad? En nu is het ook nog eens geschrapt... echt zonde van de tijd gewoon. B)

En dat heeft allemaal weer tot gevolg dat de hardware steeds verder op de software vooruit komt te lopen. Nog meer zelfs dan we nu al doen. Nee dank je. Doe mij dan maar één standaard pad. (8>

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

CJ schreef op 05 juli 2004 @ 20:19:
[...]


Met als gevolg dat het developen van een game soms 2x zo lang duurt... zie ook HL2 waar 5x meer tijd besteed werd aan het optimaliseren voor nV FX hardware t.o.v. ATi hardware om het goed te laten lopen... dat was niet nodig geweest als nV zich gewoon aan de DX standaard had gehouden. Of denk aan Doom3. Hoeveel kostbare tijd is er wel niet verspild aan het FX pad, omdat FX hardware niet goed overweg kon met het standaard ARB2 pad? En nu is het ook nog eens geschrapt... echt zonde van de tijd gewoon. B)

En dat heeft allemaal weer tot gevolg dat de hardware steeds verder op de software vooruit komt te lopen. Nog meer zelfs dan we nu al doen. Nee dank je. Doe mij dan maar één standaard pad. (8>
Kan jij makkelijk zeggen want je hebt een ATI.... :Y) maar als alle developers dat zouden doen dan ben je wel mooi de L@L als nVidia owner. En dat zijn er nogal wat.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Als ik een nV bezitter was met bijvoorbeeld een FX5950U dan zou ik ook behoorlijk pissig zijn hoor. :) Het is toch jammer dat er een hele nieuwe serie kaarten nodig is om de fouten weer goed te maken? Ondertussen zitten wel duizenden mensen 'opgescheept' met hun FX kaart die door nieuwere games als DX8.1 kaart wordt behandeld.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 14:34

epo

CJ schreef op 05 juli 2004 @ 20:43:
Als ik een nV bezitter was met bijvoorbeeld een FX5950U dan zou ik ook behoorlijk pissig zijn hoor. :) Het is toch jammer dat er een hele nieuwe serie kaarten nodig is om de fouten weer goed te maken? Ondertussen zitten wel duizenden mensen 'opgescheept' met hun FX kaart die door nieuwere games als DX8.1 kaart wordt behandeld.
Ach ja, niks mis met een 5950U, dat is een betere kaart dan de kaart die ik heb nl : :een 9800PRO met gratis brakke ATI drivers. Overigens zijn beide kaarten toch te traag om echte dx9 features in hoge resoluties met aa en af te spelen.

ps. Zullen weer lekker positief over Nvidia praten ? het is tenslotte een Nvidia topic en geen ATI topic >:)

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Lol, als Ati bezitter kan je beter je flashlight in FarCry uit laten staan :9 , quote van THG:
Turning the flashlight on costs the GeForce 6800 Ultra much less performance (9%) than the X800 XT PE (18%).
Afbeeldingslocatie: http://img28.photobucket.com/albums/v85/tyranium/flashlight.gif
(Lichtgroen is SM3, donkergroen is SM2.)

[ Voor 8% gewijzigd door Tyranium op 05-07-2004 23:08 ]


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 14:34

epo

LOL

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Nu online
Dat met de flashlight geeft duidelijk aan waar de 6800 en x800 beter/slechter in zijn. De 6800 heeft stukken minder moeite met shaders, maar kan ruwe pixels niet zo snel verwerken als de x800, waarschijnlijk omdat de 6800 ruim 20% langzamer loopt dan de x800.
En als ik naar de next-gen games kijk, zie ik veel shaders... :)

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

ach wat, zowel de 6800Ultra en de X800XT zijn beide goeie kaarten. Ik vind dat er veel gekeken wordt naar de FPS, wat is het verschil nou tussen 80 of 85 FPS? NIKS.
Laten we eerst maar eens wachten totdat ze echt uit zijn. ik ga niet meer van die benchies uit.

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Nu online
Ik doelde meer op de GT en Pro. Het zijn inderdaad allemaal goede kaarten, maar wachten tot ze uit zijn is erg moeilijk, want ze zijn zo'n beetje uit. :) De reviews die je nu ziet zijn 99,9% gelijk aan die van de uit-zijn-reviews. Het enige verschil zal 'm in de drivers en out-of-the-box-overclock zitten.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
epo schreef op 05 juli 2004 @ 21:19:
[...]


Ach ja, niks mis met een 5950U, dat is een betere kaart dan de kaart die ik heb nl : :een 9800PRO met gratis brakke ATI drivers. Overigens zijn beide kaarten toch te traag om echte dx9 features in hoge resoluties met aa en af te spelen.
Heb je de scores gezien van de FX5950U in Far Cry in de laatste review van Tom's Hardware? :X Het komt vaak voor dat de FX5950U meer dan 50% trager is dan de 9800XT. Dus die 9800Pro van je zal er ook wel met redelijk gemak over heen gaan denk ik. ;)

http://graphics.tomshardw...ry-05.html#level_research

En daarom vind ik het zo sneu dat de FX5950U bezitters er nu zo bekaaid van af komen.

[ Voor 7% gewijzigd door CJ op 06-07-2004 01:38 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08-05 18:48
Ik vind de hele sm.3 3dc discussie nu wel erg hoog oplopen. Er wordt nvidia van alles en nog wat beschuldigd over het probleem dat de ati kaartjes nu hebben met far cry. Gaat dit niet veels te ver en in hoeverre is het nou eigenlijk wel de schuld van nvidia.

Voor de 6800 is het een goed teken dat sm.3 meer snelheid laat zien in far cry laat toch wel zien dat die kaart zeker wel snel is in de nieuwste games.
Het is natuurlijk niet de bedoeling dat ati kaarten hier op achteruit gaan maar is die patch 1.2 nou al af of was het een beta test?? Als ie beta was snap ik de hele discussie niet.

Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?
Als dit idd geen dx standaard is is het eigenlijk complete onzin om deze te ondersteunen. (nogmaals als ie wel dx9 is neem ik dit terug)
Nvidia heeft het voortouw genomen door sm3 te ondersteunen en ati niet ( net zoiets als de fx geen volledige dx9 is) en dan is volgens mij logsch dat nvidia hiervan profijt heeft in snelheid. Dit is een keuze die ati ook had kunnen maken en valt niemand te verwijten behalve de gene die er voor kiest het niet te nemen als de ander het wel doet.

Verder wil ik even verzoeken (geen flame maar wil dat dit topic blijft bestaan) dat bv mensen zoals b3n666 en apple ff wat rustig gaan doen. Volgens mij is het voor jullie een spel om een flame war te beginnen ofzo (sommige hier doen dat ook). En mij is het ondertussen wel duidelijk dat jullie voorkeur ati is, maar doe dit dan aub in het ati topic. Dit is geen flame maar een vriendelijk verzoek doe ermee wat jullie willen.

Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-03 22:01

swampy

Coconut + Swallow = ?

@sjek

"Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?"

PS3.0 zit toch ook niet in DX9? Dus waarom zou Farcry PS3.0 moeten gaan ondersteunen.....

mmmmm

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
sjek schreef op 06 juli 2004 @ 01:41:
Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?
Als dit idd geen dx standaard is is het eigenlijk complete onzin om deze te ondersteunen. (nogmaals als ie wel dx9 is neem ik dit terug)
[eigenlijk offtopic]
3Dc zit niet in rechtstreekse vorm in DX9. 3Dc is een manier van texture compressie waardoor er een stuk minder geheugen verbruikt wordt. Zie het als een soort van middel om een doel te bereiken. Elke IHV heeft verschillende middelen om hun doel te bereiken; zo verschillen de FSAA en AF algoritmes van beide IHVs, terwijl de output (zo goed als) identiek is. De een is echter net wat sneller in FSAA, terwijl de ander misschien sneller is in AF. Maar hoe men precies AA en AF moet toepassen staat niet exact gedefinieerd in de DX9 standaard. Daar zijn de IHVs vrij in om er hun eigen methodes voor te verzinnen.

Zo is 3Dc een methode/middel om snelheid te winnen wanneer er gebruik wordt gemaakt van normal maps, zonder dat de IQ omlaag gaat. Of in het omgekeerde geval, om tot 4x zo veel detail toe te voegen zonder dat er meer geheugen benodigd is en zonder de performance te beinvloeden.

Tot voor kort waren er nog geen goede methodes om met normalmap compressie om te gaan, aangezien de standaard DXTC voor artifacts/blokkerigheid kan zorgen. Dus is men op zoek gegaan naar een compressiemethode die wel goed werkt met normal maps. Resultaat: 3Dc.

Normal maps worden in nieuwe games zeer intensief gebruikt, zie Far Cry, Doom 3, Serious Sam 2, Half Life 2 etc. En dit nieuwe techniekje kan dus voor een leuke performanceboost zorgen, terwijl het ook nog eens heel gemakkelijk is te implementeren. De tools zijn zelfs al voor devs beschikbaar.

Gamedevs willen natuurlijk dat hun game er zo mooi mogelijk uit ziet dan wel zeer snel loopt. En Cry Tek realiseert zich natuurlijk ook dondersgoed dat ATi inmiddels een stevige positie heeft en wil die fanbase waarschijnlijk niet teleurstellen. Dus stoppen ze ook 3Dc in de game, aangezien die zich er toch al goed voor leent door het hoge normalmap gehalte.

ATi wil natuurlijk niets liever dan 3Dc als "standaard" voor normalmapcompressie in DX te krijgen, en om dit zo gemakkelijk mogelijk te maken hebben ze gekozen voor een open standaard. Het staat nVidia, S3, XGI, Matrox etc dus vrij om dit kosteloos te integreren in hun hardware. En toevallig is het ontwikkeld door drie mensen die ook verantwoordelijk zijn voor S3TC texture compression, wat later in DirectX is verschenen als DXTC. Dus het zou me niets verbazen als we 3Dc in een volgende versie of revisie van DX gaan zien, dan wel in X-Box2.[/ eigenlijk offtopic]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Tussen al het geneuzel over SM3.0 en 3Dc in Far Cry zouden we haast vergeten dat er ook een versie van Far Cry onderweg is geoptimaliseerd voor AMD 64 bit. Ik denk dat dit nog veel interessanter is eigenlijk. :P
FiringSquad: In addition to SM 3.0, Far Cry will also be patched to take advantage of AMD’s 64-bit architecture in the future – what changes are you implementing in the 64-bit version of Far Cry?

Cevat Yerli: We’ve done it mainly for content development creators and mod creators, there will be huge benefits from it. For the gameplay it will be more beneficial to the environment, you will have some specific content for 64-bit. There will be a 64-bit version of Far Cry, a separate one eventually. That will be essentially content-wise slightly improved over the 32-bit version but it’s not something which, I mean people with the 32-bit version can still compare to the 64-bit version, but it’s optimized for the 64-bit experience. And the user of course will benefit from the 64-bit CPU architecture, which is more registers, better memory controller, but also more addressable memory.

FiringSquad: Will it look any better, or are you just going to use 64-bit to enhance performance?

Cevat Yerli: Well you will have a better experience, not necessarily “the look”; well you will have more environmental objects. If you consider that a better “look”, then yes, but the experience will be better because more things will be happening on screen.

Acties:
  • 0 Henk 'm!

  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

nVidia GeForce 6800 SLI breekt 20K.

Afbeeldingslocatie: http://www.tweakers.net/ext/f/36263/full.jpg

Afbeeldingslocatie: http://www.tweakers.net/ext/f/36264/full.jpg
Afbeeldingslocatie: http://www.tweakers.net/ext/f/36265/full.jpg

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

swampy schreef op 06 juli 2004 @ 02:17:
@sjek

"Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?"

PS3.0 zit toch ook niet in DX9? Dus waarom zou Farcry PS3.0 moeten gaan ondersteunen.....

mmmmm
Tuurlijk zit PS3.0 wel in DX9c. Net zoals PS2.0 in DX9b zit. De fout die Nvidia maakte door niet volledig PS2.0 te ondersteunen, maakt misschien Ati nu ook wel door geen PS3.0 te ondersteunen.
Ik zeg ook nadrukkelijk misschien want een performance winst in nog maar 1 game vind ik toch te weinig om me volledige conclusie te trekken.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Ik denk dat het nog wel mee zal vallen met de schade. We moeten niet vergeten dat DX9.0c naast SM3.0 ook SM2.0b met zich mee brengt die speciaal voor X800 kaarten is. Dat zit er ook niet voor niets in.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Ik zeg ook nadrukkelijk misschien want een performance winst in nog maar 1 game vind ik toch te weinig om me volledige conclusie te trekken.
Waar ik nou werkelijk benieuwd naar ben is of de sm3.0 performance in de échte Far Cry game nou ook zo "jaw dropping" is, ik bedoel hiermee dat de reviews die we tot nu toe gelezen hebben 4 demo levels bevatten die door Nv aangereikt zijn, en dus niet in het werkelijke spel voorkomen. ;) Enkel Anand heeft naast die demo levels 2 werkelijk in het spel voorkomende levels getest met daarop de losgelaten 1.2 patch, te weten Mangoriver en Airstrip. En wat zien we hier; een winst van één frame als een 6800 het SM3.0 pad bewandelt i.p.v. het 2.0 pad.. :/

Airstrip: http://www.anandtech.com/video/showdoc.aspx?i=2102&p=5

Mangoriver: http://www.anandtech.com/video/showdoc.aspx?i=2102&p=6

Als de patch eenmaal in omloop is zullen we vast wel reviews/benches te zien krijgen over wat SM3.0 nu in de praktijk brengt, en niet op demo levels van Nv.

(Dezelfde "marketing" krijgen we in de toekomst natuurlijk ook te zien als Ati met 3Dc demo's aan komt kakken, je krijgt dan een veel rooskleuriger beeld voorgeschoteld als dat het in de praktijk op zal leveren. Ik zeg dit even omdat ik niet flamerig over wil komen :) )

[ Voor 17% gewijzigd door Anoniem: 38733 op 06-07-2004 09:45 ]


Acties:
  • 0 Henk 'm!

Anoniem: 93354

sjek schreef op 06 juli 2004 @ 01:41:
Verder wil ik even verzoeken (geen flame maar wil dat dit topic blijft bestaan) dat bv mensen zoals b3n666 en apple ff wat rustig gaan doen. Volgens mij is het voor jullie een spel om een flame war te beginnen ofzo (sommige hier doen dat ook). En mij is het ondertussen wel duidelijk dat jullie voorkeur ati is, maar doe dit dan aub in het ati topic. Dit is geen flame maar een vriendelijk verzoek doe ermee wat jullie willen.
Uhm oke... Wat flame ik nou weer? Ik heb al 6x gezegd dat Nvidia atm een betere keus is. Ik zal vast wel wat minder leuke dingen over Nv gezegd hebben maar volgens mij nooit zonder het ook te onderbouwen (en dat is dus geen flamen, dat heet een onderbouwde mening geven). En zelf ben je geloof ik ook niet altijd even objectief? Maargoed zoals ik al 10x heb gezegd boeit het merk mij niet, de enige reden dat ik liever had gezien dat ati sneller was is omdat ik dan geen niew gpu blok voor me wc had hoeven kopen (nee ik heb idd geen geld over).

Anyway, Is het al bekend wanneer er voldoende GT kaarten zijn overal?

Acties:
  • 0 Henk 'm!

  • SmokeyTheBandit
  • Registratie: November 2000
  • Laatst online: 25-03 15:40

SmokeyTheBandit

DOCer met Pensioen

Anoniem: 93354 schreef op 06 juli 2004 @ 09:49:
[...]


Uhm oke... Wat flame ik nou weer? Ik heb al 6x gezegd dat Nvidia atm een betere keus is. Ik zal vast wel wat minder leuke dingen over Nv gezegd hebben maar volgens mij nooit zonder het ook te onderbouwen (en dat is dus geen flamen, dat heet een onderbouwde mening geven). En zelf ben je geloof ik ook niet altijd even objectief? Maargoed zoals ik al 10x heb gezegd boeit het merk mij niet, de enige reden dat ik liever had gezien dat ati sneller was is omdat ik dan geen niew gpu blok voor me wc had hoeven kopen (nee ik heb idd geen geld over).

Anyway, Is het al bekend wanneer er voldoende GT kaarten zijn overal?
Nou het is echt heel erg gesteld daarmee.
Het lijkt erop dat de GTs eerder leverbaar worden als de Ultras terwijl het precies andersom had moeten zijn .... 8)7

Turn it off and on again.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

waar blijven eigenlijk de mid- en low-end kaarten van nvidia? :? Ati heeft de X600 en de X300 al...

Acties:
  • 0 Henk 'm!

Anoniem: 114616

De x600 is nou niet echt heel vernieuwend.

krijgen de low-mid ook sm3.0?

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Nu online
Waarschijnlijk krijgen de low- en mid- ends ook SM3.0, niet dat het interessant is voor de kopers; low- en mid- end kunnen het toch niet verwerken met hoge resoluties en veel oogsnoep.

Inmiddels is mijn XFX 6800GT ook besteld: heb de asus maar laten vallen, want die laat nog minstens twee weken op zich wachten.
Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.