[Algemeen] ATi Nieuwsdiscussie Topic - Deel 63 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 6 Laatste
Acties:
  • 8.079 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 19-06 10:44

Krizzie

Progressive Music \o/

Ik vraag me af wat ATI bij Test Drive heeft uitgehaald. De kaart is daar soms 2x sneller dan een GTX..

Zou dat de performance zijn die gehaald kan worden met goede drivers of heeft NV gewoon slecht voor TDU geoptimaliseerd?

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Visgek82
  • Registratie: December 2002
  • Laatst online: 18-06 18:24
Krizzie schreef op zondag 17 juni 2007 @ 12:38:
Ik vraag me af wat ATI bij Test Drive heeft uitgehaald. De kaart is daar soms 2x sneller dan een GTX..

Zou dat de performance zijn die gehaald kan worden met goede drivers of heeft NV gewoon slecht voor TDU geoptimaliseerd?
TDU is een game die origineel voor de Xbox 360 gpu is gemaakt. dit is een ATI chip, dus daarom loopt het op ATi kaarten beter.

Dat is wat ik ervan begrepen heb.

Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 19-06 09:47

Pubbert

random gestoord

Visgek24 schreef op zondag 17 juni 2007 @ 12:49:
[...]


TDU is een game die origineel voor de Xbox 360 gpu is gemaakt. dit is een ATI chip, dus daarom loopt het op ATi kaarten beter.

Dat is wat ik ervan begrepen heb.
Tja, en Lost Planet dan?

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Bron?

Even terug komen op TDU, wat voor fps halen jullie??
Ik heb nl iets merkwaardigs ontdekt.

OS:ult.64bit
Ingame instellingen alles max:4xAA+HDR, res.1680x1050(blijft ongewijzigd)

1) Wanneer ik in CCC de instellingen pak met optimale prestaties; dus geen AA+AF,
dan heb ik een fps van rond de 24-40.

2) Wanneer ik in CCC de instellingen pak met optimale kwaliteit; dus 4x AA+ 16x AF,
dan heb ik een fps van rond de 60-80!!!

Grafisch gezien is het met de 1e instellingen veel strakker,minder kartels dan de 2e instellingen.

Hoe komt dit nu??Je zou toch zeggen dat je met de 2e instelling ,grafisch mooier moet zijn?

[ Voor 6% gewijzigd door Bullus op 17-06-2007 13:39 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • waterking
  • Registratie: Juli 2005
  • Laatst online: 07-01 12:23
Rare beredenering. Lost planet loopt toch ook goed op een gtx ..

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


Acties:
  • 0 Henk 'm!

Anoniem: 159816

Bullus schreef op zondag 17 juni 2007 @ 12:57:
Bron?

Even terug komen op TDU, wat voor fps halen jullie??
Ik heb nl iets merkwaardigs ontdekt.

OS:ult.64bit
Ingame instellingen alles max:4xAA+HDR, res.1680x1050(blijft ongewijzigd)

1) Wanneer ik in CCC de instellingen pak met optimale prestaties; dus geen AA+AF,
dan heb ik een fps van rond de 22-33.

2) Wanneer ik in CCC de instellingen pak met optimale kwaliteit; dus 4x AA+ 16x AF,
dan heb ik een fps van rond de 60-80!!!

Grafisch gezien is het met de 1e instellingen veel strakker,minder kartels dan de 2e instellingen.

Hoe komt dit nu??Je zou toch zeggen dat je met de 2e instelling ,grafisch mooier moet zijn?
Waarschijnlijk omdat je in de game 4AA+HDR aan hebt staan. Die gebruikt hij in het eerste geval goed. Maar als je in het CCC de zooi aanpast dan gaat er iets fout waardoor er geen AA toegepast wordt. Je moet het gewoon application controlled laten staan, of AA op 0 zetten in TDU. Of " enhance game aa setting" , mijn nvidia control panel heeft die optie. Waarschijnlijk heeft ATI dat ook.

Acties:
  • 0 Henk 'm!

  • ElementriX
  • Registratie: Juni 2003
  • Niet online
All owners of ATI Radeon graphics cards may receive a free copy of Half-Life® 2: Lost Coast and Half-Life 2: Deathmatch via Steam. Click below for more info.

Zie steampowered.com

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
waterking schreef op zondag 17 juni 2007 @ 12:57:
Rare beredenering. Lost planet loopt toch ook goed op een gtx ..
Dat is het hem nou juist.

Zowel TDU als Lost Planet zijn origineel Xbox360 games, dus zou je verwachten dat deze op de R600 zeer goed zouden draaien. Dit gaat echter alleen op voor TDU en niet voor Lost Planet, wat voor de PC onder de TWIMTBP banner valt. Volgens AMD hebben ze niet kunnen optimaliseren voor de PC-versie. nVidia zegt nu precies hetzelfde van de Call of Juarez DX10 versie, waar ze zeggen dat AMD met vreemde shaders werkt en er voor gezorgd heeft dat Techland, de developer, een extra pad heeft ingebouwd waardoor de GTX zo'n 10-14% langzamer draait zonder IQ verschil. Heel grappig aangezien Call of Juarez origineel ook een TWIMTBP game is.

Voor TDU benchmarks zie bv:

Afbeeldingslocatie: http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_tdu_sg1.png

Bron: http://www.3dcenter.org/artikel/radeon_hd_2900_xt/ <== 3D Center gaat altijd zeer diep in op IQ instellingen, dus zeer zeker een tip waard als je daar in geinteresseerd bent.

[ Voor 15% gewijzigd door CJ op 17-06-2007 13:27 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 16-06 10:38

SG

SG surft naar info hardewaren

CJ schreef op zondag 17 juni 2007 @ 13:26:

Dat is het hem nou juist.

Zowel TDU als Lost Planet zijn origineel Xbox360 games, dus zou je verwachten dat deze op de R600 zeer goed zouden draaien. Dit gaat echter alleen op voor TDU en niet voor Lost Planet, wat voor de PC onder de TWIMTBP banner valt. Volgens AMD hebben ze niet kunnen optimaliseren voor de PC-versie. nVidia zegt nu precies hetzelfde van de Call of Juarez DX10 versie, waar ze zeggen dat AMD met vreemde shaders werkt en er voor gezorgd heeft dat Techland, de developer, een extra pad heeft ingebouwd waardoor de GTX zo'n 10-14% langzamer draait zonder IQ verschil. Heel grappig aangezien Call of Juarez origineel ook een TWIMTBP game is.

Voor TDU benchmarks zie bv:
Van Xbox360 naar DX9 game porten kan meer 1 op 1 gedaan worden je mist dan de funties in de game-engine die extra dingen van de xboxGPU gebruiken.
Je houd dan redelijk een voor ATI gedevelopt game engine over

'n Xbox 360 port 1 op 1 houd DX9 en een half in met half bedoel ik dus die extra funties, maar de GPU hebben 'n grote overlap aan hardware implementatie.

Losplanet is een port maar ook refresh naar DX10. Het is dus 'n port en DX10 enhancment.

Die ingreep maakt het dus al géén Xbox360 gedragende title meer. Wel 'n Xbox360 uitgangs punt maar DX10 is er mee enhance maar dan mogelijk developed op 'n G80. En dus die als uitgangspunt voor DX10 features die veel of aardig wat DX9 methoden vervangen.

Gezien G80 erg lang uit is kunnen de Dev's vanuit gegaan zijn van G80 voor DX10 code en functionaliteit. en daar dan ook optimaler op draaien, aangezien ze developen en achter komen welke methode wel goed werkt op hun Dev hardware.

Ook op dit gebied moet ATI een inhaalslag maken.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Visgek82
  • Registratie: December 2002
  • Laatst online: 18-06 18:24
Wat me trouwens wel opvalt is dat zowel Call of Juarez dx10 demo en Lost Planet dx9 demo imo helemaal niet zo goed eruit zien. ik vind de overbright-HDR belichting in CoJ verschrikkelijk lelijk, en sommige dingen zien er gewoon niet uit.

Bij Lost Planet had ik dat vooral bij de sneeuw, wat meer irritant is dan realistisch, en ook de monsters vind ik niet bepaald je-dat.

wmb mogen de echte Dx10 titels nog wel ff uitgesteld worden als dat betekend dat we betere graphics krijgen. zeker als je ziet hoe CoJ draait vind ik 't maar matig.

Zeker als je kijkt naar Crysis, waar nog geen speelbaar materiaal van is, maar filmpjes genoeg, kan het blijkbaar toch heel wat beter..

Ik denk persoonlijk dat zowel CoJ als Lost Planet gerushed zijn om maar ff snel
wat dx10 features te laten zien , en dat pakt zoals altijd erg slecht uit.

Ik kan genoeg dx9 games die er vergelijkbaar of beter uitzien.

Dit is allemaal wel imo natuurlijk :)

Enige wat ik wel erg mooi vond was de Whiteout demo van ATi, daar zie je echt mooie dx10 graphics.

[ Voor 16% gewijzigd door Visgek82 op 17-06-2007 16:30 ]

Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME


Acties:
  • 0 Henk 'm!

  • MauSS
  • Registratie: Juni 2005
  • Laatst online: 29-06-2023
Dav- schreef op zaterdag 16 juni 2007 @ 16:02:
Maar mijn Jetway HD2900XT heeft 3 fan standen :(
Vanaf 50°C begint 'ie al keihard te loeien in 2D mode. In 3D mode gaat 'ie nog maar een klein stukje harder. Dat moet zeker gefixt worden.

Hij blijft tussen de 50-53° idle en hij wordt max 75°C load.
Volgens mij draait de fan bij andere mensen gewoon op tragere speed in 2D, aangezien zij zeggen dat ze de kaart niet kunnen horen in 2D en hogere idle temps hebben. Tot 50°C is 'ie bij mij namelijk vrij stil.
Ik heb het nieuwe model met de extra heatpipe.
Komt door je Vista ;) (want ik gok dat je vista draaid)

ik had dit zelfde probleem ook in Vista.. (2d) en in Win Xp (op classic weergave) was ie lekker stil..

A world without gadgets is no world ;)


Acties:
  • 0 Henk 'm!

  • Xedev
  • Registratie: November 2006
  • Laatst online: 20-10-2024
Voor als iemand het nog wou weten, mijn HiS HD2900XT van komplett heeft de oudere koeling met 2 buizen.

Acties:
  • 0 Henk 'm!

  • Dav-
  • Registratie: Maart 2003
  • Laatst online: 07-08-2024
MauSS schreef op zondag 17 juni 2007 @ 16:31:
[...]
Komt door je Vista ;) (want ik gok dat je vista draaid)

ik had dit zelfde probleem ook in Vista.. (2d) en in Win Xp (op classic weergave) was ie lekker stil..
Yep, ik heb Vista Ultimate 32. Dus het probleem zit in de Catalyst voor Vista?
Het vreemde is, dat hij vanaf 50°C pas op hoge snelheid begint te draaien, maar dan koelt 'ie even af naar 48°C, maar de fan gaat dan niet gelijk weer langzamer draaien.
In 3D mode is de fan ook temperatuur-geregeld. Dus als je een spel sluit, dan gaat de fan pas trager draaien als de temp onder de 70°C komt.

Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 19-06 14:07

Hann1BaL

Do you stay for dinner?Clarice

Ik heb een probleem met mijn verwarming :P
De drivers van de ATI/AMD site lijken toch problemen te hebben met mijn ASUS X2900XT 512 MB

Ik kan geen game op een hogere resolutie instellen dan 1024x768. Mn windows desktop aanpassen aan de juiste resolutie is daarentegen geen probleem. Ik draai een resolutie van 1680x1050.

Ook wordt mijn windowsresolutie aangepast aan de resolutie van de game. Dus bij het afsluiten van de game, kan ik weer de windowsresolutie terugzetten op 1680x1050.

Daarnaast wil ik de boel zo instellen dat mn Videokaart lagere resolutie beelden kleiner weergeeft op mn monitor, ipv dat het beeld uitgerekt wordt. Dat lukt me ook niet erg goed.

Meer mensen met deze driverissues? (Ik heb het bijvoorbeeld ook met de meegeleverde HL games/mods, zoals DoD: Source)

Ik Draai Win XP pro SP2 NL op een:
C2D E6600 @ 333x9 (2x3GHz)
2x 1 GB DDR2 800
Gigabyte P35-DS3P

Iemand nog een gouden tip? Werken oude drivers ook met deze kaart?

Acties:
  • 0 Henk 'm!

  • martijnve
  • Registratie: December 2004
  • Laatst online: 18-06 22:13
Hann1BaL schreef op zondag 17 juni 2007 @ 21:13:
Ik heb een probleem met mijn verwarming :P
De drivers van de ATI/AMD site lijken toch problemen te hebben met mijn ASUS X2900XT 512 MB

Ik kan geen game op een hogere resolutie instellen dan 1024x768. Mn windows desktop aanpassen aan de juiste resolutie is daarentegen geen probleem. Ik draai een resolutie van 1680x1050.

Ook wordt mijn windowsresolutie aangepast aan de resolutie van de game. Dus bij het afsluiten van de game, kan ik weer de windowsresolutie terugzetten op 1680x1050.

Daarnaast wil ik de boel zo instellen dat mn Videokaart lagere resolutie beelden kleiner weergeeft op mn monitor, ipv dat het beeld uitgerekt wordt. Dat lukt me ook niet erg goed.

Meer mensen met deze driverissues? (Ik heb het bijvoorbeeld ook met de meegeleverde HL games/mods, zoals DoD: Source)

Ik Draai Win XP pro SP2 NL op een:
C2D E6600 @ 333x9 (2x3GHz)
2x 1 GB DDR2 800
Gigabyte P35-DS3P

Iemand nog een gouden tip? Werken oude drivers ook met deze kaart?
Ok, ik heb geen 2900xt maar op je 2e vraag weet ik het antwoord wel denk ik:
Als je "Catalyst Control Center" op start ga je naar "Digital Panel Properies" en dan staat er een vakje "Image scaling" daar selecteer je "Use centered timings"

Op je 1e vraag weet ik zo het antwoord niet maar ik zie in je sig dat je eerst een geforce 7600 had.
Heb je drivercleaner gebruikt of windows schoon geinstalleerd?

Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW


Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 19-06 14:07

Hann1BaL

Do you stay for dinner?Clarice

martijnve schreef op zondag 17 juni 2007 @ 22:11:
[...]

Ok, ik heb geen 2900xt maar op je 2e vraag weet ik het antwoord wel denk ik:
Als je "Catalyst Control Center" op start ga je naar "Digital Panel Properies" en dan staat er een vakje "Image scaling" daar selecteer je "Use centered timings"

Op je 1e vraag weet ik zo het antwoord niet maar ik zie in je sig dat je eerst een geforce 7600 had.
Heb je drivercleaner gebruikt of windows schoon geinstalleerd?
Nieuwe pc besteld. Mag dat ook :P? Dus daaraan ligt het niet. Het was overigens een 7600 GT AGP.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Anoniem: 159816 schreef op zondag 17 juni 2007 @ 13:20:
[...]

Waarschijnlijk omdat je in de game 4AA+HDR aan hebt staan. Die gebruikt hij in het eerste geval goed. Maar als je in het CCC de zooi aanpast dan gaat er iets fout waardoor er geen AA toegepast wordt. Je moet het gewoon application controlled laten staan, of AA op 0 zetten in TDU. Of " enhance game aa setting" , mijn nvidia control panel heeft die optie. Waarschijnlijk heeft ATI dat ook.
Heb ff een paar instellingen uitgeprobeerd, nu heb ik ong. 10fps meer.AA+AF heb ik nu op beheerde toepassing staan in ccc.

Ook geprobeerd om de ingame AA+HDR uitgezet en dan in ccc AA+AF op max ingesteld,maar geen mooiere graphics.
Hann1BaL schreef op zondag 17 juni 2007 @ 21:13:

Daarnaast wil ik de boel zo instellen dat mn Videokaart lagere resolutie beelden kleiner weergeeft op mn monitor, ipv dat het beeld uitgerekt wordt. Dat lukt me ook niet erg goed.

Iemand nog een gouden tip? Werken oude drivers ook met deze kaart?
Ik heb een monitor (samsung 205bw) met nat.res. van 1680x1050,wanneer je een lagere resolutie wilt gebruiken,maar geen uitgerekt beeld wilt hebben,dan moet je ook een lagere breedbeeld resolutie pakken.
Dus geen bv 1024x768 pakken maar bv.1440x900 .

Bij CCC moet je wel bij de eigenschappen van de scherm, "gecentreerde weergave gebruiken" aanvinken.

[ Voor 34% gewijzigd door Bullus op 17-06-2007 22:29 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 19-06 14:07

Hann1BaL

Do you stay for dinner?Clarice

Bullus schreef op zondag 17 juni 2007 @ 22:18:
Ik heb een monitor (samsung 205bw) met nat.res. van 1680x1050,wanneer je een lagere resolutie wilt gebruiken,maar geen uitgerekt beeld wilt hebben,dan moet je ook een lagere breedbeeld resolutie pakken.
Dus geen bv 1024x768 pakken maar bv.1440x900 .

Bij CCC moet je wel bij de eigenschappen van de scherm, "gecentreerde weergave gebruiken" aanvinken.
Je kan toch ook gewoon een 4:3 beeld gecentreerd weergeven? Het is alleen nu nog geen issue, want er is geen game die op een hogere res dan 1024x768 ingesteld kan worden. De optie is er gewoon niet in de games.


Ballus, werkte het bij jou wel meteen goed met de videodrivers? Kon je alle resoluties instellen? Welke drivers heb je gebruikt?

[ Voor 9% gewijzigd door Hann1BaL op 17-06-2007 23:03 ]


Acties:
  • 0 Henk 'm!

  • JohnB
  • Registratie: November 2001
  • Laatst online: 17-03 20:11
Off topic maby maar wilde dit ff laten zien.
Eigen gemaakte 8pins aansluiting. Doet het goed.
Voeding Coolermaster 550w.
Ik vind stroomverbruik allemaal wel meevallen moet ik zeggen.

Afbeeldingslocatie: http://img159.imagevenue.com/loc876/th_12891_17062007009_122_876lo.jpg

Testing
Afbeeldingslocatie: http://img131.imagevenue.com/loc513/th_12969_16062007154_122_513lo.jpg

Acties:
  • 0 Henk 'm!

  • psychoclown
  • Registratie: Juli 2006
  • Laatst online: 09-03 09:26

psychoclown

Back in black

Hann1BaL schreef op zondag 17 juni 2007 @ 22:37:
[...]


Je kan toch ook gewoon een 4:3 beeld gecentreerd weergeven? Het is alleen nu nog geen issue, want er is geen game die op een hogere res dan 1024x768 ingesteld kan worden. De optie is er gewoon niet in de games.


Ballus, werkte het bij jou wel meteen goed met de videodrivers? Kon je alle resoluties instellen? Welke drivers heb je gebruikt?
Bij games van Valve (Half Life 2 ed.) moet je bij de options eerst aspect ratio op 16:10 zetten voordat je breedbeeldresoluties kan kiezen ;)

WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream


Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 19-06 14:07

Hann1BaL

Do you stay for dinner?Clarice

psychoclown schreef op zondag 17 juni 2007 @ 23:17:
[...]


Bij games van Valve (Half Life 2 ed.) moet je bij de options eerst aspect ratio op 16:10 zetten voordat je breedbeeldresoluties kan kiezen ;)
ja, maar het lijkt nu niet helemaal duidelijk:
Het ligt niet aan de games zelf! Want geen enkele game kan ik instellen op de juiste resolutie. En als ik geen breedbeeld formaat kan kiezen, dan moet ik toch iig de formaten 1280x1024 en 1600x1200 kunnen selecteren? Ook die staan er niet bij. Ook weet ik van genoeg games (op mn oude pc met hetzelfde beeldscherm) dat de optie van 1680x1050 er gewoon bij staat.

De vraag is dus wat er mis is met de drivers en of meer mensen dit hebben met hun X2900XT..

Daarnaast zijn er volgens mij geen tooltjes meegeleverd die de temps er uit spugen.. nofi, maar de nvidia drivers zijn wat dat betreft volgens mij gewoon wat handiger.. Ook Ati tools kan niets uitlezen.

Man, ondersteunen ze deze kaart eigenlijk wel :P ?

[ Voor 14% gewijzigd door Hann1BaL op 17-06-2007 23:34 ]


Acties:
  • 0 Henk 'm!

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 14-06 14:41

Oet

[DPC]TG & MoMurdaSquad AYBABTU

offtopic:
Als ik dit zo zie dan zou ik je toch aanraden om het geheugen van je vga-kaart te gaan koelen met ribben ipv alleen een beetje lucht, daarbij worden die boven je gpu nu totaal niet gekoeld!

Verder, je gebruikt waterkoeling, het bord wat je hebt (een Asus deluxe bord (P5W DH toevallig?)) wordt geleverd met een extra fan voor op je heatpipes boven de power-regulators van je moederbord. Het lijkt me slim om die ook te gebruiken, tenzei je graag van gebakken chips(ets) houdt? :P

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Ik gebruik gewoon de laatste drivers 7.5. voor vista en xp.Geen problemen qua resoluties ingame.
Cat.7.4 ook geen problemen gehad.

Temps kun je uitlezen met amd gpu clocktool, je kunt hiermee ook je kaart oc-en.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Hann1BaL schreef op zondag 17 juni 2007 @ 23:23:
[...]


ja, maar het lijkt nu niet helemaal duidelijk:
Het ligt niet aan de games zelf! Want geen enkele game kan ik instellen op de juiste resolutie. En als ik geen breedbeeld formaat kan kiezen, dan moet ik toch iig de formaten 1280x1024 en 1600x1200 kunnen selecteren? Ook die staan er niet bij. Ook weet ik van genoeg games (op mn oude pc met hetzelfde beeldscherm) dat de optie van 1680x1050 er gewoon bij staat.

De vraag is dus wat er mis is met de drivers en of meer mensen dit hebben met hun X2900XT..

Daarnaast zijn er volgens mij geen tooltjes meegeleverd die de temps er uit spugen.. nofi, maar de nvidia drivers zijn wat dat betreft volgens mij gewoon wat handiger.. Ook Ati tools kan niets uitlezen.

Man, ondersteunen ze deze kaart eigenlijk wel :P ?
Als jij een monitor hebt die max 1680-1050 kan kun je niets eens 1600-1200 draait. 1280x1024 moet wel kunnen. Ik speel niet echt veel games maar ik heb helemaal niet zo veel problemen met de drivers. Het loopt hier wel goed alleen de performance mag wat beter :) Verder heb ik niet veel te klagen.

Weet iemand al meer over de HD2600 Mobility ? Want er zijn al laptops met de 8600 GS M.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cartman!
  • Registratie: April 2000
  • Niet online
Weet iemand al of HIS nog komt met een custom cooling versie van de 2900XT? Daar zit ik n beetje op te wachten namelijk...

Acties:
  • 0 Henk 'm!

  • vigilante888
  • Registratie: Januari 2004
  • Laatst online: 18-12-2023

vigilante888

The truth is out there.....

Cartman! schreef op maandag 18 juni 2007 @ 10:32:
Weet iemand al of HIS nog komt met een custom cooling versie van de 2900XT? Daar zit ik n beetje op te wachten namelijk...
HiS zal met een aftermarket cooler edition komen. Deze zal waarschijnlijk de IceQ3 versie zijn of een versie met een zalman cooler.

Verder is er een hele launch aangekondigt van de 2400 en 2600 met een zalman, IceQ of fanless iSilence III versie:
HD2400:
HIS HD 2400Pro iFan 1GB HyperMemory w/256MB (64bit) DDR2 PCIe Dual Link DVI &TV (PAL) (RoHS) 500/800
HIS HD 2400Pro iFan 512MB HyperMemory w/128MB (64bit) DDR2 PCIe Dual Link DVI &TV (PAL) (RoHS) 500/800


HD2600:
HIS HD 2600XT HDMI 256MB (128bit) GDDR4 Dual DL-DVI & TV (PAL) (RoHS) 800/1100

HIS HD 2600XT IceQ Turbo HDMI Dual DL-DVI & TV (HDCP) 512MB (128bit) GDDR3 PCIe (PAL) (RoHS) TBA/TBA

HIS HD 2600XT Zalman Fan Dual DL-DVI & TV (HDCP) 512MB (128bit) GDDR3 PCIe (PAL) (RoHS) TBA/1400

HIS HD 2600XT Fan Dual DL-DVI & TV (HDCP) 512MB (128bit) GDDR3 PCIe (PAL) (RoHS) TBA/1400

HIS HD 2600XT iSilenceIII HDMI Dual DL-DVI & TV (HDCP) 256MB (128bit) GDDR3 PCIe (PAL) (RoHS) TBA/1400

HIS HD 2600XT IceQ Turbo HDMI Dual DL-DVI & TV (HDCP) 256MB (128bit) GDDR3 PCIe (PAL) (RoHS) TBA/TBA

HIS HD 2600XT Zalman Fan Dual DL-DVI & TV (HDCP) 256MB (128bit) GDDR3 PCIe (PAL) (RoHS) TBA/1400

HIS HD 2600XT Fan Dual DL-DVI & TV (HDCP) 256MB (128bit) GDDR3 PCIe (PAL) (RoHS) TBA/1400

HIS HD 2600Pro iSilenceIII HDMI Dual DL-DVI & TV (HDCP) 512MB (128bit) DDR2 PCIe (PAL) (RoHS) 600/1000

HIS HD 2600Pro IceQ Turbo Dual DL-DVI & TV (HDCP) 512MB (128bit) DDR2 PCIe (PAL) (RoHS) TBA/TBA

HIS HD 2600Pro Fan Dual DL-DVI & TV (HDCP) 512MB (128bit) DDR2 PCIe (PAL) (RoHS) 600/1000

HIS HD 2600Pro IceQ Turbo 2x Dual Link DVI (HDCP) 256MB (128bit) DDR2 PCIe TV (PAL) (RoHS) TBA/TBA

HIS HD 2600Pro Fan 2 x Dual Link DVI (HDCP) 256MB (128bit) DDR2 PCIe TV (PAL) (RoHS) 600/1000


Ook heeft HIS een GT versie van de X1650 op de markt gebracht. Deze zal op 525/1000 lopen met GDDR3. De GT versie zit tussen de Pro en de XT versie.
PS: de HDMI versies hebben geen HDMI op de kaart zelf. Bij de HDMI versies krijg je een adapter erbij. Qua prijs verschilt het 5dollar t.o.v de versie zonder adapter

[ Voor 4% gewijzigd door vigilante888 op 18-06-2007 11:01 ]

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 20:50

WoutF

Hoofdredacteur
vigilante888 schreef op maandag 18 juni 2007 @ 10:54:
[...]


HiS zal met een aftermarket cooler edition komen. Deze zal waarschijnlijk de IceQ3 versie zijn of een versie met een zalman cooler.
Mooi! :)
Is er ook al bekend wanneer die ongeveer komt?

Acties:
  • 0 Henk 'm!

  • vigilante888
  • Registratie: Januari 2004
  • Laatst online: 18-12-2023

vigilante888

The truth is out there.....

WoutF schreef op maandag 18 juni 2007 @ 11:08:
[...]

Mooi! :)
Is er ook al bekend wanneer die ongeveer komt?
Deze zal ong. Mid Juli aangekondigt worden.

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Overclockers UK beweert over 10 dagen voorraad van de 1GB XT te hebben.
Corespeed: 740mhz ; Memspeed: 2Ghz
Pre-order prijs ligt 95 Pond (~140 Euro) hoger dan van de standaard 512MB XT...
If we're to believe the information posted on UK etailer OcUK’s website, they should have stock of the 1GB Radeon HD 2900 XT cards on the 28th, that’s in 10 days time.
The card is most like from Diamond, but OcUK is selling it as an OEM product.
It’s 9.5 inches long as expected.

The core is clocked at 740MHz with the memory at a mighty 2GHz DDR. This makes it the fastest Radeon HD 2900 XT when it comes to memory speed, although the GPU is 10MHz slower than most 512MB cards.
This card should be the choice for anyone that’s running a screen with 1,920x1,200 resolution and at £328.99 inc VAT, it’s not a terrible price premium to pay. Although you can pick up OcUK’s 512MB card for a mere £234.99.


Bron:Fudzilla
Ik kon overigens voor een redelijk bedrag (iets meer dan een 2900XT) een 8800GTX 2e hands krijgen en ben daarvoor gegaan. Volgende ronde is hopelijk weer voor ATi :)
Als de 2600XT zo mooi geprijsd wordt als verwacht, dan verdwijnt die in mijn mediacenter i.v.m. HD materiaal en wat gaming. Heb ik toch nog iets van ATi's HD 2xxx serie aangeschaft ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 19-06 09:47

Pubbert

random gestoord

Weet je ook iets over de AGP versies?

Heeft ATi (Tray) Tool(s) inmiddels al 2900 support?

[ Voor 14% gewijzigd door Pubbert op 18-06-2007 11:44 ]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • vigilante888
  • Registratie: Januari 2004
  • Laatst online: 18-12-2023

vigilante888

The truth is out there.....

Thund3r schreef op maandag 18 juni 2007 @ 11:43:
[...]


Weet je ook iets over de AGP versies?

Heeft ATi (Tray) Tool(s) inmiddels al 2900 support?
Er zijn op dit moment nog geen AGP versies officieel aangekondigt. Maar zoals vaker blijkt zullen ze AIB's eerst de PCI-e versies uitbrengen om daarna de AGP versies te lanceren. De PCIe versies zullen eind deze maand beschikbaar zijn dus ik verwacht dat de AGP versies in de loop van volgende maand officieel geintroduceerd worden.

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0 Henk 'm!

  • MauSS
  • Registratie: Juni 2005
  • Laatst online: 29-06-2023
Heb gister de Msi 1950XT beteld,
Afbeeldingslocatie: http://img.alza.cz/ImgW.asp?fd=f2&cd=EF768t
(opzich niet boeiend hoewel.. de prijs 149€ ;) )
(ter vervanging van mijn X800XT, mijn 2900XT die ik had is nu voorzien van een nieuwe eigenaar :) ik kon niet leven met die fan... :/ en wacht toch zelf op de 2950XTX met een beetje stille koeling)


maar ik was benieuwd wie er hier ook zijn 1900serie kaart heeft overgeklokt?
(en met welke software en in welke stappen?)
want ik wil hem straks overklokken,
(koeler heb ik al binnen de Accelero X2)
Afbeeldingslocatie: http://www.arctic-cooling.com/pics/aclrox2_01l.jpg


@ Jejking
Thanx,! (had wel gezocht op tweakers maar kon nie echt wat vinden..) maar dat topic is toppie! :*)
(ik laat 't je weten...! )

[ Voor 42% gewijzigd door MauSS op 18-06-2007 14:41 ]

A world without gadgets is no world ;)


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

MauSS schreef op maandag 18 juni 2007 @ 13:24:
* MauSS wants to OC his new X1950XT
[OC] ATI Radeon X1K Series - Deel 2 ;)

Laat je me even weten als je weet hoe het voltagecontrol-gedeelte werkt? :)

Acties:
  • 0 Henk 'm!

  • JohnB
  • Registratie: November 2001
  • Laatst online: 17-03 20:11
:9

[ Voor 4% gewijzigd door JohnB op 18-06-2007 14:35 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Heeft mijn 1900XTX ook alleen dan op de goeie kant :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • JohnB
  • Registratie: November 2001
  • Laatst online: 17-03 20:11
WinnieXX schreef op maandag 18 juni 2007 @ 14:40:
[quote]nero355 schreef op maandag 18 juni 2007 @ 14:38:
[...]

Heeft mijn 1900XTX ook alleen dan op de goeie kant :P
[/quote]
Mooie zijn het. Zoek nog een setje van deze. Iemand?
:o
[quote]nero355 schreef op maandag 18 juni 2007 @ 14:38:
[...]

Heeft mijn 1900XTX ook alleen dan op de goeie kant :P
[/quote]
Mooie zijn het. Zoek nog een setje van deze. Iemand?
:o

[ Voor 42% gewijzigd door JohnB op 18-06-2007 14:41 . Reden: quoten lukt even niet, lol ]


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Ik begrijp dat de aftermarkt kaarten nu aan beginnen te komen?
Fijn, want ik wacht nog steeds op de Toxic :)

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 19-06 14:07

Hann1BaL

Do you stay for dinner?Clarice

Ik weet niet of het al een keer gezegd is, maar:

Bij Steam krijg je nu als Atikaartbezitter gratis HL2: lost coast en HL2: Deathmatch
Als je geen steamaccount hebt, kan je dus dus wel aanmaken en alsnog deze games spelen. Gratis.
Steam stelt wel dat het aantal beschikbare accounts beperkts, maar ik weet niet of dat waar is.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Yep, is al een paar keer gezegd (in elk topic wel een aantal keren zelfs ;) ), maar het kan geen kwaad om mensen er weer op te wijzen. Dus iedereen met een Radeon 9500 (of hoger) kan gratis Half Life 2: Lost Coast en HL2: Deathmatch downloaden. En wel via deze link:

http://www.steampowered.com/ati_offer1a/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nieuwsflash: Call of Juarez DX10 soap gaat verder

De soap omtrend AMD / Techland (Call of Juarez) vs nVidia gaat verder. Zoals uit bijna alle sites is gebleken is de HD2900XT sneller dan de GF8800GTX (en soms ook zelfs de Ultra) in de laatste Call of Juarez DX10 benchmark. nVidia reageerde hierop met de volgende verklaring:
NVIDIA's DX10 hardware-based multi-sampled Anti-Aliasing resolve is disabled in the benchmark, with all NVIDIA GPUs now being forced to use software-based AA resolve similar to the ATI DX10 GPU (which lacks hardware AA resolve). This artificially deflates performance on NVDIA graphics cards and users are not getting the benefit of a key NVIDIA hardware feature.

A hidden "ExtraQuality" parameter only accessible via a configuration file is automatically enabled when the benchmark is run on NVIDIA hardware, no matter what the setting in the configuration file. This setting has no apparent visual quality enhancement, but reduces NVIDIA GPU performance.

Changes to shaders that deflate NVIDIA performance by approximately 10-14%, without improving visual quality on either NVIDIA or ATI GPUs.
En Techland heeft nu gereageerd met het volgende waarin ze alles weerleggen:
In this message we would like to comment some disputable information that was recently published by nVidia and that is related to the DirectX 10 benchmark mode in Call of Juarez.

Before the arrival of DirectX 10, previous graphics APIs only allowed automatic Multi-Sample Anti-Aliasing (MSAA) resolves to take place in interactive gaming applications. This automatic process always consisted of a straight averaging operation of the samples for each pixel in order to produce the final, anti-aliased image. While this method was adequate for a majority of graphic engines, the use of advanced High Dynamic Range rendering and other techniques such as Deferred Rendering or anti-aliased shadow buffers require programmable control over this operation due to the nature of the mathematical operations involved. I.e. The previous approach using a simple average can be shown to be mathematically and visually incorrect (and in fact it produces glaring artefacts on occasions).

All DirectX 10 graphics hardware which supports MSAA is required to expose a feature called 'shader-assisted MSAA resolves' whereby a pixel shader can be used to access all of the individual samples for every pixel. This allows the graphics engine to introduce a higher quality custom MSAA resolve operation. The DirectX 10 version of 'Call of Juarez' leverages this feature to apply HDR-correct MSAA to its final render, resulting in consistently better anti-aliasing for the whole scene regardless of the wide variations in intensity present in HDR scenes. Microsoft added the feature to DirectX 10 at the request of both hardware vendors and games developers specifically so that we could raise final image quality in this kind of way, and we are proud of the uncompromising approach that we have taken to image quality in the latest version of our game.

"ExtraQuality" is a visual quality setting enabled by default in the DX10 version of Call of Juarez. In benchmark mode, "ExtraQuality" mode does two things. First, it increases shadow generation distance in order to apply shadowing onto a wider range of pixels on the screen, resulting in better quality throughout the benchmark run. Second, it increases the number of particles rendered with the geometry shader in order to produce more realistic-looking results, like for example waterfall, smoke and falling leaves. The attached screenshot illustrates those differences when ExtraQuality is disabled. ExtraQuality is designed as a default setting to reflect the visual improvements made possible by DX10 cards and is not meant to be disabled in any way.

All updates to shaders made in the final version of the Call of Juarez benchmark were made to improve performance or visual quality or both, for example to allow anisotropic texture filtering on more surfaces than before. This includes the use of more complex materials for a wider range of materials. At the same time we implemented shader code to improve performance on the more costly computations associated with more distant pixels,. Some materials were also tweaked in minor ways to improve overall image quality. One of the key strengths of NVIDIA's hardware is its ability to perform anisotropic filtering at high performance so we are puzzled that NVIDIA complains about this change when in effect it plays to their strengths.

Default settings were chosen to provide an overall good user experience. Users are encouraged to modify the settings in the CoJDX10Launcher as required. Using larger shadow maps is one option that we would encourage users to experiment with, and in our experience changing this setting does not affect NVIDIA's comparative benchmark scores greatly.

We are disappointed that NVIDIA have seen fit to attack our benchmark in any way. We are proud of the game that we have created, and we feel that NVIDIA can also be proud of the hardware that they have created. Nonetheless these artistic decisions about the settings of a game rightly belong in the hands of the games developer, not the hardware manufacturer.

Thank you and don't hesitate to contact us if you have any questions.
Waar het dus op neer komt is dat de DX10 engine van Call of Juarez simpelweg geen hardware MSAA resolve doet, niet omdat de HD2900XT dit via shaders wil doen, maar omdat dit de enige manier is om op de correcte wijze HDR met MSAA te doen zonder op bepaalde plekken artifacts te krijgen. DX10 vereist dat elke GPU die zichzelf DX10 compliant wil noemen, Shader Assisted MSAA Resolve moet kunnen doen voor een betere beeldkwaliteit omdat zowel de IHVs (AMD/NV/S3 etc) als ISVs (gamedevs) hierom gevraagd hebben. Betere controle over je MSAA = betere IQ.

In het interview op B3D met Eric Deemers is al gebleken dat de R600 puur met het oog op DX10 is gebouwd, en dat blijkt dus nu ook weer met de beslissing om MSAA Resolve voornamelijk via de shaders te doen, simpelweg omdat DX10 dit vereist voor de beste IQ.

Daarnaast is het interessant om te zien dat de ExtraQuality instelling onder andere invloed heeft het aantal particles dat met de geometryshader wordt gegenereerd. Uit verklaringen van andere devs (en ook van AMD) is gebleken dat de geometry shader van de HD2900XT sterker is dan die van de G80, wat misschien ook de goede performance van de HD2900XT in de DX10 benchmark van CoJ kan verklaren.

Anyway, weer genoeg food for (DX10) thought. Nu wachten totdat nVidia een wonderdriver uitbrengt die de performance in deze benchmark weer iets omhoog brengt. }:O

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 00:26

edward2

Schieten op de beesten

CJ schreef op maandag 18 juni 2007 @ 17:54:
Nieuwsflash: Call of Juarez DX10 soap gaat verderAnyway, weer genoeg food for (DX10) thought. Nu wachten totdat nVidia een wonderdriver uitbrengt die de performance in deze benchmark weer iets omhoog brengt. }:O
Als ATI dan ook een driver uitbrengt waarin AF mogelijk wordt in deze titel :D

Nou een iets serieuzere lading;
Ik zou nou wel eens willen weten in hoeverre het potentieëel van de X2900XT nu (7.5) al gebruikt wordt. Bv hoe de shaders gebruikt worden in Stalker. Ik las ergens dat de X2900Xt slechts in 48 stream mode werkt ipv de volle 320 ivm de huidige driver.

Het kriebelt nog steeds om hem (in CF) aan te schaffen, het wachten is op het moment dat de drivers/games optimaal van de hardware (streamproc's) gebruik gaan maken.

[ Voor 36% gewijzigd door edward2 op 18-06-2007 19:35 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
edward2 schreef op maandag 18 juni 2007 @ 19:31:
[...]


Als ATI dan ook een driver uitbrengt waarin AF mogelijk wordt in deze titel :D

Nou een iets serieuzere lading;
Ik zou nou wel eens willen weten in hoeverre het potentieëel van de X2900XT nu (7.5) al gebruikt wordt. Bv hoe de shaders gebruikt worden in Stalker. Ik las ergens dat de X2900Xt slechts in 48 stream mode werkt ipv de volle 320 ivm de huidige driver.

Het kriebelt nog steeds om hem (in CF) aan te schaffen, het wachten is op het moment dat de drivers/games optimaal van de hardware (streamproc's) gebruik gaan maken.
Zou wel heel imba zijn als hij er pas 48 gebruikt dan kan hij nog 500% performance boost krijgen. Mja de toekomst zal het uitwijzen. Die keuze van ATi lijkt nu wel logisch maar in de oudere games is de R600 nu te langzaam doordat hij geen hardware AA kan. En daardoor kun je bv niet op 1920-1200 spelen met max AA en AF aan. Ik vraag me alleen wel af waarom hij met AF ook redelijk inzakt.

Maar ik zou ook wel eens willen weten hoe goed de huidige drivers de R600 chip benutten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 00:26

edward2

Schieten op de beesten

Astennu schreef op maandag 18 juni 2007 @ 20:01:
[...]


Zou wel heel imba zijn als hij er pas 48 gebruikt dan kan hij nog 500% performance boost krijgen. Mja de toekomst zal het uitwijzen.
Nou dat zal wel niet gebeuren denk ik, aangezien dat dan misschien fillrate de bottleneck gaat worden, maar het zal mij niet verbazen als de perf nog 2-3 maal omhoog gaat. Maar dit is maar hele grove speculatie van mij uiteraard.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 18 juni 2007 @ 17:54:
Nieuwsflash: Call of Juarez DX10 soap gaat verder

Waar het dus op neer komt is dat de DX10 engine van Call of Juarez simpelweg geen hardware MSAA resolve doet, niet omdat de HD2900XT dit via shaders wil doen, maar omdat dit de enige manier is om op de correcte wijze HDR met MSAA te doen zonder op bepaalde plekken artifacts te krijgen.
Lijkt me een heel erg boeiend extra onderzoekje van een onafhankelijke partij waard...
Het is me toch wel erg toevallig dat men in een GITG-game eerst een benchmark uitbrengt waarin nV sneller is, en vervolgens ('oh jah, foutje') met een patch uitkomt waarin ATi sneller is vanwege uitschakelen van een standaard (hardwarematig) MSAA pad en forceren van shader-based AA.

Gezien in andere games hardware MSAA i.c.m. HDR wel gewoon prima werkt zie ik niet direct in waarom dat in CoJ niet zou kunnen... sterker nog, het kon tot voor de betreffende patch.
Screenshots zijn altijd leuk... maar wellicht zijn er ook screenshots te genereren waarin de hardware MSAA er weer wat beter uitziet...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 19-06 09:47

Pubbert

random gestoord

Cheetah schreef op maandag 18 juni 2007 @ 20:43:
[...]
Lijkt me een heel erg boeiend extra onderzoekje van een onafhankelijke partij waard...
Het is me toch wel erg toevallig dat men in een GITG-game eerst een benchmark uitbrengt waarin nV sneller is, en vervolgens ('oh jah, foutje') met een patch uitkomt waarin ATi sneller is vanwege uitschakelen van een standaard (hardwarematig) MSAA pad en forceren van shader-based AA.

Gezien in andere games hardware MSAA i.c.m. HDR wel gewoon prima werkt zie ik niet direct in waarom dat in CoJ niet zou kunnen... sterker nog, het kon tot voor de betreffende patch.
Screenshots zijn altijd leuk... maar wellicht zijn er ook screenshots te genereren waarin de hardware MSAA er weer wat beter uitziet...
CoJ is dus _geen_ GITG game, maar een TWIMTBP game.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 19-06 10:10
Heel dat GITG en TWIMTBP is allemaal leuk en aardig maar maakt enkel iets uit voor de nerds onder ons. De overige 99% van de mensen heeft nog nooit van een driver update gehoord en koopt een PC in de winkel, koopt daarna een spel en gaat ervan uit dat het werkt. Als het niet werkt zal een groot deel van de mensen het opgeven, een klein deel zal naar de laatste driver update gaan zoeken en deze installeren. Als het dan ook niet werkt dan kunnen ze ook enkel maar opgeven.

Wat ik hiermee wil aangeven is dat de performance van demo's en benchmarks niet uitmaken zodra de final versie van het spel maar niet op de markt is. Ik denk dat dat ook een goed peil punt is voor de kwaliteit van de drivers. Wat nVidia deed met COH patch 1.7 vond ik fout. De nieuwe goede drivers werden pas een paar uur na het releasen van de patch naar buiten gebracht. Daar zag je al forums volstromen met vragen, etc omdat het niet werkte.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Astennu schreef op maandag 18 juni 2007 @ 20:01:
[...]


Zou wel heel imba zijn als hij er pas 48 gebruikt dan kan hij nog 500% performance boost krijgen. Mja de toekomst zal het uitwijzen. Die keuze van ATi lijkt nu wel logisch maar in de oudere games is de R600 nu te langzaam doordat hij geen hardware AA kan. En daardoor kun je bv niet op 1920-1200 spelen met max AA en AF aan. Ik vraag me alleen wel af waarom hij met AF ook redelijk inzakt.
Het antwoord heeft AMD ook al gegeven in het interview en daarop volgende topic op B3D. Het feit dat de R600 iets meer inzakt dan bv de R580 wat betreft performance wanneer het aan komt op AF, komt omdat de R600 in ruil daarvoor een hogere kwaliteit AF vertoond (betere mipmap overgangen). Eric Deemers gelooft dat er een aantal gevallen zijn waarin de AF drop groter is dan verwacht en die zullen aangepakt worden in toekomstige drivers. Hij kan echter niet in procenten weergeven hoeveel het sneller gaat worden.

En waarom AA een net zo grote (of soms grotere) drop vertoond dan op de R580 ondanks de 512-bit memory interface, komt omdat - zoals al vaker gezegd is - de R600 helemaal met het oog op DX10 gemaakt is. Vandaar dus de shader MSAA resolve en ook vandaar het feit dat AA op de R600 helemaal gericht is op 64b pixels. Dat wil zeggen dat de AA helemaal gefinetuned is voor HDR situaties. Je zult in echte HDR games dan vooral zien dat de performance minder in elkaar zakt op een R600 dan op een R580 wanneer AA gebruikt wordt.

Volgens AMD schaadt Shader MSAA Resolve performance in een aantal gevallen op de R600 en wel bij games met een zeer hoge framerate (vanaf 100 fps en hoger). AMD is zich daar zeer zeker van bewust en dit zal je vooral zien in benchmarks, maar niet in realworld gameplay.

Interessant detail over R600 is dat het AMD iets meer dan 3 jaar heeft gekost om het te ontwikkelen en dat het substantieel afwijkt van de originele R400. Ja, er zijn wat dingen overgenomen, maar het meeste is compleet anders. Dus nu de vraag... waar was Dave Orton zo enthousiast over toen hij jaren terug riep dat R400 iets heel byzonders was?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op maandag 18 juni 2007 @ 20:43:
[...]
Lijkt me een heel erg boeiend extra onderzoekje van een onafhankelijke partij waard...
Het is me toch wel erg toevallig dat men in een GITG-game eerst een benchmark uitbrengt waarin nV sneller is, en vervolgens ('oh jah, foutje') met een patch uitkomt waarin ATi sneller is vanwege uitschakelen van een standaard (hardwarematig) MSAA pad en forceren van shader-based AA.

Gezien in andere games hardware MSAA i.c.m. HDR wel gewoon prima werkt zie ik niet direct in waarom dat in CoJ niet zou kunnen... sterker nog, het kon tot voor de betreffende patch.
Screenshots zijn altijd leuk... maar wellicht zijn er ook screenshots te genereren waarin de hardware MSAA er weer wat beter uitziet...
Als in alle games gebruik zou worden gemaakt van hardware MSAA resolve ipv shader MSAA resolve, dan hebben we dus helemaal geen DX10 nodig en kan alles net zo goed met DX9 op Windows XP. Lang leve de vooruitgang?
While this method was adequate for a majority of graphic engines, the use of advanced High Dynamic Range rendering and other techniques such as Deferred Rendering or anti-aliased shadow buffers require programmable control over this operation due to the nature of the mathematical operations involved. I.e. The previous approach using a simple average can be shown to be mathematically and visually incorrect (and in fact it produces glaring artefacts on occasions).
Gezien dat laatste stuk, lijkt het er op dat het geen probleem moet zijn voor Techland om screenshots te publiceren met hardware MSAA resolve en de artefacts die het veroorzaakt in vergelijking met de shader MSAA resolve.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
CJ over die AF. In sommige plaatjes die ik heb gezien was de R600 juist minder scherp. Dit was met Boxed AA in COJ geloof ik. Maar dat zou dus een bug kunnen zijn.

Anyway ik vraag me dan ook wel af wat de R400 is. Hopelijk kunnen de 7.6 en 7.7 drivers een leuke boost laten zien :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Volg de thread hier maar jongens: http://www.driverheaven.n...uarez-dx10-benchmark.html

Ik heb Zardon om die bijlagen gevraagd, hij zou ze opnieuw uppen, dan weten we meer :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Astennu schreef op maandag 18 juni 2007 @ 21:57:
CJ over die AF. In sommige plaatjes die ik heb gezien was de R600 juist minder scherp. Dit was met Boxed AA in COJ geloof ik. Maar dat zou dus een bug kunnen zijn.
Heb je het nu over AA of over AF. Je noemt twee verschillende dingen?

En Boxed AA is gewoon de standaard AA zoals we die kennen vanaf de R300, R420, R480, R520 en R580... er staat nu alleen het woordje "boxed" voor om het verschil met "tent filter AA" aan te tonen.

Als iets minder scherp is of waziger is, dan heb je een grote kans dat er een AA tent filter is gebruikt. maar het kan natuurlijk zijn dat de textures over het algemeen wazig zijn wat door een lagere stand AF komt of anders een bug in de AI? Boxed filters zouden theoretisch gezien de scherpte moeten geven die we tot nu toe altijd gewend zijn en geen invloed moeten hebben op wazigheid van het beeld. Zie je wat anders, dan moet je eerst helder krijgen welke drivers er gebruikt zijn en ook welke versie van de CoJ benchmark. De laatste versies geven natuurlijk een ander beeld dan de eerste versies.

Ik heb al vaker verwezen naar 3D Center, maar kijk hier eens voor een AF test met duidelijke pics: http://www.3d-center.org/...eon_hd_2900_xt/index8.php
En hier voor een uitgebreide AA (CFAA) test: http://www.3d-center.org/...eon_hd_2900_xt/index5.php

In tegenstelling tot vele andere HD2900XT reviews gebruikten ze daar de 8.374.2 drivers die een aantal speedbumps en bugfixes bevatten. Hun conclusie over de AA en AF is dan ook dat 8xAA + Custom Filters er zeer goed uit zien en dat AF er op de HD2900XT er zelfs beter uit ziet dan op de R580 en de G80 op High Quality wanneer Cat AI uitgeschakeld wordt op de HD2900XT. Dat is iets wat op andere sites bv niet geprobeerd is voor zover ik weet (dus het uitschakelen van Cat AI). Ook over EATM zijn ze zeer te spreken (wel met een slag om de arm ivm wat bugs in het verleden).

Ik zal binnenkort eens de reviewlijst in de FP updaten en er achter zetten welke drivers er gebruikt zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Hey CJ, vergeet je de changelog niet waar ik toen om vroeg ;)
Ik had het willen PM'en maar dat kan hier schijnbaar niet :'( . Daar krijg je pas veel offtopic gezeur van :X

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Thund3r schreef op maandag 18 juni 2007 @ 21:05:
[...]


CoJ is dus _geen_ GITG game, maar een TWIMTBP game.
Zeker weten? Hij staat er hier niet tussen;

http://www.nzone.com/object/nzone_twimtbp_gameslist.html

[ Voor 4% gewijzigd door Anoniem: 38733 op 19-06-2007 03:00 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hij is daar snel weg gehaald door nVidia.... rara waarom he? Je kan 'm nog wel vinden in wat archieven of op andere nZone sites (internationale versies). Of gewoon effe googlen op "Call of Juarez" en "TWIMTBP" en je vindt genoeg links tussen deze twee, waaruit duidelijk blijkt dat CoJ eerst onderdeel was van het TWIMTBP programma.

http://fr.nzone.com/objec...llofjuarez_downloads.html
http://it.nzone.com/objec...llofjuarez_downloads.html
http://de.nzone.com/objec...callofjuarez_home_de.html
http://uk.nzone.nvidia.co...callofjuarez_home_eu.html
http://es.nzone.com/objec...allofjuarez_legal_es.html
http://www.nzone.com/obje...llofjuarez_downloads.html <== page not found nu!
http://www.nzone.com/object/nzone_thecallofjuarez_home.html <=== page not found nu!

Of kijk eens hier http://uk.nzone.nvidia.com/page/home.html in de lijst met games... Daar staat CoJ gewoon nog tussen, maar de link is inmiddels inactief gemaakt...

Of zie de officiele site waar nog lieflijk een logo van nVidia prijkt: http://www.coj-game.com/

Het originele Call of Juarez was een ras echte TWIMTBP game. Genoeg bewijs geleverd lijkt me... Leuk om dan te zien dat nVidia net zo gemakkelijk een developer en game dissed als ze niet goed uit de verf komen in benchmarks, dan wanneer ze het wel goed doen en het de hemel in prijzen. Ik had gezegd dat het aan de drivers zou liggen en dat een toekomstige driver wel verbetering zou brengen. Maar ja, misschien is dit wel het maximale wat er uit te halen valt (wat ik me niet kan voorstellen trouwens)? Techland houdt de eer aan zichzelf en haalt de architectuur van de G80 gelukkig niet omlaag, maar prijst bepaalde features zelfs gewoon.

Deze game is echter nooit uit gekomen in Amerika, maar binnenkort dus wel... en dan direct in de DX10 uitvoering. Voor hen is dit dus een van de eerste echte DX10 games.

[ Voor 14% gewijzigd door CJ op 19-06-2007 03:48 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 19 juni 2007 @ 03:45:
Hij is daar snel weg gehaald door nVidia.... rara waarom he? Je kan 'm nog wel vinden in wat archieven of op andere nZone sites (internationale versies). Of gewoon effe googlen op "Call of Juarez" en "TWIMTBP" en je vindt genoeg links tussen deze twee, waaruit duidelijk blijkt dat CoJ eerst onderdeel was van het TWIMTBP programma.

[...]

Het originele Call of Juarez was een ras echte TWIMTBP game. Genoeg bewijs geleverd lijkt me... Leuk om dan te zien dat nVidia net zo gemakkelijk een developer en game dissed als ze niet goed uit de verf komen in benchmarks, dan wanneer ze het wel goed doen en het de hemel in prijzen.
Errrrm, wat specifiekere, minder gekleurde informatie mag wel...
Even kijken wat Legitreviews over deze situatie zegt:
Before the launch of the ATI Radeon HD 2000 Series AMD and ATI seeded the press with benchmark copies of the upcoming DirectX 10 game title Call of Juarez.
An sich al erg interessant, maar wat zegt Techland zelf?
Techland's Statement from CEO Pawel Marchewka

"We’re not really sure which version was supplied to you. For the newest version you need to contact your contact at AMD, they have exclusive rights to distribute this benchmark. I’m not sure about why you were given an older version. I guess it probably was the newest version at that time. Our priority is making Call of Juarez the first and the best optimized DX10 game. The benchmark is updated at the same time more or less frequently. But as far as I know AMD is going to send the newest version to the Press very soon."
AMD heeft dus de rechten voor de benchmark blijkbaar gekocht...
Niet de game-developper zelf, maar de videocard manufacturer heeft de exclusieve publishing rechten. Dat gaat zelfs nog even een stap verder dan de reguliere GITG of TWIMTBP programma's.

Logootje van de DX10 versie spreekt ook boekdelen trouwens:
Afbeeldingslocatie: http://www.legitreviews.com/images/reviews/504/coj_2.jpg

Verhaal gaat verder:
After running the benchmark and taking screenshots to compare the image quality I couldn't resist not running this benchmark as the findings were actually not in AMD's favor. Yes, the benchmark that AMD and ATI handed out the to the press for the launch of the ATI Radeon HD 2900 XT actually played out to favor NVIDIA even though the latest build was not handed out to the media.
Dus de versie waar AMD oorspronkelijk zelf mee kwam deed het beter op nV hardware.
En surprise, surprise, even later komt een patch uit waarin nV hardware het aanmerkelijk slechter doet.
Dus, samenvattend:
- AMD koopt DX10 benchmark
- AMD hardware loopt minder goed dan nV hardware in gekochte benchmark
- Benchmark developper komt even later met een patch waarmee nV hardware slechter loopt

Dat klinkt toch wel op zijn zachtst gezegd verdacht...

De DX9 versie van COJ was inderdaad onderdeel van het TWIMTBP programma. Techland heeft bij de DX10 versie echter duidelijk in bed gelegen met AMD. Niet zo gek dat nV COJ dan uit het TWIMTBP schopt, met name als ze voor de DX10 versie later een patch uitbrengen die duidelijk is geoptimaliseerd voor ATi.
You tend to diss people that decide to diss you, especially if they used to call you their friend.

[ Voor 3% gewijzigd door Cheetah op 19-06-2007 07:25 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 19-06 16:30
Koekje van eigen deeg?? Leer de goede dingen van je tegenstander. Misschien (hopelijk) een voorbode van een meer agressieve marktopstelling.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

winwiz schreef op dinsdag 19 juni 2007 @ 06:54:
Koekje van eigen deeg?? Leer de goede dingen van je tegenstander. Misschien (hopelijk) een voorbode van een meer agressieve marktopstelling.
Nou... Ik hoop toch echt niet dat aankoop van benchmarks een nieuwe trend gaat worden.
GITG en TWIMTBP is tot daar aan toe, maar opkopen van alle rechten elimineert echt elke vorm van onafhankelijkheid. De koper krijgt gewoon de benchmark die hij/zij wil ('customized to specification'), en dat blijkt maar weer. De consument is zeker niet gebaat bij dit soort praktijken.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 19-06 14:07

Hann1BaL

Do you stay for dinner?Clarice

Mijn probleem met het gamen op hogere resolutie is half opgelost. Als ik mn tv inschakel als 2e scherm en als ik die dan instel op Clone, dan krijg ik de resolutie van mn main scherm in games niet meer op 1680x1050..

Dus de tv uitschakelen in CCC zorgt ervoor dat alles probleemloos verloopt..

Iemand een idee hoe dit op te lossen?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Cheetah schreef op dinsdag 19 juni 2007 @ 07:06:
[...]
Nou... Ik hoop toch echt niet dat aankoop van benchmarks een nieuwe trend gaat worden.
GITG en TWIMTBP is tot daar aan toe, maar opkopen van alle rechten elimineert echt elke vorm van onafhankelijkheid. De koper krijgt gewoon de benchmark die hij/zij wil ('customized to specification'), en dat blijkt maar weer. De consument is zeker niet gebaat bij dit soort praktijken.
Ik ben al helemaal niet voor GITG en TWIMTBP. En al helemaal niet voor het opkopen van benshmarks maar...: Wat CJ ook zegt. nVidia ATi en S3 hebben zelf om shader AA gevraagt. Waarom het dan niet gebruiken als dit onderdeel is van de DX10 standaard ? Want anders hadden we net zo goed bij DX9 kunnen blijven alleen dan gewoon snellere hardware maken voor DX9 en had je ook mooiere games gekregen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
winwiz schreef op dinsdag 19 juni 2007 @ 06:54:
[...]


Koekje van eigen deeg?? Leer de goede dingen van je tegenstander. Misschien (hopelijk) een voorbode van een meer agressieve marktopstelling.
Nee gewoon erg, hopelijk was het gewoon ATI optimalisaties en niet NV prestaties expres naar beneden helpen.

Ik ken eigenlijk geen enkel geval waar NV dit zou gedaan hebben, weet iemand er zo 1?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
k995 schreef op dinsdag 19 juni 2007 @ 08:55:
[...]


Nee gewoon erg, hopelijk was het gewoon ATI optimalisaties en niet NV prestaties expres naar beneden helpen.

Ik ken eigenlijk geen enkel geval waar NV dit zou gedaan hebben, weet iemand er zo 1?
Niet achteraf maar bij lost plannet kreeg ATi de benshmark pas toen iedereen op de wereld die kreeg dus dat is ook een vertekend beeld geven.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 19-06 09:47

Pubbert

random gestoord

Voordat je schijnheilig gaat doen: Bij Lost Planet is het verhaal precies omgekeerd, daar horen we je niet over?

Iets grappigs wat me trouwens opviel bij mn 2900: Als ik maar 1 PCIe 6 pins stekker erin heb, boot de PC ook gewoon door. Alleen als ik een game opstart krijg ik zwart beeld, maar kan gewoon werken in Windows etc. Dus die 2de 6/8pins connector is alleen voor de 3d mode?

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Thund3r schreef op dinsdag 19 juni 2007 @ 09:36:
[...]


Voordat je schijnheilig gaat doen: Bij Lost Planet is het verhaal precies omgekeerd, daar horen we je niet over?

Iets grappigs wat me trouwens opviel bij mn 2900: Als ik maar 1 PCIe 6 pins stekker erin heb, boot de PC ook gewoon door. Alleen als ik een game opstart krijg ik zwart beeld, maar kan gewoon werken in Windows etc. Dus die 2de 6/8pins connector is alleen voor de 3d mode?
Ik gok dat i dan gewoon te weinig power heeft en vast loopt. Mja dan werkt de kaart dus niet echt goed :) als jij bv iets opstart dat windowed 3d doet loopt je pc vast. Lijkt me niet echt wenselijk :D wel grappig dat hij wel start. Bij kaarten met 1 stekker die je zonder stekker wou starten kreeg je een melding dat hij niet aangesloten was en boote de kaart niet. Ben benieuwd wat de kaart doet met 1x8p :) Maar dan heb je denk ik nog power te kort. 75 van mobo en 100 van de 8p connector ? Ik dacht dat die 6p connectors 75 watt konden hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Als ik het allemaal eens zo zie dan lijkt het wel alsof ATI weer een 8500 heeft gebouwd wat betreft performance en compatibiliteit met de aller nieuwste DirectX of zit ik ernaast ??

Vooral dat gedeelte met Shaders en AA enz... ruikt echt naar het verhaal met DirectX 8.0 en 8.1 en die laatste kon de 8500 wel volledig en de Ti4x00 reeks niet :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 19-06 09:47

Pubbert

random gestoord

Astennu schreef op dinsdag 19 juni 2007 @ 09:52:
[...]


Ik gok dat i dan gewoon te weinig power heeft en vast loopt. Mja dan werkt de kaart dus niet echt goed :) als jij bv iets opstart dat windowed 3d doet loopt je pc vast. Lijkt me niet echt wenselijk :D wel grappig dat hij wel start. Bij kaarten met 1 stekker die je zonder stekker wou starten kreeg je een melding dat hij niet aangesloten was en boote de kaart niet. Ben benieuwd wat de kaart doet met 1x8p :) Maar dan heb je denk ik nog power te kort. 75 van mobo en 100 van de 8p connector ? Ik dacht dat die 6p connectors 75 watt konden hebben.
Nou, Vista met Aero werkt wel gewoon met 1 stekker.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Thund3r schreef op dinsdag 19 juni 2007 @ 10:49:
[...]


Nou, Vista met Aero werkt wel gewoon met 1 stekker.
Mja Aero is lang niet zo waar als een 3Dgame. OF bv ATi Tool. Die laatste belast een GPU tot nu toe nog het zwaarste.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • SpeedfreakR
  • Registratie: Mei 2004
  • Laatst online: 19-06 08:04

SpeedfreakR

Zoeffff.....

Even een vraagje he, Waarom zit er nou een 8pins aansluiting op de HD2900XT als je als nog een 2de 6 pins erbij moet stoppen kan je ook net zo goed 2x6 gebruiken i.p.v. 1x8, 1x6.

Acties:
  • 0 Henk 'm!

  • Harmsen
  • Registratie: November 2000
  • Laatst online: 22:15
SpeedfreakR schreef op dinsdag 19 juni 2007 @ 11:21:
Even een vraagje he, Waarom zit er nou een 8pins aansluiting op de HD2900XT als je als nog een 2de 6 pins erbij moet stoppen kan je ook net zo goed 2x6 gebruiken i.p.v. 1x8, 1x6.
Als je gaat overclocken kan het handig zijn dat de kaart net wat meer power heeft, vandaar de 1x8 en 1x6 pin i.p.v. 2x6 pins :)

What a fine day for Science! | Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
k995 schreef op dinsdag 19 juni 2007 @ 08:55:
[...]


Nee gewoon erg, hopelijk was het gewoon ATI optimalisaties en niet NV prestaties expres naar beneden helpen.
Nee, geen ATI optimalisaties, maar DX10 optimalisaties. Een wereld van verschil. De CoJ DX10 engine maakt gebruik van standaard DX10 functies.

Mensen betichtten ATI er ook van dat Valve de Source engine vol met ATI optimalisaties hadden gestopt, de Source engine draaide immers veel beter op de R300 dan de NV3x en men moest een speciaal DX8.1 path inbouwen om een beetje snelheid te krijgen op de NV3x serie.

Achteraf bleek dat de engine gewoon een pure DX9 engine was zonder specifieke optimalisaties voor ATI hardware. Dit bleek vooral toen de NV40 serie uit kwam waar nV DX9 wel goed had gedaan (op Dynamic Branching na dan) en deze gewoon wel op volle snelheid de Source Engine aan kon zonder aan IQ te hoeven in te boeten.

Dat zelfs nVidia in ziet dat Shader AA "the way to go" is voor de toekomst, zegt zelfs David Kirk in 2005:
"It would be expensive for us to try and do it in hardware, and it wouldn't really make sense - it doesn't make sense, going into the future, for us to keep applying AA at the hardware level. What will happen is that as games are created for HDR, AA will be done in-engine according to the specification of the developer.
DX10 biedt developers meer flexibiliteit wanneer het aankomt op HDR + AA. Dus waarom die functionaliteit niet gebruiken? Ik snap niet dat sommige mensen graag zo vast willen houden aan oude methodes? Als het aan hen lag, zaten we nu waarschijnlijk nog met DX7.
Ik ken eigenlijk geen enkel geval waar NV dit zou gedaan hebben, weet iemand er zo 1?
Doom3 engine? En natuurlijk Lost Planet niet te vergeten. nVidia had Lost Planet onder zijn hoede genomen en bracht meteen na de release van de HD2900XT deze benchmark uit waar ze al flink voor geoptimaliseerd hadden. AMD was zo netjes om zich niet te verschuilen achter excusen van "foute shaders" en "expres verkeerd gebruikte hogere instellingen om onze hardware in een verkeerd licht te stellen", maar zei netjes dat ze verwachten dat met nieuwere drivers de game goed zou moeten lopen.

Nogmaals Call of Juarez is niet geoptimaliseerd voor AMD, maar voor DX10. Shader Resolve AA en intensief gebruik van Geometry shaders zijn nu eenmaal nieuwe dingen binnen DX10, die je gebruikt om beeldkwaliteit te verbeteren dan wel performance omhoog te schroeven (of beide tegelijk). Daarnaast is de trend in games altijd geweest om gebruik te gaan maken van langere shaders. AMD en nVidia gebruiken twee verschillende architecturen DX10 aan te pakken. De voor- en nadelen heb ik in de first post omschreven. Games zullen uitwijzen welke van de twee architecturen het meest efficient is.
nero355 schreef op dinsdag 19 juni 2007 @ 09:52:
Als ik het allemaal eens zo zie dan lijkt het wel alsof ATI weer een 8500 heeft gebouwd wat betreft performance en compatibiliteit met de aller nieuwste DirectX of zit ik ernaast ??

Vooral dat gedeelte met Shaders en AA enz... ruikt echt naar het verhaal met DirectX 8.0 en 8.1 en die laatste kon de 8500 wel volledig en de Ti4x00 reeks niet :)
Leuke analogie. Was de 8500 uiteindelijk ook niet sneller dan de GF4 Ti4200 in veel games dankzij betere drivers ondanks de slome start waar hij trager was dan een GF3 Ti500?

AMD is gewoon bezig zoals ze altijd bezig zijn geweest. Zo bevatte de Radeon9700Pro ook al geometry instancing, kan ook adaptive AA en gaat in bepaalde gevallen zoals de grootte van de registers ook al over de SM2.0 standaard heen. Zo is de R600 puur met het oog op DX10 gebouwd. Performance in DX9 was een stuk minder belangrijk.

[ Voor 9% gewijzigd door CJ op 19-06-2007 12:35 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Wel een leuke vergelijking die 8500 :)

Die kon meer dan de TI500 want de TI500 kon geen DX 8.1. En later was de ATi kaart veel sneller dan de TI500 en kon mee komen met de TI4200. Nu maar hopen dat de R700 de 2e 9700 Pro wordt :) Maar nVidia is nu wel erg scherp dus de vraag is of het lukt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
ExtremeTech heeft een leuk stuk gepost over het hele DX10 benchmarking gedoe:
Also, it's curious that Nick points out hardware differences between the AMD and Nvidia's GPUs as a factor in the Call of Juarez. Wasn't DirectX 10 hardware all supposed to be the same, with the only difference being how they perform? Are developers going to have to maintain separate DirectX 10 code paths based on what hardware is running? That seems counter to the DirectX 10 philosophy.
http://www.extremetech.com/article2/0,1697,2147159,00.asp

Een goede vraag die gesteld wordt is... zou nV ook klagen als uit de recente CoJ benchmark versie bleek dat de GTX sneller was dan de HD2900XT?

Edit: Oh ja, en de benchmarks zelf natuurlijk niet vergeten: http://www.extremetech.com/article2/0,1697,2147111,00.asp

Afbeeldingslocatie: http://common.ziffdavisinternet.com/util_get_image/17/0,1425,i=179330,00.gif

Afbeeldingslocatie: http://common.ziffdavisinternet.com/util_get_image/17/0,1425,i=179329,00.gif

Edit 2: En ze hebben ook een DX10 GPU Video Quality Shootout online staan: http://www.extremetech.com/article2/0,1697,2147694,00.asp

[ Voor 23% gewijzigd door CJ op 19-06-2007 12:29 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
# "NVIDIA's DX10 hardware-based multi-sampled AA resolve is disabled in the benchmark, with all NVIDIA GPUs now being forced to use software-based AA resolve similar to the ATI DX10 GPU (which lacks hardware AA resolve). This artificially deflates performance on NVDIA graphics cards and users are not getting the benefit of a key NVIDIA hardware feature.
hm, HW aa resolve is geen key features maar een oude feature, het zou me niet verbazen als de volgende dx10 generatie van nvidia die key feature plots mist...

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 00:26

edward2

Schieten op de beesten

Het feit dat de X2900XT in COJ dx10 met de huidige driver geen AF wordt om een vage reden volkomen genegeerd geloof ik....gezien de huidige perf hit met AF niet iets mee mee te nemen bij een vergelijking.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • MauSS
  • Registratie: Juni 2005
  • Laatst online: 29-06-2023
als we het dan toch even over de 8500 serie hebben,
hier even een golden-oldie :9
(uit de oudedoos van Tomshardware)
Afbeeldingslocatie: http://www.thg.ru/graphic/20011107/images/image012.gif

hier nog even een quote van ZDNet (destijds):

"De ATI Radeon 8500 levert verbluffend realistische beelden op"
"De nVidia GeForce3 Ti 500 wint de snelheidstrofee, maar is ook duurder"
(zoiets zie je nu ook een beetje met de 8800 serie en de 2900 serie)
hoewel 't me persoonlijk niet veel boeit of de ene een paar meer fps haalt dan de andere
:)

[ Voor 50% gewijzigd door MauSS op 19-06-2007 13:02 ]

A world without gadgets is no world ;)


Acties:
  • 0 Henk 'm!

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 14-06 14:41

Oet

[DPC]TG & MoMurdaSquad AYBABTU

MauSS schreef op dinsdag 19 juni 2007 @ 12:54:
als we het dan toch even over de 8500 serie hebben,
hier even een golden-oldie :9
(uit de oudedoos van Tomshardware)
[afbeelding]
Rofl, ik ga zeker te weten terug naar 98SE! Die is echt vet 1337 veel sneller :+

Sorry, kon het niet laten :)

Over drivers en alles gesproken, is er nog iets te melden over het Linux-platform qua AMD/ATi drivers? Ben altijd wel geintresseerd :)

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
CJ schreef op dinsdag 19 juni 2007 @ 12:23:
ExtremeTech heeft een leuk stuk gepost over het hele DX10 benchmarking gedoe:


[...]


http://www.extremetech.com/article2/0,1697,2147159,00.asp

Een goede vraag die gesteld wordt is... zou nV ook klagen als uit de recente CoJ benchmark versie bleek dat de GTX sneller was dan de HD2900XT?

Edit: Oh ja, en de benchmarks zelf natuurlijk niet vergeten: http://www.extremetech.com/article2/0,1697,2147111,00.asp

[afbeelding]

[afbeelding]

Edit 2: En ze hebben ook een DX10 GPU Video Quality Shootout online staan: http://www.extremetech.com/article2/0,1697,2147694,00.asp
De GTX is nog steeds sneller in de max resolutie met AA aan dus ik snap niet waar ze zich druk om maken. Ik vind het verschil tussen de GTS en GTX op die reso trouwens wel erg klein. Ik vraag me af wat de min FPS is. Want dat waren gemiddelde FPS en max FPS.
MauSS schreef op dinsdag 19 juni 2007 @ 12:54:
als we het dan toch even over de 8500 serie hebben,
hier even een golden-oldie :9
(uit de oudedoos van Tomshardware)
[afbeelding]
In het begin was de Ti500 vaak sneller dan de 8500 maar met de wat nieuwere drivers werd de 8500 de winnaar. Volgens mij was de Ti500 ook iets later uit gekomen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Tweaktown: ATI Catalyst 7.5 Performance Analysis
Final Thoughts

Nothing too exciting, at all!
Weer 10 min weggegooid van m'n leven. :(

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 19 juni 2007 @ 11:49:
Nee, geen ATI optimalisaties, maar DX10 optimalisaties. Een wereld van verschil. De CoJ DX10 engine maakt gebruik van standaard DX10 functies.
[...]
Nogmaals Call of Juarez is niet geoptimaliseerd voor AMD, maar voor DX10.
No offence, maar dat wordt een beetje erg moeilijk vol te houden met een door AMD aangekochte benchmark. Wat is het verschil hiertussen en tussen de techdemo's die AMD in eigen beheer creeert..? Slechts het sausje van schijnbare onafhankelijkheid van de developper. Die AMD techdemo's zijn namelijk, net als die van nV trouwens, ook 'DX10 geoptimaliseerd' (kuch).

AMD wordt in HUN CoJ benchmark op 2 manieren bevoordeeld:
1. Exlusief shaderbased AA (er is niet eens meer een mogelijkheid tot vergelijken van hardware AA met shaderbased AA in de huidige AMD CoJ build, dit is er gewoon uitgesloopt)
2. Geen AF op de 2900

Toeval? Dacht het niet... daar betaal je immers toch voor?

Is er trouwens bewijs dat nVidia, net als AMD, de exclusieve publishing-rechten voor Lost Planet heeft opgekocht? Als dat zo is dan gaat het echt de verkeerde kant op in hardwareland... hopelijk is deze CoJ actie eens en nooit meer... :/
Thund3r schreef op dinsdag 19 juni 2007 @ 09:36:
Voordat je schijnheilig gaat doen: Bij Lost Planet is het verhaal precies omgekeerd, daar horen we je niet over?
Indien het 'tzelfde verhaal is (aankoop LP benchmark + rechten door nV) zie ik daar graag een bron van... en mijn oordeel zal dan precies hetzelfde zijn.

Reactie was trouwens zo omdat ik al vermoedde dat hetgeen ik hier van CJ las enigzins bezijdens de werkelijkheid lag, en ik er wat info over was gaan opzoeken... dat het zo ver bezijdens de werkelijkheid lag had ik echter niet kunnen bevroeden totdat ik dat stuk van Extremetech las.
Het grenst i.m.o. bijna aan omkoping en zit weer tegen misleiding van de consument aan ('kijk ons het eens goed doen in deze 'onafhankelijke' benchmark waarvan wij je niet gaan vertellen dat we 'm eigenlijk gekocht hebben'), en daar kan ik nooit echt vrolijk van worden.

[ Voor 31% gewijzigd door Cheetah op 19-06-2007 13:56 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
:D Het is leuk dat ze steeds een de nieuwste Catalyst drivers bekijken, maar het zou leuk zijn als ze ook keken of de geclaimde performanceverbeteringen ook in de praktijk waar werden gemaakt. Ze gebruiken - ik weet niet hoe lang al - steeds dezelfde benchmarks en veranderen er weinig aan.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 78739

Even over deze benchmarks:

Afbeeldingslocatie: http://common.ziffdavisinternet.com/util_get_image/17/0,1425,i=179330,00.gif

Het enige significante verschil tussen de GTX en de XT zie je op een resolutie van 1280x720 zonder AA, het is overkill om zo'n kaart te kopen als je op zo'n lage resolutie speelt zonder AA. Op 1920x1200 met AA is de GTX zelfs iets sneller, maar laten we dit bij de foutenmarge rekenen.

Afbeeldingslocatie: http://common.ziffdavisinternet.com/util_get_image/17/0,1425,i=179329,00.gif

Dit gaat over de maximum framerate, hierin scoort de XT significant beter op lagere resoluties, maar hier geldt ook de vorige opmerking, plus het feit dat de gemiddelde framerate belangrijker is dan de maximum framerate, want als de maximum een grotere afwijking heeft dan de gemiddelde, heeft ook de minimum framerate een grotere afwijking (framedrops). Daarbij moet er nog rekening gehouden worden met het verschil in releasedatum, de GTX is een half jaar ouder. Sterker nog, eigenlijk zou je hier de Ultra moeten vergelijken met de XT (XTX is nog niet gereleased).

[ Voor 5% gewijzigd door Anoniem: 78739 op 19-06-2007 14:12 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Exlusief shaderbased AA (er is niet eens meer een mogelijkheid tot vergelijken van hardware AA met shaderbased AA in de huidige AMD CoJ build, dit is er gewoon uitgesloopt)
Dat het er uitgesloopt is maakt voor mij alles duidelijk, toch? Diegene die dat gedaan heeft wil
gewoon geen benchmarks meer zien gebaseerd op hardware resolved AA. :)

ShaderAA kan best de toekomst zijn, maar om dan te voorkomen dat bepaalde hardware hardwareAA kan doen lijkt mij een beetje ver gaan, want waarom? :)
En dat ShaderAA mooier zou zijn, en hardwareAA arties op zou kunnen leveren icm HDR, laat maar eens zien dan. Het was mij tot nu toe, in de games die HDR+AA mogelijk maken, niet opgevallen. Door hardwareAA er uit te slopen maak je een vergelijking onmogelijk. Met een bepaalde reden? ;) :)

[ Voor 5% gewijzigd door Anoniem: 38733 op 19-06-2007 14:14 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 38733 schreef op dinsdag 19 juni 2007 @ 14:11:
[...]


Dat het er uitgesloopt is maakt voor mij alles duidelijk, toch? Diegene die dat gedaan heeft wil
gewoon geen benchmarks meer zien gebaseerd op hardware resolved AA. :)

ShaderAA kan best de toekomst zijn, maar om dan te voorkomen dat bepaalde hardware hardwareAA kan doen lijkt mij een beetje ver gaan, want waarom? :)
En dat ShaderAA mooier zou zijn, en hardwareAA arties op zou kunnen leveren icm HDR, laat maar eens zien dan. Het was mij tot nu toe, in de games die HDR+AA mogelijk maken, niet opgevallen. Door hardwareAA er uit te slopen maak je een vergelijking onmogelijk. Met een bepaalde reden? ;) :)
Oorspronkelijk zaten er screenshots die vergelijkingen lieten zien. Check de link die Jejking gepost heeft naar Driverheaven die ze zal toevoegen.

De verklaring die Techland geeft is niet op lucht gebaseerd. Meerdere developers hebben aangegeven dat Shader based AA de toekomst heeft doordat er meer mogelijk is. Zie bijvoorbeeld ook het hele gekloot van Valve die wel 4 verschillende manieren van HDR heeft toegepast om ook AA aan de praat te kunnen krijgen. Uiteindelijk hebben ze voor een lagere kwaliteit HDR gekozen dan ze eigenlijk van plan waren om toch AA te kunnen toe passen. Eerdere vormen gaven artefacts die opgelost kunnen worden door dingen in de shaders te doen. Zelfs Microsoft heeft als ik het goed heb verschillende PDFs online staan met de voordelen die DX10 kunnen bieden op het gebied van IQ.

Het punt is echter meer dat shader based AA gewoon een DX10 eigenschap is. G80 moet dit kunnen. Eerst promoten ze hun kaart als 'eerste DX10 kaart voor de massa' en nu gebruikt een game twee grote DX10 features en dan is het niet eerlijk dat de game engine niet de oude features gebruikt?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
CJ schreef op dinsdag 19 juni 2007 @ 11:49:
[...]


Nee, geen ATI optimalisaties, maar DX10 optimalisaties. Een wereld van verschil. De CoJ DX10 engine maakt gebruik van standaard DX10 functies.
Een beetje beter lezen voor je in bold begint zou ik zeggen, ik zeg nergens dat ATI dit doet ik zeg ik HOOP dat ze dit NIET doen, wat wel iets anders is hoor.

Trouwens wel grappig dat JIJ weet wat er allemaal aangepast is in die engine in die paar weken tijd.
Dat zelfs nVidia in ziet dat Shader AA "the way to go" is voor de toekomst, zegt zelfs David Kirk in 2005:
En? Het enige dat uitmaakt is hoe de kaart NU presteerd. Of ze over 3 jaar 5 of 10fps haalt maakt weinig uit.
DX10 biedt developers meer flexibiliteit wanneer het aankomt op HDR + AA. Dus waarom die functionaliteit niet gebruiken? Ik snap niet dat sommige mensen graag zo vast willen houden aan oude methodes? Als het aan hen lag, zaten we nu waarschijnlijk nog met DX7.
Bijna gedaan met je rant? Ik zeg nergens dat ze niks mogen implementeren van DX10 ik hoop enkel dat ze het fair doen, dat is dus het beste voor iedereen.

Ik vraag me af waarom je je plots zo enerveert over dit? Enkel omdat er hier wat kritiek komt op ATI?
Doom3 engine?
Was geoptimaliseerd voor NV en door de slechte opengl van ATI liep die daar idd voor, ik kan me niet herinneren dat die speciaal ATI benadeelden .
En natuurlijk Lost Planet niet te vergeten. nVidia had Lost Planet onder zijn hoede genomen en bracht meteen na de release van de HD2900XT deze benchmark uit waar ze al flink voor geoptimaliseerd hadden. AMD was zo netjes om zich niet te verschuilen achter excusen van "foute shaders" en "expres verkeerd gebruikte hogere instellingen om onze hardware in een verkeerd licht te stellen", maar zei netjes dat ze verwachten dat met nieuwere drivers de game goed zou moeten lopen.
Hetzelfde als DOOMIII, optimaliseren is voor mij geen enkel probleem, integendeel zoalgn ze maar de andere niet benadelen.

Ik denk dus dat je er geen enkele weet?
AMD is gewoon bezig zoals ze altijd bezig zijn geweest. Zo bevatte de Radeon9700Pro ook al geometry instancing, kan ook adaptive AA en gaat in bepaalde gevallen zoals de grootte van de registers ook al over de SM2.0 standaard heen. Zo is de R600 puur met het oog op DX10 gebouwd. Performance in DX9 was een stuk minder belangrijk.
Wat een echt slechte zet was. De kaart had normaal eind 2006 moeten uitkomen, wat dus een vol jaar is voor de echte DX10 titels, de levensloop van de kaart was dus grotendeels in DX9 en niet DX10 . De kaart is voor zover ik kan zien trouwens ook niet zo schitterend in dx10 . Tja elk bedrijf maakt slechte beslissingen.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
CJ schreef op dinsdag 19 juni 2007 @ 12:23:
ExtremeTech heeft een leuk stuk gepost over het hele DX10 benchmarking gedoe:


[...]


http://www.extremetech.com/article2/0,1697,2147159,00.asp

Een goede vraag die gesteld wordt is... zou nV ook klagen als uit de recente CoJ benchmark versie bleek dat de GTX sneller was dan de HD2900XT?

Edit: Oh ja, en de benchmarks zelf natuurlijk niet vergeten: http://www.extremetech.com/article2/0,1697,2147111,00.asp


Edit 2: En ze hebben ook een DX10 GPU Video Quality Shootout online staan: http://www.extremetech.com/article2/0,1697,2147694,00.asp
Waarom zonder AF? Iedereen heeft dat toch aanstaan? nutteloos als benchmark dus, iemand die met AA en AF?

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
k995 schreef op dinsdag 19 juni 2007 @ 16:05:
Was geoptimaliseerd voor NV en door de slechte opengl van ATI liep die daar idd voor, ik kan me niet herinneren dat die speciaal ATI benadeelden .
Heb je de DoomIII geschiedenis wel gevolgd?......zegt je de "Chuck Patch" je iets?

[ Voor 3% gewijzigd door Indy91 op 19-06-2007 16:16 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
[b][message=28253457,noline]
Het punt is echter meer dat shader based AA gewoon een DX10 eigenschap is. G80 moet dit kunnen. Eerst promoten ze hun kaart als 'eerste DX10 kaart voor de massa' en nu gebruikt een game twee grote DX10 features en dan is het niet eerlijk dat de game engine niet de oude features gebruikt?
ALs het er vroeger niet had ingezeten was er idd geen probleem. Vroeger zat het er echter wel in een toevallig nadat ati er zich mee bemoeid word het eruit gehaald.

Zoals ik al zei ik hoop idd dat het teovallig is maar hoe meer ik erover lees hoe minder ik dat denk. Was eigenlijk wel te verwachten als de kaart idd op dx10 gericht is zoals jij zegt moet ATI iets doen om dar goed uit de verf te komen, en in al de demo's en spelen daarvoor was dit niet het geval. ATI doent nog steeds om winst te maken, als ze dat kunnen door wat benchmarks te vervalsen, waarom niet?

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Indy91 schreef op dinsdag 19 juni 2007 @ 16:15:
[...]

Heb je de DoomIII geschiedenis wel gevolgd?......zegt je de "Chuck Patch" je iets?
Ik had een X800pro op dat moment dus ja ik ben er wel mee bezig geweest ja. ATI liep op dat moment gewoon achter in opengl, dat was in andere opengl titles niet anders.

De chuck patch heb ik later gebruikt voor oblivion.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Indy91 schreef op dinsdag 19 juni 2007 @ 16:15:
[...]

Heb je de DoomIII geschiedenis wel gevolgd?......zegt je de "Chuck Patch" je iets?
Wat die niet voor Oblivion om HDR + AA aan te krijgen ?

Doom 3 maakt wel veel gebruik van z-stensils en nVidia heeft er daar super veel van. ATi minder. Andere games leunen daar ook niet zo zwaar op als Doom III. Dus dat zou CJ kunnen bedoelen ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107626

CJ schreef op dinsdag 19 juni 2007 @ 14:25:
[...]


Oorspronkelijk zaten er screenshots die vergelijkingen lieten zien. Check de link die Jejking gepost heeft naar Driverheaven die ze zal toevoegen.

De verklaring die Techland geeft is niet op lucht gebaseerd. Meerdere developers hebben aangegeven dat Shader based AA de toekomst heeft doordat er meer mogelijk is. Zie bijvoorbeeld ook het hele gekloot van Valve die wel 4 verschillende manieren van HDR heeft toegepast om ook AA aan de praat te kunnen krijgen. Uiteindelijk hebben ze voor een lagere kwaliteit HDR gekozen dan ze eigenlijk van plan waren om toch AA te kunnen toe passen. Eerdere vormen gaven artefacts die opgelost kunnen worden door dingen in de shaders te doen. Zelfs Microsoft heeft als ik het goed heb verschillende PDFs online staan met de voordelen die DX10 kunnen bieden op het gebied van IQ.

Het punt is echter meer dat shader based AA gewoon een DX10 eigenschap is. G80 moet dit kunnen. Eerst promoten ze hun kaart als 'eerste DX10 kaart voor de massa' en nu gebruikt een game twee grote DX10 features en dan is het niet eerlijk dat de game engine niet de oude features gebruikt?
Eens hoor. Over shader AA werd geloof ik al sinds 2004 over gesproken, dus het komt zeker niet uit de lucht vallen, en dat MSAA niet langer stand zou houden was toen ook al bekend. Rainbow Six Vegas had ook allerlei issues met AA, Unreal 3 Engine, Battlefield Bad Company gebruikte geen AA in hun demo. Een teken aan de wand. Dit gaan we ongetwijfeld nog vaker zien in de toekomst. NVidia moest gewoon zijn huiswerk beter doen, en de gevolgen zullen aan hunzelf te wijten zijn.

En cheetah stop eens met dat kinderachtige gedrag. Als het niet in het straatje van nVidia past dan is t gelijk niet meer fair en gekocht bla die bla. Laat nVidia maar met een eigen 'chuck'-patch komen, als ze er wat aan willen doen en anders jammer dan, er zullen nog genoeg TWIMTBP games die je uitstekend zult kunnen draaien met je GTX :>

Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 19-06 09:47

Pubbert

random gestoord

NV had toch vooral baat bij Doom3 door dat ultrashadow?

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
k995 schreef op dinsdag 19 juni 2007 @ 16:05:
[...]
En? Het enige dat uitmaakt is hoe de kaart NU presteerd. Of ze over 3 jaar 5 of 10fps haalt maakt weinig uit.
Het maakt wel uit, de R6xx architectuur is al 3 jaar in ontwikkeling! Deze architectuur zal veel langer meegaan dan er HD2xxx producten worden verkocht.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 19 juni 2007 @ 14:25:
Het punt is echter meer dat shader based AA gewoon een DX10 eigenschap is. G80 moet dit kunnen. Eerst promoten ze hun kaart als 'eerste DX10 kaart voor de massa' en nu gebruikt een game twee grote DX10 features en dan is het niet eerlijk dat de game engine niet de oude features gebruikt?
Mijn punt is echter meer dat AMD een benchmark van een zogenaamd 'onafhankelijke' gameproducent doodleuk opkoopt en vervolgens voor hun eigen hardware (laat) customizen (onder meer door het weglaten van bestaande features, die door alle kaarten worden ondersteund maar waar hun eigen hardware niet zo denderend in is) - en dan m.n: dat vervolgens niet publiekelijk meldt, en de gamedevelopper het laat voordoen alsof 't een 'designbeslissing' van hunzelf was.

We hebben het hier over een feature die erin zat en er blijkbaar ten behoeve van ATi uitgesloopt is, vanwege niet meer onafhankelijk verifieerbare redenen... voor zover we nog van 'onafhankelijk' kunnen praten that is. Da's nog afgezien van dat AF - een ander vooralsnog niet al te sterk punt van ATi - op de R600 'toevallig' ook niet werkt in de bench.

Doet me toch echt sterk denken aan wat truukjes die nV bij het GFFX fiasco gebruikte...
Als nV bovenstaand had gedaan (gamebenchmarks stiekum achter de schermen aankopen en dan doen alsof het 'onafhankelijke' benchmarks zijn) zou het topic weer 's te klein zijn... maja, 'tis ATi natuurlijk en dan mag het wel natuurlijk... sterker nog, dan is het volslagen logisch dat het gebeurt :/

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
oeLangOetan schreef op dinsdag 19 juni 2007 @ 17:40:
[...]

Het maakt wel uit, de R6xx architectuur is al 3 jaar in ontwikkeling! Deze architectuur zal veel langer meegaan dan er HD2xxx producten worden verkocht.
Klopt helemaal. Net zoals de R300 die als basis gebruikt werd voor de R4x0 en R5x0 generatie. Zo zal de R6x0 ook gebruikt worden als basis voor volgende generaties.

Eric Deemers zegt trouwens dit over de performance:
As far as increases in performance from the drivers, we have shown quite a bit and there is more to come -- But, again, no strick promises can be made here. In terms of DX10 performance, yes, I think our stuff is significantly better. All GS testing shows that we give full shader core resources to GS and it outperforms the competition significantly. As more DX10 titles come out and we tune our new drivers, I expect to shine. But, again, I cannot *promise* that.
Laat de games maar komen met echte DX10 stuff zoals veel geometry shading en shader based resolve AA. Ik heb het wel gehad met games die van huis uit geen AA kunnen doen. De DX10 oplossing lijkt voor verlichting te gaan zorgen.

Over CoJ, zelfs in de eerste benchmark die door AMD werd vrijgegeven werkte AA niet op zowel de HD2900XT als de GF8800GTX. Statement van AMD hierover uit een link die eerder door iemand hier is gepost:
"The game’s developer, Techland has found that this was caused by an application issue when MSAA is enabled. The benchmark can be run on both ATI Radeon and NVIDIA hardware with MSAA disabled. This application issue will be fixed in an upcoming patch available in the next couple of weeks. The full DirectX 10 version of Call of Juarez will be available to the public sometime in June with full functionality for all DirectX 10 capable graphics cards."
Techland heeft nu in de nieuwste versie van hun DX10 engine AA geactiveerd. En wel DX10 based AA. Je zou toch zeggen dat echte DX10 hardware er geen problemen mee zou moeten hebben.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Cheetah schreef op dinsdag 19 juni 2007 @ 18:25:
[...]
Mijn punt is echter meer dat AMD een benchmark van een zogenaamd 'onafhankelijke' gameproducent doodleuk opkoopt en vervolgens voor hun eigen hardware (laat) customizen (onder meer door het weglaten van bestaande features, die door alle kaarten worden ondersteund maar waar hun eigen hardware niet zo denderend in is) - en dan m.n: dat vervolgens niet publiekelijk meldt, en de gamedevelopper het laat voordoen alsof 't een 'designbeslissing' van hunzelf was.
Uhm, opkoopt? Lets say TWIMTBP maar dan een ATI variant
We hebben het hier over een feature die erin zat en er blijkbaar ten behoeve van ATi uitgesloopt is, vanwege niet meer onafhankelijk verifieerbare redenen... voor zover we nog van 'onafhankelijk' kunnen praten that is. Da's nog afgezien van dat AF - een ander vooralsnog niet al te sterk punt van ATi - op de R600 'toevallig' ook niet werkt in de bench.
We hebben het hier over een feature die onnodig is in een DX 10 game die je software onodig zwaar maakt bedoel je zeker ;)

You can't diss others when dissed by own performance

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Cheetah schreef op dinsdag 19 juni 2007 @ 18:25:
[...]
Mijn punt is echter meer dat AMD een benchmark van een zogenaamd 'onafhankelijke' gameproducent doodleuk opkoopt en vervolgens voor hun eigen hardware (laat) customizen (onder meer door het weglaten van bestaande features, die door alle kaarten worden ondersteund maar waar hun eigen hardware niet zo denderend in is) - en dan m.n: dat vervolgens niet publiekelijk meldt, en de gamedevelopper het laat voordoen alsof 't een 'designbeslissing' van hunzelf was.

We hebben het hier over een feature die erin zat en er blijkbaar ten behoeve van ATi uitgesloopt is, vanwege niet meer onafhankelijk verifieerbare redenen... voor zover we nog van 'onafhankelijk' kunnen praten that is. Da's nog afgezien van dat AF - een ander vooralsnog niet al te sterk punt van ATi - op de R600 'toevallig' ook niet werkt in de bench.

Doet me toch echt sterk denken aan wat truukjes die nV bij het GFFX fiasco gebruikte...
Als nV bovenstaand had gedaan (gamebenchmarks stiekum achter de schermen aankopen en dan doen alsof het 'onafhankelijke' benchmarks zijn) zou het topic weer 's te klein zijn... maja, 'tis ATi natuurlijk en dan mag het wel natuurlijk... sterker nog, dan is het volslagen logisch dat het gebeurt :/
Zo'n beetje iedereen in de business is het er wel over eens dat nVidia in haar 'marketing' een stuk aggressiever is dan ATI. Dus laat ATI ook ns een keer. Het is niet meer dan logisch dat ATI nVidia eens met haar eigen wapens aan gaat vallen.

Verder vind ik jou ook behoorlijk gekleurd. nVidia's TWIMBTP vindt je prima maar dit kan ineens helemaal niet door de beugel.

Persoonlijk ben ik van zowel TWIMTBP en GITG niet gecharmeerd omdat er toch redelijk exclusief geoptimaliseerd wordt voor 1 merk. Dit is simpelweg niet in het belang van de game-enthusiast. Deze mag verwachten van de publisher dat het spel op allebei de leading hardware vendors goed loopt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Cheetah schreef op dinsdag 19 juni 2007 @ 18:25:
[...]
We hebben het hier over een feature die erin zat en er blijkbaar ten behoeve van ATi uitgesloopt is,
net niet, die aa resolve ergens tussen de tone-mapping gebeuren & moet aangepast worden zodat de aa resolve en de tonemapping overeen komen, veel werk me dunkt, normale msaa is gewoon een een setting.

Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Ben het helemaal met Help!!! eens, als je een dure pc koopt verwacht je toch dat je overal leuke fps kan draaien :)

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Help!!!! schreef op dinsdag 19 juni 2007 @ 19:08:
[...]
Persoonlijk ben ik van zowel TWIMTBP en GITG niet gecharmeerd omdat er toch redelijk exclusief geoptimaliseerd wordt voor 1 merk. Dit is simpelweg niet in het belang van de game-enthusiast. Deze mag verwachten van de publisher dat het spel op allebei de leading hardware vendors goed loopt.
Hier heb je gelijk in. Ik had verwacht - of beter gezegd gehoopt - dat DX10 hier een einde aan zou maken, want immers zijn de regels nu een stuk strenger dan bv met DX9.

Wat me opvalt is dat nVidia - en sommige mensen hier - moord en brand schreeuwen als de GF8800GTX met een kleine marge verliest van een kaart die €150 goedkoper is in 1 enkele DX10 benchmark, terwijl het in veel andere benchmarks gewoon wint. De PR machine van NV begint echter overuren te draaien om CoJ meteen de grond in te boren. Je zou bijna gaan denken dat het een teken aan de muur is die nVidia probeert te verbergen. Ik ga er niet van uit dat het zo is, maar het gedrag vind ik op z'n minst opvallend.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 19 juni 2007 @ 18:44:
Laat de games maar komen met echte DX10 stuff zoals veel geometry shading en shader based resolve AA. Ik heb het wel gehad met games die van huis uit geen AA kunnen doen. De DX10 oplossing lijkt voor verlichting te gaan zorgen.
Ik wil graag eerst het verschil met hardware based AA willen waarnemen.
Dat had gekund in CoJ die beide paden bevat... maar oh jah, het hardwarepad werd uitgeschakeld.
Over CoJ, zelfs in de eerste benchmark die door AMD werd vrijgegeven werkte AA niet op zowel de HD2900XT als de GF8800GTX.
Typisch... verschillende andere sites hebben namelijk gewoon CoJ DX10 met hardware AA getest.
E.e.a. heeft wellicht ermee te maken dat die benchmark bij AMD vandaan kwam...
Statement van AMD hierover uit een link die eerder door iemand hier is gepost:
De statement van dezelfde AMD die zich de benchmark heeft aangeschaft en tot de constatering kwam dat hun 2900 met hardware based AA - zoals in de meeste andere hardware based AA games - niet echt lekker presteerde?

Tja, AMD noemt het een 'application issue'... ik zoek de issue eigenlijk eerder elders... op precies dezelfde plek als in de andere games die hardware AA doen om precies te zijn.
Techland heeft nu in de nieuwste versie van hun DX10 engine AA geactiveerd. En wel DX10 based AA. Je zou toch zeggen dat echte DX10 hardware er geen problemen mee zou moeten hebben.
Ik zou graag zowel een performance als een IQ delta zien van de benchmark met hardware en met shader based AA. Een game met beide paden: prachtige opportunity om de benefits te bekijken zou je denken. Maar oh ja, probleempje... hardware AA mag in de CoJ bench niet meer van ATi :/
Hekking schreef op dinsdag 19 juni 2007 @ 18:59:
Uhm, opkoopt? Lets say TWIMTBP maar dan een ATI variant
<en>
Help!!!! schreef op dinsdag 19 juni 2007 @ 19:08:
[...] laat ATI ook ns een keer. Het is niet meer dan logisch dat ATI nVidia eens met haar eigen wapens aan gaat vallen.

Verder vind ik jou ook behoorlijk gekleurd. nVidia's TWIMBTP vindt je prima maar dit kan ineens helemaal niet door de beugel.
Errrm, lees anders even terug...
Door videocard manufacturers opkopen van externe gamebenchmarks, compleet met exclusive publishing rechten en al - en dat niet melden - gaat toch wel een heel stevige brug verder dan de reguliere TWIMTBP en GITG programma's. Ik wacht nog steeds op een link waaruit blijkt dat nV dit ook zou doen. In any case: Als de nieuwe strategie voor GITG wordt kan ik er niet blij van worden.
Ik vind de manier waarop ATi te werk gaat sinds ze onderdeel van AMD zijn met name op gebied van informatievoorziening - en/of informatieweglating - langzamerhand erg dubieus worden.
CJ schreef op dinsdag 19 juni 2007 @ 19:48:
Wat me opvalt is dat nVidia - en sommige mensen hier - moord en brand schreeuwen als de GF8800GTX met een kleine marge verliest van een kaart die €150 goedkoper is in 1 enkele DX10 benchmark, terwijl het in veel andere benchmarks gewoon wint. De PR machine van NV begint echter overuren te draaien om CoJ meteen de grond in te boren. Je zou bijna gaan denken dat het een teken aan de muur is die nVidia probeert te verbergen. Ik ga er niet van uit dat het zo is, maar het gedrag vind ik op z'n minst opvallend.
Ik zou het anders willen stellen:
Als AMD/ATi zo overtuigd was van hun hardware zouden ze niet stiekum een externe DX10 gamebenchmark incl. alle rechten opkopen, customizen naar hun eigen hardware, reeds aanwezige AA paden eruitslopen en vervolgens doen alsof het allemaal rechtstreeks van Techland afkomstig is.

Als je werkelijk vertrouwen hebt in je hardware lijkt het me niet dat je zo laag hoeft te gaan om te proberen de wereld te overtuigen. Ik zie dus - als je het niet erg vind - een heel ander teken aan de wand... een teken dat overigens hand in hand gaat met de nog steeds niet vertoonde drastische performanceverbeteringen (o.m. met AA en AF) in de laatste catalyst.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 20:34
Pff, wat een drukte om een benchmark. Gewoon het spel niet kopen als je een Nvidia kaart hebt. Maw. de uitgever van het spel straffen voor het uitbrengen van crippleware. CoJ is nou ook niet bepaald het spel van het jaar.
Pagina: 1 2 ... 6 Laatste

Dit topic is gesloten.

Let op:
Laatste tijd zien we vaak tech-vragen hier langskomen, dat is niet de bedoeling! Open daar gewoon een los topic voor.

Wat we niet willen zien:
- Ati vs nVidia flamerij
- Op de man spelen, fanboy-labeling (OW wegens flamen)
- Slowchat...
- het 1001 keer herhalen van zelfde 'nieuws' (R650 vertraagd...) is geen nieuws, dus offtopic.
- Bovengenoemde vragen bij problemen met nieuwe hardware, op daarvoor gewoon een nieuw topic

Wat dan wel?
- Goed _onderbouwde_ reacties over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)