Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 27 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 5 6 Laatste
Acties:
  • 2.334 views sinds 30-01-2008

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Astennu schreef op zondag 13 november 2005 @ 12:10:
Waarom zegt ATi niet gewoon dat de X1600 standaard op 690 MHz geclockt moet worden ? ik bedoel die core kan met stock cooling zonder voltage verhogingen 800 mhz aan. Daar zit de max ergens. En met 100 MHz boost heb je toch een leuke redelijk snelle kaart die dan wel mee kan met de GTO en GTO2.
nVidia heeft nog G72 en G73 voor de low- en mid end markt klaar staan, misschien dat ATI daarom wacht met het verhogen van de kloksnelheid voor haar X1600 serie.

It takes two fools to argue.


  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 19-10 09:25

Pubbert

random gestoord

Het plaatje even uitvergroot en gesharpend:

http://www.meldersnet.nl/~thunder/x.jpg

Vooral boven de X van XL zie je duidelijk een 8, dus het plaatje lijkt me zeker van een X800XL doos te zijn.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
Thund3r schreef op zondag 13 november 2005 @ 21:12:
Het plaatje even uitvergroot en gesharpend:

[afbeelding]

Vooral boven de X van XL zie je duidelijk een 8, dus het plaatje lijkt me zeker van een X800XL doos te zijn.
Eerlijk gezegd.. ik zie helemaal niks.. alleen de X van X(1)800 ...

[Voor 9% gewijzigd door jimbojansen op 13-11-2005 21:22]


  • hjs
  • Registratie: juni 1999
  • Niet online
Als opvolger van mijn Diamond Viper 550 een Diamond Viper X1800 :)

  • Astennu
  • Registratie: september 2001
  • Nu online
Hacku schreef op zondag 13 november 2005 @ 18:54:
[...]


nVidia heeft nog G72 en G73 voor de low- en mid end markt klaar staan, misschien dat ATI daarom wacht met het verhogen van de kloksnelheid voor haar X1600 serie.
Tja micshien wel. Met wat tweaks aan de core zou 750 a 800 mhz goed mogelijk zijn. Maar als ik het goed begreep krijgt de opvolger ( de RV560 ) 8 Piplines ik denk dat hij dan wel dezelfde opzet krijgt als de R580. Dus 1-3-1-1 ipv 1-3-2-1 wat het nu is. Maar dat moet aanzienlijk sneller zijn. Hij heeft theoreties meer shader power dan de X1800. En de X1600 zou wel een mooi low range kaartje zijn alleen de vraag is of ATi em zo kan aanprijzen zonder verlies te maken. Mischien als ze de Ring bus er uit halen.. Dan zou i wel een stuk goedkoper kunnen worden. Maar dit is allemaal mooie specualtie. Niet dat er ooit iets van komt maar het zou wel mooi zijn :D

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Thund3r schreef op zondag 13 november 2005 @ 21:12:
Het plaatje even uitvergroot en gesharpend:

[afbeelding]

Vooral boven de X van XL zie je duidelijk een 8, dus het plaatje lijkt me zeker van een X800XL doos te zijn.
Als je gewoon even naar de code kijkt dan zie je dat elk plaatje viperx800xl.jpg heet. Dit is bij de Viper X1800XL zo, maar ook bij de Viper X1600 en bij de Viper X1300.

offtopic:
Heb zelf ook nog een Viper gehad, namelijk de Viper II met de brakke Savage2000 chip.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Nu online
CJ schreef op zondag 13 november 2005 @ 23:33:
[...]


Als je gewoon even naar de code kijkt dan zie je dat elk plaatje viperx800xl.jpg heet. Dit is bij de Viper X1800XL zo, maar ook bij de Viper X1600 en bij de Viper X1300.

offtopic:
Heb zelf ook nog een Viper gehad, namelijk de Viper II met de brakke Savage2000 chip.
Kwist niet dat die lui nog bestonden. Die hadden toch S3 overgenomen of zo ? Er was toen wel iets mee want ze brachten alleen maar kaarten uit met S3 chipsets er op. En van die Kyro lui hebben we trouwens ook niet veel meer gehoord. Waaren allemaal leuke kaartjes maar de drivers waren toen gewoon te slecht waardoor de Geforce kaarten sneler waren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • m277755
  • Registratie: februari 2004
  • Laatst online: 22-10-2012

m277755

leest meer dan hij typt

De kyro kaarten waren vaak sneller dan de geforcen voor dezelfde prijs, de z-buffer wertkte alleen niet helemaal lekker waardoor max payne (ook al heet ie daar niet zo) in 3dmark 01 bij mij half voor de paal langs liep ipv achter de paal :p
Later kwamen de spellen die hardware T&L ondersteunden en vereisten en toen was het eigelijk wel afgelopen met de kyro

Ik heb nu een x1800xl en ik heb die demo's van ati eens bekeken; toystore is inderdaad heel erg mooi. Ik had POM (diepte in een texture zonder dat de leveldesiner er rekening mee hoeft te houden) al wel een in een demofilpje gezien van de aankomende unreal, maar om het dan ook realtime gerendered te zien is gaaf. Zelfs mijn vader kon het waarderen, ookal is hij geen graphics freak.

Ik zou wel wat plaatjes willen posten, maar al mijn plaatjes worden zo met fraps:
http://img321.imageshack.us/img321/5576/atidemo14as.th.jpg

[Voor 17% gewijzigd door m277755 op 14-11-2005 00:55]


  • Astennu
  • Registratie: september 2001
  • Nu online
m277755 schreef op maandag 14 november 2005 @ 00:49:
De kyro kaarten waren vaak sneller dan de geforcen voor dezelfde prijs, de z-buffer wertkte alleen niet helemaal lekker waardoor max payne (ook al heet ie daar niet zo) in 3dmark 01 bij mij half voor de paal langs liep ipv achter de paal :p
Later kwamen de spellen die hardware T&L ondersteunden en vereisten en toen was het eigelijk wel afgelopen met de kyro

Ik heb nu een x1800xl en ik heb die demo's van ati eens bekeken; toystore is inderdaad heel erg mooi. Ik had POM (diepte in een texture zonder dat de leveldesiner er rekening mee hoeft te houden) al wel een in een demofilpje gezien van de aankomende unreal, maar om het dan ook realtime gerendered te zien is gaaf. Zelfs mijn vader kon het waarderen, ookal is hij geen graphics freak.

Ik zou wel wat plaatjes willen posten, maar al mijn plaatjes worden zo met fraps:
[afbeelding]
Dat lijkt wel op mijn bootlogo met mijn X1800 XL + een DFI Ultra D. Die heeft er ook last van. Ben nu aan het wachten op een goede bios update.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • m277755
  • Registratie: februari 2004
  • Laatst online: 22-10-2012

m277755

leest meer dan hij typt

Het gekke is dat het beeld tijdens de demo helemaal niet zo is, maar gewoon helemaal goed. Als ik met fraps screenshots of filmpjes maak van spellen worden ze wel goed, dus ik denk dat het aan de samenwerken van de ati demo engine en fraps ligt

Ik heb normaal gesproken het bootlogo van mijn ultra d uitstaan, dus mij was niks opgevallen, maar ik heb het even getest en ik krijg ook rare kleuren te zien

[Voor 25% gewijzigd door m277755 op 14-11-2005 10:28]


  • MaTr1x
  • Registratie: maart 2003
  • Laatst online: 11-10 12:42
Goede review van de X1800XT 512MB @ Bit-tech.

Naast de Reference 7800 GTX 256MB kaart vergelijken ze 'm ook met de XFX GeForce 7800 GTX Extreme Gamer Edition 256MB, de kaart die in hun 7800 GTX Extreme Edition Head-to-Head als beste 265MB GTX eindigt.
It is hard to compare the Radeon X1800XT 512MB to the baseline performance you are going to get from a GeForce 7800 GTX at the moment, because the prices are so far apart. Having said that, the Radeon X1800XT 512MB is noticeably faster in just about every situation that they clashed. However, we don't believe that the additional £45 that it will cost you over the price of BFGTech's GeForce 7800 GTX OC (clocked at 460/1300MHz) is worth it at this moment in time.
There's certainly a hell of a lot of promise in ATI's Radeon X1800XT, and we hope that it will become readily available and competitive with the lower clocked GeForce 7800 GTX's on price. When that happens, there shouldn't be any negative thoughts entering your mind when you're considering dropping your hard earned cash on one of these babies.

π MW finishers


  • Astennu
  • Registratie: september 2001
  • Nu online
m277755 schreef op maandag 14 november 2005 @ 10:23:
Het gekke is dat het beeld tijdens de demo helemaal niet zo is, maar gewoon helemaal goed. Als ik met fraps screenshots of filmpjes maak van spellen worden ze wel goed, dus ik denk dat het aan de samenwerken van de ati demo engine en fraps ligt

Ik heb normaal gesproken het bootlogo van mijn ultra d uitstaan, dus mij was niks opgevallen, maar ik heb het even getest en ik krijg ook rare kleuren te zien
Ah kijk ik ben dus niet de enige. Met een bios update zou het igg weg zijn. Alleen ik vraag me af welke. Ik heb zelf de 704-BT2A bios. Volgens mij is dat een van de nieuwste.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • m277755
  • Registratie: februari 2004
  • Laatst online: 22-10-2012

m277755

leest meer dan hij typt

Als het enige probleem is dat het bios logo niet goed wordt weergegeven maakt het mij helemaal niet uit; ik heb hem toch atijd uitstaan. Bedoel je trouwens bios van het moederbord of de videokaart? Ik kan van beide niet vinden hoe ik moet zien welke versie ik heb

Ik heb trouwens sinds ik de nieuwe 5.11 geinstalleerd had problemen met het geheugen van clockspeed veranderen. Met 5.10 kon ik met ati overclocker zonder problemen zowel de core als het geheugen veranderen, nu is het zo dat ik met zowel ati overclocker als overdrive de core kan veranderen, maar als ik de snelheid van het geheugen aanpas gaat het mis: met overclocker krijg ik na een tijdje zwart scherm een vpu recover fout en met overdrive reboot de pc meteen na het aanpassen.

[Voor 48% gewijzigd door m277755 op 14-11-2005 13:03]


  • Astennu
  • Registratie: september 2001
  • Nu online
Ik bedoel de bios versie van het moederbord. Ik weet niet hoe je de versie kan zien. Ik weet em toevallig omdat ik die geflashed heb ik denk dat jij gewoon een standaart 318 er in hebt zitten.

Maar volgens mij is dat idd het enige. Ik heb het gevoel dat het iets met dat Avivo te maken heeft maar ik weet het niet zeker.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

MaTr1x schreef op maandag 14 november 2005 @ 11:37:
Goede review van de X1800XT 512MB @ Bit-tech.

Naast de Reference 7800 GTX 256MB kaart vergelijken ze 'm ook met de XFX GeForce 7800 GTX Extreme Gamer Edition 256MB, de kaart die in hun 7800 GTX Extreme Edition Head-to-Head als beste 265MB GTX eindigt.
Weer een zware titel erbij waarin ATi met HDR ingeschakeld verslagen wordt door zelfs een stock GTX:
Age of Empires III

Dit begint nu langzamerhand echt op meer dan een incident te lijken... :X
Alleen jammer dat ze niet overal het aantal fps bij vermelden (slechts bij enkele games)... :/

<edit>
De eerste plaatjes van GTX512 beginnen binnen te komen: klik en klik en klik en klik
(koreaanse site - onleesbaar dus maar plaatjes spreken voor zich)

[Voor 35% gewijzigd door Cheetah op 14-11-2005 13:45]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cyberamp
  • Registratie: april 2004
  • Laatst online: 21-09 17:09

Cyberamp

Multithreaded Tweaker

FirefoxAG schreef op maandag 14 november 2005 @ 13:05:

<edit>
De eerste plaatjes van GTX512 beginnen binnen te komen: klik en klik en klik en klik
(koreaanse site - onleesbaar dus maar plaatjes spreken voor zich)
Zo onleesbaar is het nu ook weer niet, de getallen zijn toch duidelijk :o

Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

2e review 7800GTX 512 vs TOP vs X1800XT: http://www.digit-life.com/articles2/video/g70-7.html

De review pakt trouwens een model op stock clocks (550/1700). Een XFX loopt bijv. 580/1730.
Qua overclocking:
Now what concerns overclocking. I expected that the selected G70 would run at 550 MHz nearly at maximum output, I was wrong. The card worked fine at 620/1930 MHz! It's clear that the memory running at 900 (1800) MHz can demonstrate a decent potential, but the core running at 620 MHz is a miracle!
13% OC!! De GTX512 kan op core dus zo'n beetje de stock speeds van de X1800XT halen _/-\o_

Overall gezien, de conclusie: Bring on that R580 ATi!! :P

[Voor 63% gewijzigd door Cheetah op 14-11-2005 14:47]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

FirefoxAG schreef op maandag 14 november 2005 @ 14:27:
2e review 7800GTX 512 vs TOP vs X1800XT: http://www.digit-life.com/articles2/video/g70-7.html

De review pakt trouwens een model op stock clocks (550/1700). Een XFX loopt bijv. 580/1730.
Qua overclocking:
[...]
De GTX512 kan op core dus zo'n beetje de stock speeds van de X1800XT halen _/-\o_

Overall gezien, de conclusie: Bring on that R580 ATi!! :P
Cherry?
To our dismay, Nvidia really has maxed out their core and memory this time, leaving little headroom for fun. Using the below Nvidia software utility, we were only able to overclock the video card to 581 MHz core / 1.75 GHz memory (Default 550/1700).
http://www.techwarelabs.c...a7800gtx512/index_5.shtml

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Brainless-NL
  • Registratie: oktober 2002
  • Laatst online: 06-10 15:58
CyberAmp schreef op maandag 14 november 2005 @ 14:05:
[...]


Zo onleesbaar is het nu ook weer niet, de getallen zijn toch duidelijk :o
Idd. Ik vind dat de prestaties echt GOED meevallen! Ik had marginale verbeteringen verwacht, maar dit slaat alles. In sommige gevallen is er sprake van een verbetering van meer dan 50% minimaal (tov de ref.GTX)!

Naar mijn mening is de astronomische prijs nu ook meer gerechtvaardigd.

Kan iemand mij verklaren hoe nvidia op 110nm zulke speeds weet te halen? Hebben ze niet stiekem 90nm gebruikt? Of zijn er nieuwe technieken gebruikt die zulke clocks mogelijk maken? Een verklaring als "een aangepast PCB" lijkt mij te simpel.

[Voor 25% gewijzigd door Brainless-NL op 14-11-2005 15:00]


  • Astennu
  • Registratie: september 2001
  • Nu online
leuk verschil 580 max en 620 max. Dus zullen er idd wel weer TOP 512 en niet TOP 512's komen.

Maar die R580 mag idd ook wel komen van mij :P koop ik er mooi een :D

Over dat HRD gebeuren. Ik denk dat er nog veel aan de drivers moet gaan gebeuren. Want ik denk niet dat die prestatie zo slecht zal blijven anders flopt de hele X1k serie.

Edit:

Die test deugt niet. Er staat bij doom 3 98% winst TOV de XT. Dus duidelijk oude drivers :\ niet eens 5.10a ook geen 5.11. Dus een test die niet meer te gebuiken is. Dus nu maar wachten op Anandtech. ik denk dat je dan een iets minder dominant beeld krijgt. Maar nog steeds wel dikke winst voor de GTX512. Wat wel grappig is is dat in een aantal games de XT zelfs sneller was dan de GTX512 in AAA en HQ AF.

[Voor 39% gewijzigd door Astennu op 14-11-2005 14:49]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Zou kunnen, maar houdt ook in gedachte dat de speeds die techwarelabs haalde zo'n beetje de stock speeds van de XFX versie zijn...
Kan dus ook een pechkaart of een ander probleem zijn, maar dat zullen we snel genoeg weten bij het binnenkomen van verdere reviews :)

Iets anders interessants uit de digit-life review: nV heeft bij GTX512 de ROP, Shader en Geometry Unit gelijkgeklokt. Geen asynchrone clocks meer dus...
Ik hoop dat er een bios voor de standaard GTX komt die dit ook mogelijk maakt. Ik heb namelijk het idee dat die mss ook veel verder kunnen klokken als er niet met asynchrone speeds word gedraaid :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Brainless-NL schreef op maandag 14 november 2005 @ 14:41:
Kan iemand mij verklaren hoe nvidia op 110nm zulke speeds weet te halen? Hebben ze niet stiekem 90nm gebruikt? Of zijn er nieuwe technieken gebruikt die zulke clocks mogelijk maken? Een simpel verklaring als "een aangepast PCB" lijkt mij te simpel.
Dit zou wel eens de verklaring kunnen zijn:
Iets anders interessants uit de digit-life review: nV heeft bij GTX512 de ROP, Shader en Geometry Unit gelijkgeklokt. Geen asynchrone clocks meer dus...
<edit> @astennu:
Astennu schreef op maandag 14 november 2005 @ 14:43:
Die test deugt niet. Er staat bij doom 3 98% winst TOV de XT. Dus duidelijk oude drivers :\ niet eens 5.10a ook geen 5.11. Dus een test die niet meer te gebuiken is. Dus nu maar wachten op Anandtech. ik denk dat je dan een iets minder dominant beeld krijgt. Maar nog steeds wel dikke winst voor de GTX512. Wat wel grappig is is dat in een aantal games de XT zelfs sneller was dan de GTX512 in AAA en HQ AF.
Over welke test heb je het? Bij Digit-Life is het maximale verschil tussen GTX512 en de XT 46% @1600x1200 noAA/noAF, en 27% met 4xAA/16xAF
Ze gebruiken daar ook 5.10a:
ATI drivers 6.575 (CATALYST 5.10a); NVIDIA drivers 81.87.

[Voor 43% gewijzigd door Cheetah op 14-11-2005 15:07]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

offtopic:
* FirefoxAG moet edit knop leren gebruiken af en toe :/

[Voor 134% gewijzigd door Cheetah op 14-11-2005 15:08]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

ok, geen cherry:
We were able to get the single card's core up to 621 MHz and the memory up to 1.81 GHz (recall that stock is 550 MHz core and 1.7 GHz memory).
http://graphics.tomshardw...orce_7800_gtx_512-12.html

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Astennu
  • Registratie: september 2001
  • Nu online
FirefoxAG schreef op maandag 14 november 2005 @ 14:49:
[...]
Dit zou wel eens de verklaring kunnen zijn:
[...]

<edit> @astennu:

[...]
Over welke test heb je het? Bij Digit-Life is het maximale verschil tussen GTX512 en de XT 46% @1600x1200 noAA/noAF, en 27% met 4xAA/16xAF
Ze gebruiken daar ook 5.10a:
[...]
Ik dacht fear met TAA of far cry een van de 2. Maar waarom is dom 3 dan zo langzaam ? de GTX512 zou bijna 2x zo snel zijn. En is 30% sneller dan de GTX 256. En de Oude gtx preseerde met de 5.10a drivers gelijk aan de X1800 XT in doom3 en Q4. Dus dat vind ik dan wel vaag :\

Edit:

Tomshwardware test zuigt echt dik zie het volgende dat zegt al wer genoeg :?

Graphics Driver(s) ATI - Catalyst 5.9 - Display Driver 8.173
NVIDIA - Forceware 81.85 - WHQL - 7800 GTX
NVIDIA - Forceware 81.89 - Beta - 7800 GTX 512

Cat 5.9 VS de nieuwste beta's zo die hebben lef zeg 8)7 |:( :X

[Voor 22% gewijzigd door Astennu op 14-11-2005 15:23]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cyberamp
  • Registratie: april 2004
  • Laatst online: 21-09 17:09

Cyberamp

Multithreaded Tweaker

Astennu schreef op maandag 14 november 2005 @ 15:15:
Tomshwardware test zuigt echt dik zie het volgende dat zegt al wer genoeg :?

Graphics Driver(s) ATI - Catalyst 5.9 - Display Driver 8.173
NVIDIA - Forceware 81.85 - WHQL - 7800 GTX
NVIDIA - Forceware 81.89 - Beta - 7800 GTX 512

Cat 5.9 VS de nieuwste beta's zo die hebben lef zeg 8)7 |:( :X
Hey dat is idd niet eerlijk van 'ome' Tom :P En zoals ik hier zie stonden hun driver settings op 'performance' ... ik vraag me af of de ATi catalyst 5.9 ook op 'performance' stond... :/

Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244


  • Oet
  • Registratie: mei 2000
  • Laatst online: 10:46

Oet

[DPC]TG & MoMurdaSquad AYB

Toms Hardware Conclusion:
Now we wait to see what ATI's response will be.
Nou, dat kan ik je wel vertellen:

"Als jullie eens testen met de nieuwste drivers van beide kanten ipv alleen van 1 kant!"

Logisch toch? Magoed. Ik zie ook dat de GTX512 al in de schappen moet liggen bij de winkels? Zijn er al mensen op het web te vinden die hem al in handen hebben??

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 19-10 09:25

Pubbert

random gestoord

Idd matig van Tom, ik denk dat hij gewoon de oude results van zijn review van 1 maand terug heeft genomen, en die bij de test erbij geduwd. Beetje jammer.

Verder presteerd hij wel aardig die nieuwe GTX, maar toch had ik hem wat sneller verwacht, zeker omdat het mem 600mhz omhoog ging, de core ook nog eens 100? mhz omhoog.

Denk niet dat ATi zn R580 nu meteen naar voren gaat pushen, nv heeft nu wel weer de snelste, maar die gaat ook voor iets meer euro's over de toonbank dan de X1800XT (denk dat we over 2/3 weken als beide fatsoenlijk leverbaar zijn nog eens moeten kijken) En toch maar een klein aantal koopt een GFX van 500Euro+, laat staan 600/700 Euro.
Ben eerder benieuwd of ATi het gaat tussen de X1600XT en X1800XL gaat opvullen, X1800LE of een X1700 ofzo? Ook al word de X1800XL richting 300E gedrukt (nu al 330E in Duitsland hoorde ik van mijn Duitse collegas) Valt er nog steeds een gat als de X1600's in de 149-199 gaan vallen, van 100 Euro.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

Oet schreef op maandag 14 november 2005 @ 15:35:
[...]


Nou, dat kan ik je wel vertellen:

"Als jullie eens testen met de nieuwste drivers van beide kanten ipv alleen van 1 kant!"

Logisch toch? Magoed. Ik zie ook dat de GTX512 al in de schappen moet liggen bij de winkels? Zijn er al mensen op het web te vinden die hem al in handen hebben??
Er zijn ook andere review sites dan tomshardware, er zijn zelfs meerdere reviews die de laatste cats wel gebruiken. En nog steeds wint de X1800XT nauwelijks een benchmark.

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • hjs
  • Registratie: juni 1999
  • Niet online
Kom op zeg, Tom nemen we toch al jaren niet meer serieus ??

Hanners (die nemen we wel serieus) heeft een leuk rijtje staan
quote: Hanners
Today sees the launch of NVIDIA's latest attempt to capture the high-end video card performance crown, in the form of a higher clocked, 512MB-sporting GeForce 7800 GTX. Below is our comprehensive list of reviews and previews, to keep you up-to-date with everything you need to know about this part:

- NVIDIA GeForce 7800 GTX 512MB preview at Beyond 3D
- NVIDIA GeForce 7800 GTX 512MB preview at HEXUS
- NVIDIA GeForce 7800 GTX 512MB preview at The Tech Report
- NVIDIA GeForce 7800 GTX 512MB preview at Anandtech
- NVIDIA GeForce 7800 GTX 512MB preview at[H]ard|OCP
- NVIDIA GeForce 7800 GTX 512MB preview at bit-tech
- NVIDIA GeForce 7800 GTX 512MB preview at Driver Heaven
- NVIDIA GeForce 7800 GTX 512MB preview at Hot Hardware
- NVIDIA GeForce 7800 GTX 512MB preview at PC Perspective
- NVIDIA GeForce 7800 GTX 512MB preview at Firing Squad
- NVIDIA GeForce 7800 GTX 512MB preview at Digit Life
- NVIDIA GeForce 7800 GTX 512MB preview at Guru 3D
- NVIDIA GeForce 7800 GTX 512MB preview at Bjorn 3D
- XFX GeForce 7800 GTX 512MB review at Extreme Tech
- EVGA e-GeForce 7800 GTX 512MB review at Techware Labs
- NVIDIA GeForce 7800 GTX 512MB preview (Russian) at iXBT
- NVIDIA GeForce 7800 GTX 512MB preview (Chinese) at PC Online

  • biobak
  • Registratie: augustus 1999
  • Laatst online: 17:47
Astennu schreef op maandag 14 november 2005 @ 15:15:
[...]

Graphics Driver(s) ATI - Catalyst 5.9 - Display Driver 8.173
NVIDIA - Forceware 81.85 - WHQL - 7800 GTX
NVIDIA - Forceware 81.89 - Beta - 7800 GTX 512
Ze hebben gewoon een oude review van de X1800XT genomen en daar de resultaten van de 7800GTX 512 aan toegevoegd. Bekijk maar eens de resultaten in die oude review (http://graphics.tomshardw..._land-14.html#3dmark_2003) en vergelijk ze met deze nieuwe review. Zo kan ik het ook :X
Nieuwe drivers vragen om een her-test natuurlijk.

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Lol, krijg net een mailtje dat m'n Sapphire X1800XT klaar ligt om opgehaald te kunnen worden, maar de 7800GTX/512 lijkt nu toch ook wel aantrekkelijk te zijn. :+

Aan de andere kant, de GTX is vooralsnog 150 euro duurder :X , natuurlijk geen FP HDR + AA en geen non-angle dependant AF.

Twijfel twijfel twijfel, toch maar wachten op de R580?

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Apple schreef op maandag 14 november 2005 @ 17:14:
Lol, krijg net een mailtje dat m'n Sapphire X1800XT klaar ligt om opgehaald te kunnen worden, maar de 7800GTX/512 lijkt nu toch ook wel aantrekkelijk te zijn. :+

Aan de andere kant, de GTX is vooralsnog 150 euro duurder :X , natuurlijk geen FP HDR + AA en geen non-angle dependant AF.

Twijfel twijfel twijfel, toch maar wachten op de R580?
Waar is die XT1800Xt voorradig?

[Voor 3% gewijzigd door edward2 op 14-11-2005 17:22]

Niet op voorraad.


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
PC Megastore

Zie nu net dat ie op de website zelf nog niet als "op voorraad" staat vermeld.

http://www.pcmegastore.nl...=1_4_180&products_id=3806

[Voor 92% gewijzigd door Apple|IA op 14-11-2005 17:35]


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Thanx. Ik zal wel te laat zijn ivm pre orders.

Niet op voorraad.


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
edward2 schreef op maandag 14 november 2005 @ 17:40:
Thanx. Ik zal wel te laat zijn ivm pre orders.
Jij gaat op zeker voor de XT? (of gewoon beide kaarten, dus ook een GTX/512 :) )

Wat ik trouwens mis in de reviews is het renamen van Fear.exe, er wordt nergens over gesproken. Zelfs Kyle/Brent van [H] die wel degelijk van deze situatie op de hoogte zijn reppen er met geen woord over in hun review. :/

[Voor 8% gewijzigd door Apple|IA op 14-11-2005 17:54]


  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 19-10 09:25

Pubbert

random gestoord

Een oud klasgenoot van mij heeft sinds vandaag ook zijn X1800XT, zal eens vragen hoever hij hem kan klokken.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

Apple schreef op maandag 14 november 2005 @ 17:53:
[...]


Jij gaat op zeker voor de XT? (of gewoon beide kaarten, dus ook een GTX/512 :) )

Wat ik trouwens mis in de reviews is het renamen van Fear.exe, er wordt nergens over gesproken. Zelfs Kyle/Brent van [H] die wel degelijk van deze situatie op de hoogte zijn reppen er met geen woord over in hun review. :/
http://www.hothardware.co...age=5&articleid=751&cid=2
en driverheaven ook

[Voor 3% gewijzigd door HaLDoL op 14-11-2005 18:07]

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Thund3r schreef op maandag 14 november 2005 @ 18:00:
Een oud klasgenoot van mij heeft sinds vandaag ook zijn X1800XT, zal eens vragen hoever hij hem kan klokken.
WTF halen ze die dingen vandaan?!

Ja ik ga voor de XT (als ik tenminste de gave bezit om de juiste winkel te vinden), volgens mij zit er nog erg veel rek in dmv drivers. Afhankelijk daarvan probeer ik misschien ook de 512 mb GTX, maar ik vind 710 eur een beetje overdreven, de SapphireXT is 511, dat vind ik een stuk beter. :)

[Voor 17% gewijzigd door edward2 op 14-11-2005 18:05]

Niet op voorraad.


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Thnx. En zowaar is de XT hier sneller (met AA/AF) dan de GTX512.

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 19-10 09:25

Pubbert

random gestoord

Hij had hem direct via zijn groothandel (hij heeft klein bedrijfje) Donderdag had hij hem besteld dacht ik.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Afhankelijk daarvan probeer ik misschien ook de 512 mb GTX, maar ik vind 710 eur een beetje overdreven, de SapphireXT is 511, dat vind ik een stuk beter.
Ja, dit scheelt gewoon ff 200 euries.

  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

Apple schreef op maandag 14 november 2005 @ 18:08:
[...]


Thnx. En zowaar is de XT hier sneller (met AA/AF) dan de GTX512.
Ja maar er is een maar :)
Without any additional pixel processing enabled though, the Radeon X1800 XT's performance doesn't look so good, as it gets beaten by 20 FPS and 15 FPS depending on the resolution.
vreemd toch

[Voor 4% gewijzigd door HaLDoL op 14-11-2005 18:20]

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Astennu
  • Registratie: september 2001
  • Nu online
Nou mensen laten we een ding even uit de wereld helpen:

http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx%20512mb_11140521121/9841.png

Het hoge stroom verbuik van de X1800 XT is nu denk ik ook geen minpunt meer :)

[Voor 21% gewijzigd door Astennu op 14-11-2005 18:21]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Apple schreef op maandag 14 november 2005 @ 18:08:
[...]


Thnx. En zowaar is de XT hier sneller (met AA/AF) dan de GTX512.
Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

IMO is de 512 hooooguit 550 a 600 euri waard. Zeker gezien de tijd die nVidia heeft gehad om hiermee op de proppen te komen.

Ik vind het eerlijk gezegd een beetje tegenvallen allemaal als je de prijs bij komplett van EUR 710 beschouwt. En dan krijg je ook nog, met alle respect, een POV...... Zo groot is de prestatiewinst niet tov een 256 of een x1800xt512 en bovendien krijg je nul, nul extra functies tegen een prijs van (ruim) EURI 200 meer.......

Als nVidia echt zou heerschen bieden ze deze kaart voor EUR 575 aan in quantity...

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • Astennu
  • Registratie: september 2001
  • Nu online
CJ schreef op maandag 14 november 2005 @ 18:30:
[...]


Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.
Mja geef toe als je nu moet kiezen tussen de GTX512 en de X1800 XT qua prestatie zou ik niet voor die kaart gaan. Nu vraag ik me wel af hoeveel die drivers van ATi nog getweaked kunnen worden. Vooral als je kijkt naar HDR games. En hoe de "TOP" XT's het strax doen. En de Prijs van de GTX512 is natuurlijk wel belaggelijk maar goed.....

[Voor 9% gewijzigd door Astennu op 14-11-2005 19:01]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Ik vraag me af hoe de TOP 512MB GTX het gaat doen! :P

Wow! Wat is die kaart snel zeg. Hij owned de X1800XT op snelheid in bijna ELKE game. Dát is nu een super kaart.

No offense hoor, maar als deze kaart straks goed leverbaar is, wat ik wel hoop, dan denk ik dat de prijzen van die kaart wel wat dalen, en dat veel mensen dan toch voor de GTX 512 gaan.

Tenzij ATi NU als de wiede weerga gaat leveren. :(

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
RappieRappie schreef op maandag 14 november 2005 @ 19:02:
Ik vraag me af hoe de TOP 512MB GTX het gaat doen! :P

Wow! Wat is die kaart snel zeg. Hij owned de X1800XT op snelheid in bijna ELKE game. Dát is nu een super kaart.

No offense hoor, maar als deze kaart straks goed leverbaar is, wat ik wel hoop, dan denk ik dat de prijzen van die kaart wel wat dalen, en dat veel mensen dan toch voor de GTX 512 gaan.

Tenzij ATi NU als de wiede weerga gaat leveren. :(
Prijsniveau v/d XT zal altijd flink lager blijven. De GTX heeft een bak van een megakoeler die gewoon duurder te produceren is en het duurdere 1.1 ns geheugen.

Al met al, als ik de FEAR en COD2 resultaten erbij haal, en de extra features die de XT biedt, en dit ook nog eens tegen een flink lagere prijs dan is de XT gewoon een uitstekende koop.

Btw, en wat als Ati zo slim is om game-developers er toe over te halen (lees; met de portemonnee open) om sm3.0 & dynamic branching patches te gaan maken voor de huidige games? Soortgelijke patches als de toenmalige Farcry sm3.0 patch waarin Crytek het gebruik van DB vermijdde omdat de toenmalige Nv40 daar veel te traag voor was? In dat geval kan een 7800GTX nog wel eens in z'n hemd komen te staan vs de XT.
Ik moet wel gelijk melden dat PR zaken als dit Ati's sterkste punt niet is. Want wtf is the Farcry AA+HDR patch? :(

[Voor 5% gewijzigd door Apple|IA op 14-11-2005 19:29]


  • epo
  • Registratie: november 2000
  • Nu online
Apple schreef op maandag 14 november 2005 @ 17:33:
PC Megastore

Zie nu net dat ie op de website zelf nog niet als "op voorraad" staat vermeld.

http://www.pcmegastore.nl...=1_4_180&products_id=3806
mmm, bij Salland was hij weer uitgesteld, dus ook maar hier geordered, jij hebt iig mazzel :)

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Apple schreef op maandag 14 november 2005 @ 19:22:
[...]


Al met al, als ik de FEAR en COD2 resultaten erbij haal, en de extra features die de XT biedt, en dit ook nog eens tegen een flink lagere prijs dan is de XT gewoon een uitstekende koop.
Daar heb je gelijk in, maar als het prijsniveau daalt naar ongeveer gelijke waarden, is de GTX 512 (misschien) een beter koop. De XFX 7800GTX 512 scoort gewoon 9850 3Dmarks in '05! :9~

Ach, ieder zijn eigen... De ATi X1800XT is ook een leuk kaartje. En ook retesnel.

[Voor 3% gewijzigd door Format-C op 14-11-2005 19:31]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Astennu
  • Registratie: september 2001
  • Nu online
ATi mag wel met de R580 komen als ze die GTX512 voor bij willen. Of ze moeten die X1800 XT op 750 kunen clocken. Denk niet dat echt een standaart kan worden. Meer als echte TOP kaartjes.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Tja, als ATi er nog wat MHzen uit weet te persen wordt het voor ons allemaal alleen maar leuker. (Ik hoop dat het gebeurt!)

En ik moet eerlijk zeggen; de 7800GTX 512MB is TE duur als je hem NU vergelijkt met de X1800XT 512.

Misschien is het wel het beste even een maandje of anderhalve maand de kat uit de boom te kijken. Misschien komen er van beide merken wel TOPPEN binnen die tijd. :>

[Voor 8% gewijzigd door Format-C op 14-11-2005 19:36]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
epo schreef op maandag 14 november 2005 @ 19:23:
[...]
mmm, bij Salland was hij weer uitgesteld, dus ook maar hier geordered, jij hebt iig mazzel :)
Hoop dat het waar is, ik rij er morgenochtend langs.
Geachte heer xxxx,

Hierbij delen wij u mede dat uw bestelling gereed staat om af te halen.
:)

  • ruudvdsanden
  • Registratie: augustus 2005
  • Laatst online: 14-10 22:31
Bij mijn nieuwe dell pc zit een Ati x600 256mb kaart. Is dit een goede kaart? Ik heb nou een 6610xl 128mb. Welke is beter?

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Het enige wat mij (voorlopig?) nog tegenvalt is de HDR performance van de X1800. In Far Cry(wel erg prematuur) DOD en Loast Coast lijkt de 7800 gtx de laagste HDR-hit te hebben.

Niet op voorraad.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Help!!!! schreef op maandag 14 november 2005 @ 18:57:
Ik vind het eerlijk gezegd een beetje tegenvallen allemaal als je de prijs bij komplett van EUR 710 beschouwt. [...] Zo groot is de prestatiewinst niet tov een 256 of een x1800xt512 en bovendien krijg je nul, nul extra functies tegen een prijs van (ruim) EURI 200 meer.......
Als nVidia echt zou heerschen bieden ze deze kaart voor EUR 575 aan in quantity...
De MSRP van de 7800GTX is ook $599 en die zat binnen no time op 500 Euro. Ik denk zodoende dat GTX512 ook binnen 2-3 weken op ~550 Euro zal zitten...

Als je verder naar de Digit Life review kijkt is het performanceverschil van de standaard GTX512 (550/1700) met de standaard GTX in de Q modes vaak zo'n 35%. Da's echt niet niks... ;)
CJ schreef op maandag 14 november 2005 @ 18:30:
Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.
Diverse andere reviews geven een ander beeld van in ieder geval COD2...
Verder lijkt uitschakeling van Cat.A.I. in F.E.A.R met name in de demo/benchmark veel effect te sorteren. Ingame lijkt het verschil een stuk minder te zijn. Zie ook het volgende commentaar:
We did manual run throughs with Catalyst AI on and Catalyst AI off, to find some interesting numbers. The Radeon X1800XT delivered an average frame rate of 42 frames per second with Catalyst AI turned on, and that increased to 46 frames per second with Catalyst AI turned off. The minimum frame rate remained the same during both run throughs at 13 frames per second.
Bron: http://www.bit-tech.net/h.../ati_x1800xt_512mb/3.html

Dat is dus een veel kleiner verschil dan mensen rapporteren bij het runnen van de ingebouwde demo.
Apple schreef op maandag 14 november 2005 @ 19:22:
Prijsniveau v/d XT zal altijd flink lager blijven. De GTX heeft een bak van een megakoeler die gewoon duurder te produceren is en het duurdere 1.1 ns geheugen.
Zou kunnen, maar ik zou er niet van uit gaan, tenzij ATi de prijzen van de XT flink laat zakken in de komende periode.
Verder performt GTX512 natuurlijk ook op een ander level dan de XT, dus nV zal stellen dat het geen "directe" concurrent is...
Ik moet wel gelijk melden dat PR zaken als dit Ati's sterkste punt niet is. Want wtf is the Farcry AA+HDR patch? :(
FarCry HDR+AA patch? De HDR patch is er toch al, alleen lukt AA daarbij niet vanwege de lage performance met HDR...
edward2 schreef op maandag 14 november 2005 @ 20:58:
Het enige wat mij (voorlopig?) nog tegenvalt is de HDR performance van de X1800. In Far Cry(wel erg prematuur) DOD en Loast Coast lijkt de 7800 gtx de laagste HDR-hit te hebben.
+ Serious Sam 2 HDR + Age of Empires III HDR...
ATi mag daar nu echt zoden aan de dijk gaan zetten...
Zolang dit niet gefixed is zal de X1800XT in mijn boek sowieso geen optie zijn. Ik ben in korte tijd teveel aan HDR gaan hechten en vind dit een stuk belangrijker dan bijv. AA (zeker op 1920x1200) :)

[Voor 18% gewijzigd door Cheetah op 14-11-2005 21:35]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
FarCry HDR+AA patch? De HDR patch is er toch al, alleen lukt AA daarbij niet vanwege de lage performance met HDR...
Ubisoft dient een patch uit te brengen, op dit moment is het inschakelen van AA nog niet mogelijk. Bron; DB Beyond3D.
Dat AA niet lukt vanwege de performance vind ik nogal trollerig van je overkomen aangezien we al vaker besproken hebben dat 1280x1024/4xAA speelbaar lijkt op rendering 7 (~40fps), als je hdr rendering 2 neemt kun je hier +10/20 fps bij optellen. In dat geval komt zelfs 1600x1200/2xAA in zicht (avg 28 wordt dan avg 38/48).
Probeer zelf het verschil eens uit tussen hdr rendering 2 en 7, het fps verschil is enorm.

[Voor 4% gewijzigd door Apple|IA op 14-11-2005 21:38]


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Verder performt GTX512 natuurlijk ook op een ander level dan de XT, dus nV zal stellen dat het geen "directe" concurrent is...
De 7800 512Mb is gemiddeld zo'n 10% sneller en bedoeld om de X1800XT te verslaan, maar ze zijn beide van dezelfde "level". Ze hebben allebei 512 Mb, de 7800 is qua snelheid idd wat beter en de X1800 is qua features (SM3.0) wat beter. Een prijsverschil van 150 euro is naar mijn mening niet te rechvaardigen.

Mocht de X1800XT in de toekomst door hogere clock's en driver-optimalistaties sneller worden dan zal de 7800 512M alsnog een concurrentieslag moeten ondergaan met X1800XT. De 7800 moet dan wel in prijs zakken.

[Voor 30% gewijzigd door wagnef op 14-11-2005 21:49]


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Astennu schreef op maandag 14 november 2005 @ 18:20:
Nou mensen laten we een ding even uit de wereld helpen:
[afbeelding]
Het hoge stroom verbuik van de X1800 XT is nu denk ik ook geen minpunt meer :)
Dat is blijkbaar under max load... THG heeft echter weer andere plaatjes in game en idle:
http://graphics.tomshardw...orce_7800_gtx_512-05.html

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Astennu
  • Registratie: september 2001
  • Nu online
FirefoxAG schreef op maandag 14 november 2005 @ 21:44:
[...]
Dat is blijkbaar under max load... THG heeft echter weer andere plaatjes in game en idle:
http://graphics.tomshardw...orce_7800_gtx_512-05.html
Ja klopt. Maar ATi heeft nog geen clock gating in de drivers zitten. Dat zou nog gaan komen en dit reken ik even mee in me achtehooft.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Bartjuh
  • Registratie: oktober 2001
  • Niet online
FirefoxAG schreef op maandag 14 november 2005 @ 21:44:
[...]
Dat is blijkbaar under max load... THG heeft echter weer andere plaatjes in game en idle:
http://graphics.tomshardw...orce_7800_gtx_512-05.html
Huh ... Wat lees ik daar nou in de kop van review :?
Up To 1 GB Video Memory With GeForce 7800 GTX 512 SLI
En iedereen mij hier op got maar vertellen dat als je bijv. 2 kaarten van 128mb in SLI drukt je niet 256mb, maar 128mb tot je beschikking hebt.... nou wordt het helemaal verwarrend 8)7

Edit: zie ook;
On the 7800 GTX 512, the internal bus is able to transfer 512 Bits of data per clock, because of its double data rate capability. External data transfers remain 256 Bit wide, so transfers to and from the 512 MB frame buffer memory remain the same. Looking back, no one ever saw the amount of memory on a graphics card equaling or surpassing the total amount of system memory, certainly not hitting 1 GB when in SLI configuration!
Nou begin ik helemaal te twijfelen... dus het is wel technisch goed mogelijk de data niet redundant op te slaan, en dat je het geheugen gewoon kan optellen :?

bron: http://graphics.tomshardware.com/graphic/20051114/index.html

[Voor 32% gewijzigd door Bartjuh op 14-11-2005 22:20]


  • sjekneck
  • Registratie: juni 2003
  • Laatst online: 09:25
Apple schreef op maandag 14 november 2005 @ 21:37:
[...]


Ubisoft dient een patch uit te brengen, op dit moment is het inschakelen van AA nog niet mogelijk. Bron; DB Beyond3D.
Dat AA niet lukt vanwege de performance vind ik nogal trollerig van je overkomen aangezien we al vaker besproken hebben dat 1280x1024/4xAA speelbaar lijkt op rendering 7 (~40fps), als je hdr rendering 2 neemt kun je hier +10/20 fps bij optellen. In dat geval komt zelfs 1600x1200/2xAA in zicht (avg 28 wordt dan avg 38/48).
Probeer zelf het verschil eens uit tussen hdr rendering 2 en 7, het fps verschil is enorm.
Ik vind zelf dat Crytek eens moet kappen met het constant oplappen van de FarCry met foefjes. Het is allemaal wel leuk dat het constant steeds iets beter wordt, maar ik vond het eerlijk gezegd al overdone toen ze HDR erin stopte. Het lijkt meer reclame als goodwill naar gamers toe. Als ze echt gamers blij willen maken, dan moeten ze die gare multiplayer eens onder handen nemen. Wat is die code slecht zeg :r :r
Als ze nou gewoon FarCry 2 maken, ipv het constant doorborduren op een spel dat al 1,5 jaar op de markt is :*)
Astennu schreef:
Ja klopt. Maar ATi heeft nog geen clock gating in de drivers zitten. Dat zou nog gaan komen en dit reken ik even mee in me achtehooft.
Vindt je nou zelf niet dat je een beetje erg veel verwacht van de toekomstige drivers??? als ik al die dingen bij elkaar optel dan komt er nog 40% bovenop de huidige prestatie van de XT. 15% is geloofwaardig mits de huidige drivers echt bagger zijn, maar verwacht gewoon niet de heilige graal van al die PR mannetjes van die bedrijven. Het is hun werk om zieltjes te winnen.

[Voor 19% gewijzigd door sjekneck op 14-11-2005 22:29]


  • hjs
  • Registratie: juni 1999
  • Niet online
Kom op zeg, we gaan toch niet twijfelen om Tom, die site is allang afgeschreven als serieus !!
Ik weet wel wie ik geloof als ik Zardon met Tom verglijk, en het is niet de duitser met zijn site !!

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Astennu schreef op maandag 14 november 2005 @ 22:04:
Ja klopt. Maar ATi heeft nog geen clock gating in de drivers zitten. Dat zou nog gaan komen en dit reken ik even mee in me achtehooft.
De lijst van "wat er nog moet gaan komen" begint wel een beetje lang te worden... :/
* HDR performance fixes (voor een steeds langer wordende rij games)
* Dual Core drivers
* Clock gating om het stroomverbruik onder controle te krijgen
* OpenGL fixes voor overige games en beeldmodi naast 4xAA
* Memorycontroller tunes voor een hele rij games
* etc.

Zodra er wat word genoemd waarin nV beter is zie ik het excuus: "Dat word nog wel (ooit)/(misschien) gefixed in een driverrelease..."
En anders ligt het wel aan de games die "alleen/speciaal zijn geoptimaliseerd voor nV"...
Apple schreef op maandag 14 november 2005 @ 21:37:
Ubisoft dient een patch uit te brengen, op dit moment is het inschakelen van AA nog niet mogelijk. Bron; DB Beyond3D.
B3D zegt dat HDR+AA niet mogelijk is in FarCry!? :?
Zal mij dan zeer benieuwen hoe ze zelf deze test hebben uitgevoerd...
Dat AA niet lukt vanwege de performance vind ik nogal trollerig van je overkomen aangezien we al vaker besproken hebben dat 1280x1024/4xAA speelbaar lijkt op rendering 7 (~40fps),
Trollerig? Hebben we het daar ook niet eerder over gehad? Een verschil van mening tussen jou en mij is behoorlijk ongelijk aan trollerig hoor... ;)
Naar jouw mening is FarCry HDR+AA speelbaar met een gemiddelde van ~40fps... naar mijn mening speel ik alleen op 1600x1200 of 1920x1200 en wil ik geen framedrops naar 20~25fps en zeker niet daaronder, want die drops treden vaak op in zware vuurgevechten (ofwel waar je ze in een shooter het minst kan gebruiken). De speelbaarheid op 1280 is dus nogal betwistbaar, zeker indien voor FarCry dezelfde grillige HDR patronen op de X1800 optreden als in SS II. Daar loopt de XT op 1024x768 (!!) op een avg van 70fps, echter met drops naar 23fps... als dat ook de trend is in FarCry HDR, en het avg is daar 40fps, dan kun je wel uitrekenen wat de drops zijn...
Maar helaas zijn min en max fps dus niet meegenomen in de B3D review, alleen avg... :/
als je hdr rendering 2 neemt kun je hier +10/20 fps bij optellen. In dat geval komt zelfs 1600x1200/2xAA in zicht (avg 28 wordt dan avg 38/48).
Probeer zelf het verschil eens uit tussen hdr rendering 2 en 7, het fps verschil is enorm.
Geloof je zelf echt dat de performance van de XT 36~70% toeneemt als je HDR van 7 naar 2 zet??
Come on now... Zelfs voor een die-hard optimist is dat wel erg onrealistisch.

Verder zie ik dit ook als een uitvlucht: "Als je HDR een stuk minder zet dan is die sneller". Tjsa, we kunnen zo ook gaan roepen dat GTX512 (en meestal ook GTX TOP) het op 2xAA (en AA uitgeschakeld) altijd beter doet dan de X1800XT...
HDR7 is gewoon de default HDR mode in FarCry, dus dat is in mijn boek het uitgangspunt... bovendien vind ik HDR7 een stuk mooier (enkele situaties daar gelaten), en die staat hier dan ook standaard aan @1920x1200.
hjs schreef op maandag 14 november 2005 @ 22:28:
Ik weet wel wie ik geloof als ik Zardon met Tom verglijk, en het is niet de duitser met zijn site !!
Zardon? In ATi kwesties? Na mijn hoogst eigen persoonlijke ervaringen met Zardon neem ik THG (en elke andere malloot) anytime boven Zardon... ik kreeg van mr Zardon himself een IP ban omdat ik het indertijd in mijn dolle kop haalde het op te nemen voor Sander Sassen (die compleet werd afgeflamed op de DH forums)... waarbij meneer Z het ook nog eens presteerde mijn terechte kritiek weg te moffelen en ban te rechtvaardigen door zijn forumleden voor te liegen dat Sander en ik vanaf hetzelfde IP postten en dus dezelfde persoon waren ;)
Wat overigens ondanks protesten van mij per email (en van Sander op het forum) nooit gerectificeerd is.
Trek zelf je conclusies maar over hoe betrouwbaar dat op jou overkomt... :X

[Voor 18% gewijzigd door Cheetah op 14-11-2005 22:58]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cyberamp
  • Registratie: april 2004
  • Laatst online: 21-09 17:09

Cyberamp

Multithreaded Tweaker

Bartjuh schreef op maandag 14 november 2005 @ 22:16:

Nou begin ik helemaal te twijfelen... dus het is wel technisch goed mogelijk de data niet redundant op te slaan, en dat je het geheugen gewoon kan optellen :?

bron: http://graphics.tomshardware.com/graphic/20051114/index.html
Ten eerste word data altijd niet redundant opgeslagen zo niet heb je 'mem leak' problemen. Maar je kunt het niet optellen nu. Het kan technisch zeker mogelijk alleen swmatig (nog) problematisch, namelijk de mems worden op dit moment juist parallel gebruikt wat in feite een noodoplossing is, het moet kunnen om de sw zo te schrijven dat beide mems shared varianten worden en daardoor aparte data transfer nodig hebben, dit vereist dan weer support van de NBridge en dat is er nog niet. In principe zit je dat met de transfer en bw dilemma, maar misschien zouden nieuwe mobo's dat wel ondersteunen indien ze daarmee rekening houden. Zeker gezien het feit dat texture-usage in games ook vragen naar extra mem.

Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
B3D zegt dat HDR+AA niet mogelijk is in FarCry!?
Zal mij dan zeer benieuwen hoe ze zelf deze test hebben uitgevoerd...
Enkele reviewers waaronder DB zijn in het bezit van een beta patch. De officiële voor het
grote publiek is nog niet uit.
HDR7 is gewoon de default HDR mode in FarCry
Je kunt kiezen tussen 1---11, welke je handmatig in de console moet invoeren dmv een commando of het commando toevoegen aan je shortcut. Er is voor zover ik weet dus geen 'default' waarde.

[Voor 9% gewijzigd door Apple|IA op 14-11-2005 23:37]


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

CJ schreef op maandag 14 november 2005 @ 18:30:
[...]


Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.
Driverheaven is wel de laatste site die ik als betrouwbaar zou bestempelen. Die komen nog na de Inquirer.

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Apple schreef op maandag 14 november 2005 @ 23:33:
Je kunt kiezen tussen 1---11, welke je handmatig in de console moet invoeren dmv een commando of het commando toevoegen aan je shortcut. Er is voor zover ik weet dus geen 'default' waarde.
Bij deze ;)
Als je HDR in devmode ("-DEVMODE" switch) start rendert hij automatisch HDR 7, tenzij je in de console (of in de switch) anders aangeeft...

[Voor 6% gewijzigd door Cheetah op 14-11-2005 23:55]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • swampy
  • Registratie: maart 2003
  • Laatst online: 01-07 14:00

swampy

Coconut + Swallow = ?

ruudvdsanden schreef op maandag 14 november 2005 @ 20:33:
Bij mijn nieuwe dell pc zit een Ati x600 256mb kaart. Is dit een goede kaart? Ik heb nou een 6610xl 128mb. Welke is beter?
Mmm, een aardig simpele vraag, omdat er genoeg benchmarks van de x600 zijn. Weinig mis met de kaart maar... het is en blijft maar een 4 pijplijn kaartje.. dus is de performance gelimiteerd. Maar op zich weinig mis mee....

There is no place like ::1


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
HaLDoL schreef op maandag 14 november 2005 @ 23:45:
[...]

Driverheaven is wel de laatste site die ik als betrouwbaar zou bestempelen. Die komen nog na de Inquirer.
Zardon heeft een 7800GTX in z'n pc zitten. :)

  • Seekless
  • Registratie: februari 2004
  • Laatst online: 08-09-2006

Seekless

Doelloos zoekende

Help!!!! schreef op maandag 14 november 2005 @ 18:57:
IMO is de 512 hooooguit 550 a 600 euri waard. Zeker gezien de tijd die nVidia heeft gehad om hiermee op de proppen te komen.

Ik vind het eerlijk gezegd een beetje tegenvallen allemaal als je de prijs bij komplett van EUR 710 beschouwt. En dan krijg je ook nog, met alle respect, een POV...... Zo groot is de prestatiewinst niet tov een 256 of een x1800xt512 en bovendien krijg je nul, nul extra functies tegen een prijs van (ruim) EURI 200 meer.......

Als nVidia echt zou heerschen bieden ze deze kaart voor EUR 575 aan in quantity...
Ik zal je even helpen(die open deur moet je me vergeven ;) ), de MSRP van deze kaart is $650 ofwel 550 euro, dat de kaart duurder wordt aangeboden door komplett heeft nVidia niets mee te maken. Om het kort te sluiten, betekent dit nu volgens jouw dat nVidia heerscht en dat jezelf een cadeautje van 25 euro van ze krijgt? Dit betekent trouwens dat nVidia een MSRP verschil van 50 dollar aanhoudt net als ATi lijkt te doen tussen de 256 en 512 Mb variant, als het om start prijzen gaat, wat ik vrij apart vind aangezien nVidia er meer en sneller geheugen opgooit in plaats van alleen meer.

Vergelijking van de gemiddelde XT @ 512MB prijs laat duidelijk zien dat er geen 200 euro prijsverschil is. Dus zou je me je cijfers kunnen laten zien?

Ik weet niet hoe jij op de hoogte bent wanneer nVidia wist wat voor kaarten ATi op de markt ging zetten en hoe ze zouden presteren maar bronvermelding bij zulke aantijgingen zou ik waarderen. Dit zou namelijk ook enige vorm van discussie bevorderen. Helemaal aangezien ATi's meerwaarde voornamelijk in IQ zit en dit al heel moeilijk te duiden is in dollars en zekers ook in kristallen bol prestatie voorspellingen.

Als ik de performance stijgingen bekijk(vergelijk oude met nieuwe reviews) die er geboekt worden met de X1800 onder de nieuwe drivers dan zie ik geen enorme vooruitgang(algemeen bekeken). Hiernaast zou ik eens naar het lijstje kijken wat Firefox gepost heeft:

[rml]FirefoxAG in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml]

Als ik hierbij de opmerking van CJ serieus neem, en dat doe ik, dat ATi nu zich richt op de RV530 dan wordt ik niet vrolijk. Want dan zal de XL zeker de GT niet inhalen en de XT zijn voorsprongetje zeker niet uitbreiden.

Interessanter aan enkele reviews vind ik de invloed van extra geheugen op de kaarten. Nu wordt er plotseling beweert dat 256Mb extra niet veel invloed heeft terwijl bij de XT dit wel zo was. Je gaat je af vragen wat waarheid is in review land.

En om Driverheaven nog verder zwart te maken bevestig ik hierbij het verhaal van Firefox, met de toevoeging dat het meer mensen is overkomen :(. Persoonlijk zou ik mensen aanraden: "Boycotten die site", maar ja dat is dan weer in conflict met mijn strijd voor vrijheid van menigsuiting.

Edit: @Apple met een spuitbus rode verf ernaast zeker ;)

[Voor 5% gewijzigd door Seekless op 15-11-2005 00:27]

In darkness we were born, in darkness we will live, till the enlightenment of death.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
ik ben op zoek naar een site die expliciet verklaart dat ze de HQ settings van de detonators hebben gebruikt...
ik vind niet een
zegt genoeg

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
oeLangOetan schreef op dinsdag 15 november 2005 @ 00:51:
ik ben op zoek naar een site die expliciet verklaart dat ze de HQ settings van de detonators hebben gebruikt...
ik vind niet een
zegt genoeg
Als ik een GTX zou hebben is er maar één setting waar ik de slider op zet en dat is HQ, die bevat namelijk de shimmerfix. De performancehit hiermee op de GTX schijnt minder te zijn dan op de Nv40, maar altijd nog wel goed voor ~10% (naar horen zeggen in diverse forums, heb nog nooit exacte zwart op wit cijfers gezien).

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

:O
Ik zat al te wachten op die standaardcounter.
X1800XT word verslagen, dus halen we 't stokpaardje weer van stal om onszelf er alsnog van te overtuigen dat ATi op de een of andere manier toch misschien sneller is.

Ik weet niet hoe vaak dit nog herhaald moet worden, maar er is niet of nauwelijks optisch verschil tussen de nV Q mode en de ATi Q mode. Op diverse sites waaronder [H] worden IQ vergelijkingen gedaan met screenshots... have fun en zoek de verschillen.

Dat gezeur over shimmering begint ook al behoorlijk oud te worden gezien er tevens al vaker is gezegd dat dit in verreweg het grootste deel van de games geen rol speelt. En in de games waarin het wel speelt is het over het algemeen meer uitzondering dan regel dat je ergens shimmering ziet...
Hebben jullie eigenlijk uberhaupt wel een GTX om die zo geliefkoosde shimmeringcounter te kunnen verifieeren, of is dit gewoon goedkoop je gelijk proberen te halen door andere ATi die-hards na te praten? Ik heb er namelijk wel 1 en ik heb er geen last van ;)
Apple schreef op dinsdag 15 november 2005 @ 01:57:
Als ik een GTX zou hebben [...]
As if ever ;)
Als je een GTX512 kado zou krijgen verkoop je 'm volgens mij alsnog om een X1800XT te kopen ;)

[Voor 18% gewijzigd door Cheetah op 15-11-2005 03:58]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Stokpaardje of niet. Als je meer dan €700 betaald voor een kaart dan mag je verwachten dat je HQ aan kan zetten. Misschien dat jij weinig last hebt van shimmering, maar het feit dat dit uberhaupt optreedt op high end kaarten bij nVidia is gewoon een kwalijke zaak.

Overigens als ik naar Digit Life kijk in de grafieken dan zie ik daar een HQ modus voor nVidia, terwijl er ook een HQ modus voor ATi wordt gebruikt. Alleen jammer dat dit ook weer niet 'eerlijk' is, aangezien bij ATi dan non-angle dependent AF wordt gebruikt en dit bij de G70 niet mogelijk is.

Ik heb zelf shimmering gezien op een verschillende nV kaarten uit de GF6 en GF7 serie. Zeer vervelend als je een game als WoW speelt, wat toch nu door miljoenen mensen op aarde gespeeld wordt. Toegegeven, mensen die niets anders gewend zijn dan een GF7 die zien het niet zo snel, maar als je ze er eenmaal op wijst en ze dezelfde game op een ATi kaart in actie hebben gezien, dan is mijn ervaring dat die mensen zich er aan beginnen te storen en er op gaan letten.
FirefoxAG schreef op dinsdag 15 november 2005 @ 03:51:
Ik weet niet hoe vaak dit nog herhaald moet worden, maar er is niet of nauwelijks optisch verschil tussen de nV Q mode en de ATi Q mode. Op diverse sites waaronder [H] worden IQ vergelijkingen gedaan met screenshots... have fun en zoek de verschillen.
Op [H] wordt overigens weinig vergeleken met de competitie wat betreft IQ. Daar wordt zelden gekeken naar filtering (waardoor shimmering vaak plaats vindt), maar meer naar de verschillende AA mogelijkheden en de verschillen daartussen. Er is geen enkele site die uitvoerig in gaat op de verschillen Q en HQ modi, terwijl op de meeste sites nV kaarten standaard in Quality worden getest terwijl ATi altijd op HQ werkt wat betreft texturing/mipmapping (niet te verwarren met HQ AF/Area AF).
FirefoxAG schreef op dinsdag 15 november 2005 @ 03:51:
As if ever ;)
Als je een GTX512 kado zou krijgen verkoop je 'm volgens mij alsnog om een X1800XT te kopen ;)
-1 Troll/Overbodig, ondanks de ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

ATI is apparently very happy with how the R580 is coming along, and it looks as if all production on R520 parts will be halted by December. This means that the final R520 chips off the line will be delivered in a late February timeframe for fulfilling the final orders for the X1800 series. This means that ATI is gearing up for a new product to replace the R520 around that time.
Uitstekend artikel trouwens: http://www.penstarsys.com...ia/512_7800gtx/index.html

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

ja geinig om te lezen.

HQ is trouwens zeker wel nodig op NVkaarten, Q geeft maar eem matige filtering met veell shimmering en het is weer erger geworden met FW 81.87.
Overigens geeft HQ niet altijd een grote perf hit!

Zo, zullen de sterren vandaag gunstig staan om een X1800XT richting mijn adres te sturen, of blijf ik illussies najagen...

Niet op voorraad.


  • SI4live
  • Registratie: januari 2003
  • Laatst online: 23-09 14:50
oeLangOetan schreef op dinsdag 15 november 2005 @ 00:51:
ik ben op zoek naar een site die expliciet verklaart dat ze de HQ settings van de detonators hebben gebruikt...
ik vind niet een
zegt genoeg
Hier wordt er wel HQ setting gebruikt met daarnaast de default:

http://www.ixbt.com/video2/g70-7-d.shtml#p17

(gele is HQ, oranje is HQ overclocked)

Dan is er duidelijk niet veel verschil tussen de X1800XT en de GTX512

[Voor 3% gewijzigd door SI4live op 15-11-2005 11:03]

http://www.swfemedia.com


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

FirefoxAG schreef op maandag 14 november 2005 @ 22:40:
De lijst van "wat er nog moet gaan komen" begint wel een beetje lang te worden... :/
* HDR performance fixes (voor een steeds langer wordende rij games)
* Dual Core drivers
* Clock gating om het stroomverbruik onder controle te krijgen
* OpenGL fixes voor overige games en beeldmodi naast 4xAA
* Memorycontroller tunes voor een hele rij games
* etc.
Duh... logisch. De R520 is een nieuwe architectuur, remember? Logisch dat er dan nog bakken met werk te doen zijn voordat de R5x0 uit is gemolken... Bij de R300-architectuur duurde dat ook meer dan 2,5 jaar. O ja... 7(8)7
Zodra er wat word genoemd waarin nV beter is zie ik het excuus: "Dat word nog wel (ooit)/(misschien) gefixed in een driverrelease..."
En anders ligt het wel aan de games die "alleen/speciaal zijn geoptimaliseerd voor nV"...
Vind ik eerlijk gezegd niet eens zo gek dat ze dat denken, tegenwoordig is het meer regel dan uitzondering dat er bij een demo/game in de intro staat: Nvidia, The Way It's Meant To Be Played... :O
B3D zegt dat HDR+AA niet mogelijk is in FarCry!? :?
Zal mij dan zeer benieuwen hoe ze zelf deze test hebben uitgevoerd...
HDR7 is gewoon de default HDR mode in FarCry, dus dat is in mijn boek het uitgangspunt...
Met een vluchtig gebouwde patch die een command introduceert waar ik in al die talloze topics over Far Cry nog nooit wat van gehoord, geroken en gezien heb: Devmode, wtf :? Alleen het standaardcommand is op die fora bekend om het HDR-level zélf in te stellen...
Geloof je zelf echt dat de performance van de XT 36~70% toeneemt als je HDR van 7 naar 2 zet?? Come on now... Zelfs voor een die-hard optimist is dat wel erg onrealistisch.
70% is inderdaad niet realistisch. Maar ik weet wél zeker dat de performance gaat toenemen bij mindere waarden, als dat gebeurt bij 6x00-owners, waarom zou dat dan niet gebeuren op de X1800? :)
Verder zie ik dit ook als een uitvlucht: "Als je HDR een stuk minder zet dan is die sneller". Tjsa, we kunnen zo ook gaan roepen dat GTX512 (en meestal ook GTX TOP) het op 2xAA (en AA uitgeschakeld) altijd beter doet dan de X1800XT...
Je trekt nogal scheve vergelijkingen, voor mij is HDR nog steeds geen AA. Je vergelijkt appels met peren, we praten hier over HDR en niet over AA. Hence the question waarom je dit er dan bijhaalt?
HaLDoL schreef op maandag 14 november 2005 @ 23:45:
Driverheaven is wel de laatste site die ik als betrouwbaar zou bestempelen. Die komen nog na de Inquirer.
En leuk dat je ook even vermeld waarom je dit vind... Heb je niet gedaan en daarom beschouw ik dit als een ordinaire troll van categorie -3 op de schaal van Flamebait. Is goed voor dit topic, ga zo door :/
Zardon? In ATi kwesties? Na mijn hoogst eigen persoonlijke ervaringen met Zardon neem ik THG (en elke andere malloot) anytime boven Zardon... ik kreeg van mr Zardon himself een IP ban omdat ik het indertijd in mijn dolle kop haalde het op te nemen voor Sander Sassen (die compleet werd afgeflamed op de DH forums)... waarbij meneer Z het ook nog eens presteerde mijn terechte kritiek weg te moffelen en ban te rechtvaardigen door zijn forumleden voor te liegen dat Sander en ik vanaf hetzelfde IP postten en dus dezelfde persoon waren ;)
Wat overigens ondanks protesten van mij per email (en van Sander op het forum) nooit gerectificeerd is. Trek zelf je conclusies maar over hoe betrouwbaar dat op jou overkomt... :X
Met andere woorden, omdat Zardon je bant vanwege een persoonlijke situatie die in de grakamarkt uitermáte gevoelig lag (en dat weet je donders goed, want het ging om vertrouwelijke informatie a.k.a. NDA die nog niet bestemd was om gelekt te worden.), degradeer je meteen maar de hele site + reviews + keiharde resultaten naar niveau Pulpfiction/Onwaardig, want naar jouw mening staat Zardon gelijk aan DriverHeaven? Lijkt me niet, er werken een hoop mensen hard om ons dagelijkse portie nieuws op Internet te zetten. Mijn haren rezen ten berge toen ik dit las, dit slaat alles, je lijkt er maar geen genoegen van te krijgen om er telkens nog een schepje boven op te doen :X

Overigens: leuk zo'n heldenactie, maar toch geef ik Zardon geen ongelijk. Want elke persoon die zich daar registreert (ja, de postteller stond op 1 Firefox) om speciaal heel DH ervan te overtuigen dat Sander gelijk had, dat komt over alsof die persoon gelinkt is aan DriverHeaven, en is daarom een gevaar voor zijn voortbestaan. Doemdenken? Nee, want als hij je niet gebanned had, en de discussie was doorgaan en ATi was erachter gekomen (dat lijkt me wel realistisch), wat denk je dan dat dat voor consequenties had gehad voor DH? Dan waren ze bestempeld als 'verklikkers', nooit meer serieus genomen, en hadden ze (iig van ATi) geen hardware meer gekregen om te testen. Dat zorgt niet voor hopen goodwill... Heb je daar wel eens bij stil gestaan Firefox?

Maar let wel: als het IP niet hetzelfde was, dan had hij geen recht om het goed te praten tegenover eigen leden! Daar ben ik volledig niet mee eens, want dat is matennaaierij imo.
FirefoxAG schreef op dinsdag 15 november 2005 @ 03:51:
Dat gezeur over shimmering begint ook al behoorlijk oud te worden gezien er tevens al vaker is gezegd dat dit in verreweg het grootste deel van de games geen rol speelt. En in de games waarin het wel speelt is het over het algemeen meer uitzondering dan regel dat je ergens shimmering ziet...
Je zegt het zelf al, met andere woorden... dit issue bestaat dus nog steeds. En dus vind ik dat men (en dat wil zeggen: iedereen) het grootste recht heeft om Nvidia daarop aan te spreken. Zolang dat shimmeringgedoe niet volléedig uitgeroeid is met een driver en er mensen last van hebben, is het gewoon een issue. Punt. En datzelfde geldt voor ATi. Gisteren nog, veel users hebben geen beeld behalve radar in de DTM RaceDriver3-demo. Zolang dat niet is gefixed door ATi in nieuwe drivers, is het gewoon een issue. Punt. Trust me, dit vind ik ook knap stom dat het niet gefixed is, maar hierbij bekijk ik de zaak objectief.
As if ever ;)
Als je een GTX512 kado zou krijgen verkoop je 'm volgens mij alsnog om een X1800XT te kopen ;)
Zoals CJ al zei... komt lichtelijk trollerig op mij over, zou je die toon aub aan willen passen Firefox? Dit soort dingen werken bij mensen op hun zenuwen, dus ook bij mij. Bvd.

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Ik heb net maar weer eens een rondje gebeld in de hoop zo'n vervloekte XT te bemachtigen, maar dit is nog een erger debacle dan de X800XT, de X1800XT is nog steeds nergens op voorraad en het ziet er niet dat daar op korte termijn verandering inkomt. Degene die er 1 te pakken hebben kunnen er zo 1500 voor vragen op Ebay en kunnen vergeleken worden met de winnaaars van een loterij. Komplett bv. net gebeld, de datum van 15-11?, een illusie.....ik wordt hier op z'n zachts gezegd gestoord van.

[Voor 6% gewijzigd door edward2 op 15-11-2005 12:44]

Niet op voorraad.


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
Europa wordt weer eens gefucked heb ik het idee :{

specs desktop | specs laptop


  • krouwen
  • Registratie: september 2004
  • Laatst online: 13:15

krouwen

Hardware Enthusiast

Dit slaat inderdaad helemaal nergens op. Ze moeten dan gewoon de release date naar achteren zetten. Ze kunnen veel maken, maar oneerlijkheid vind ik gewoon niet tof. Het is toch simpel.
Zeg gewoon hij is nu overal leverbaar of hij is gewoon NIET leverbaar op die dag.
Ze moeten de releasedatum niet naar achteren zetten, want in de US/UK is-ie gewoon te krijgen. Wat mij betreft mogen ze verschillende releasedata gebruiken. Een voor de US, een voor Canada, een voor EU, een voor UK etc.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
CJ schreef op dinsdag 15 november 2005 @ 13:21:
Ze moeten de releasedatum niet naar achteren zetten, want in de US/UK is-ie gewoon te krijgen. Wat mij betreft mogen ze verschillende releasedata gebruiken. Een voor de US, een voor Canada, een voor EU, een voor UK etc.
Wat mij betreft mogen ze ophouden met de EU altijd fucken, ook hier wonen gamers met geld. :{

specs desktop | specs laptop


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Het is gewoon buiten alle proporties wat hier in dit landje aan die smerige Noordzee gebeurt mbt ATI, blijkbaar gelden voor deze vendor hier nog de normen van klompen en tulpen.
Het ziet er echt erg slecht uit, geen enkele zaak verwacht een goede levering. Ik schei er mee uit, had ik de POV gisteren maar besteld, de X1800XT is Vaporware in de hoogste orde.

Niet op voorraad.


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
edward2 schreef op dinsdag 15 november 2005 @ 13:46:
Het is gewoon buiten alle proporties wat hier in dit landje aan die smerige Noordzee gebeurt mbt ATI, blijkbaar gelden voor deze vendor hier nog de normen van klompen en tulpen.
Het ziet er echt erg slecht uit, geen enkele zaak verwacht een goede levering. Ik schei er mee uit, had ik de POV gisteren maar besteld, de X1800XT is Vaporware in de hoogste orde.
Straks een NL-only actie, bij elke X1800XT 512MB een gratis Phantom game console :9
Maar het is inderdaad in en in triest, het is haast alsof ATi wil dat men hier of nVidia koopt of gewoon afstapt van de echte high-end.

specs desktop | specs laptop


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Seekless schreef op dinsdag 15 november 2005 @ 00:23:
[...]
Ik zal je even helpen(die open deur moet je me vergeven ;) ), de MSRP van deze kaart is $650 ofwel 550 euro, dat de kaart duurder wordt aangeboden door komplett heeft nVidia niets mee te maken.
nVidia heeft daar alles mee te maken.

Een winkelprijs die hoger ligt dan de MSRP prijs heeft vrijwel altijd als oorzaak dat de fabrikant niet voldoende kaarten gemaakt heeft waardoor aanbod bij vraag achterblijft en winkels dus absurde prijzen kunnen vragen.
MSRP prijzen zeggen weinig tot niets als de produktie/aanbod daar niet op afgestemd is.

Bovendien: In juni 2005 lagen de GTX’en binnen 1 a 2 weken voor een prijs van 520 a 550 in de winkel waarbij deze kaart niet alleen een vergelijkbare snelheidswinst liet zien maar ook nieuwe (IQ) functies toevoegde.

Anyway, Consument hebben obv prijzen die zij in het recente verleden voor vergelijkbare innovaties betaalden een beeld van wat een redelijke prijs zou zijn.

In mijn ogen is dat dus geen EUR 705 noch EUR 670. Ik denk dat velen er zo over denken. nVidia heeft invloed op deze prijs door een voldoende aanbod te verzekeren, iets waar zij afgelopen half jaar behoorlijk voor op de borst hebben geklopt.
Vergelijking van de gemiddelde XT @ 512MB prijs laat duidelijk zien dat er geen 200 euro prijsverschil is. Dus zou je me je cijfers kunnen laten zien?
De goedkoopste XT512 staat bij 3 winkels voor EUR 512,-- te koop.
De goedkoopste GTX 512 stond gisteren ten tijde van mijn post voor ongeveer EUR 705,-- in de PW wat grosso modo op EUR 200 uitkomt.

De GTX512 staat inmiddels op EUR 672 wat het verschil inmiddels op EUR 160,- brengt.
Ik weet niet hoe jij op de hoogte bent wanneer nVidia wist wat voor kaarten ATi op de markt ging zetten en hoe ze zouden presteren maar bronvermelding bij zulke aantijgingen zou ik waarderen. Dit zou namelijk ook enige vorm van discussie bevorderen. Helemaal aangezien ATi's meerwaarde voornamelijk in IQ zit en dit al heel moeilijk te duiden is in dollars en zekers ook in kristallen bol prestatie voorspellingen

Als ik de performance stijgingen bekijk(vergelijk oude met nieuwe reviews) die er geboekt worden met de X1800 onder de nieuwe drivers dan zie ik geen enorme vooruitgang(algemeen bekeken). Hiernaast zou ik eens naar het lijstje kijken wat Firefox gepost heeft:

[rml]FirefoxAG in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml].
Ik bergijp niet wat je hiemee bedoelt danwel naar welk deel in mijn post verwijs je?

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 15 november 2005 @ 04:33:
Stokpaardje of niet. Als je meer dan €700 betaald voor een kaart dan mag je verwachten dat je HQ aan kan zetten. Misschien dat jij weinig last hebt van shimmering, maar het feit dat dit uberhaupt optreedt op high end kaarten bij nVidia is gewoon een kwalijke zaak.
Dat de GTX512 bij Komplett in de pre-order staat voor 700 Euri zegt nogal weinig. De X1800XT stond niet zo lang geleden ook bij oc.co.uk in de pre-order voor 775 Euro remember?

Verder is inschakelen van HQ+TSS-AA op de GTX512 over het algemeen geen probleem toch?
http://www.digit-life.com/articles2/video/g70-7.html

Wat er verder zo moeilijk te begrijpen is aan "in verreweg de meeste games geen last van shimmering" snap ik niet echt :?
En in de paar games waar het wel speelt kun je nog altijd besluiten de HQ mode aan te zetten... :)
Overigens als ik naar Digit Life kijk in de grafieken dan zie ik daar een HQ modus voor nVidia, terwijl er ook een HQ modus voor ATi wordt gebruikt. Alleen jammer dat dit ook weer niet 'eerlijk' is, aangezien bij ATi dan non-angle dependent AF wordt gebruikt en dit bij de G70 niet mogelijk is.
Zoals we allemaal weten is de performancehit van de XT bij Q-AF marginaal, slechts enkele procenten. Deze paar procenten gaan de XT dus niet helpen het gat met de GTX dicht te lopen, zelfs niet op de HQ mode... kunnen we nog uitgebreid de discussie aan of je de ATi Q mode moet vergelijken met de GTX HQ mode, maar laten we dat maar achterwege laten vandaag.
-1 Troll/Overbodig, ondanks de ;)
Ik dacht in deze context eerder aan +1 grappig ;)
SI4live schreef op dinsdag 15 november 2005 @ 11:02:
Hier wordt er wel HQ setting gebruikt met daarnaast de default:
http://www.ixbt.com/video2/g70-7-d.shtml#p17
(gele is HQ, oranje is HQ overclocked)
Dan is er duidelijk niet veel verschil tussen de X1800XT en de GTX512
Duidelijk niet veel verschil? De GTX512 nV HQ mode is regelmatig sneller dan de ATi standaardmode, laat staan de ATi HQ mode... ;)
Jejking schreef op dinsdag 15 november 2005 @ 11:08:
Duh... logisch. De R520 is een nieuwe architectuur, remember? Logisch dat er dan nog bakken met werk te doen zijn voordat de R5x0 uit is gemolken... Bij de R300-architectuur duurde dat ook meer dan 2,5 jaar. O ja... 7(8)7
Helaas hebben we dit keer geen 2,5 jaar (tenminste, kweet niet van jou, maar ik niet) :/
Verder zijn er al zo'n 3 maanden "goede" samples van de X1800XT beschikbaar - en dan hebben we het nog niet eens gehad over de softgroundperiode, waarin er ondanks de kaarten het niet 100% deden echt wel aan de drivers gewerkt kon worden. Ik denk namelijk niet dat de ATi driverdevelopmentsectie in die periode uit hun neus heeft lopen eten.
Zou je toch wel denken dat een aantal cruciale issues zo langzamerhand verholpen zouden moeten zijn...
Vind ik eerlijk gezegd niet eens zo gek dat ze dat denken, tegenwoordig is het meer regel dan uitzondering dat er bij een demo/game in de intro staat: Nvidia, The Way It's Meant To Be Played... :O
Dat nV gamedeveloppers betaald om hun logo te promoten doet verder niet af van dat de games gewoon "DirectX9.0" en "OpenGL" compliant zijn... daar heb je standaarden voor. De games waarin zeer specifiek nV patented technologie gebruikt is zijn op de vingers van een hand te tellen.
Met een vluchtig gebouwde patch die een command introduceert waar ik in al die talloze topics over Far Cry nog nooit wat van gehoord, geroken en gezien heb: Devmode, wtf :? Alleen het standaardcommand is op die fora bekend om het HDR-level zélf in te stellen...
-Devmode is een zeer bekende switchoptie van FarCry, en ik heb hem echt niet zelf uitgevonden. Verder deed HDR het ook op de XT voor de patch, alleen moest je dan zelf een beetje aan de config rommelen (op DH hadden ze het werkend voor de patch uitkwam).
De HDR problemen van de XT worden nu dus afgeschoven op de FarCry patch die zogenaamd niet goed is. Is gewoon OpenEXR FP blending HDR wat in FarCry gedaan word hoor... had geen enkel probleem moeten zijn. Verder hebben we het wel constant over FarCry, maar what about al die andere HDR games waarin de stock GTX de XT voorbijloopt (op soms vrij dramatische manieren)?
70% is inderdaad niet realistisch. Maar ik weet wél zeker dat de performance gaat toenemen bij mindere waarden, als dat gebeurt bij 6x00-owners, waarom zou dat dan niet gebeuren op de X1800? :)
Tsja, en ik weet ook dat de performance gaat toenemen als we 2xAA i.p.v. 4xAA gebruiken. Zullen we vanaf nu dan de GTX op 2xAA vergelijken met de XT op 4xAA? ;)
Je trekt nogal scheve vergelijkingen, voor mij is HDR nog steeds geen AA. Je vergelijkt appels met peren, we praten hier over HDR en niet over AA. Hence the question waarom je dit er dan bijhaalt?
Ik denk dat de analogie volkomen duidelijk is voor iedereen, behalve hen die hem niet willen begrijpen. Ik ga er zodoende ook geen verdere woorden aan vuil maken.
Met andere woorden, omdat Zardon je bant vanwege een persoonlijke situatie die in de grakamarkt uitermáte gevoelig lag (en dat weet je donders goed, want het ging om vertrouwelijke informatie a.k.a. NDA die nog niet bestemd was om gelekt te worden.), degradeer je meteen maar de hele site + reviews + keiharde resultaten naar niveau Pulpfiction/Onwaardig, want naar jouw mening staat Zardon gelijk aan DriverHeaven? Lijkt me niet, er werken een hoop mensen hard om ons dagelijkse portie nieuws op Internet te zetten. Mijn haren rezen ten berge toen ik dit las, dit slaat alles, je lijkt er maar geen genoegen van te krijgen om er telkens nog een schepje boven op te doen :X
Heb ik ergens Zardon gelijk gesteld aan Driverheaven? Ik stel voor dat we het houden bij wat ik heb gezegd, en niet bij jouw interpretaties van wat ik misschien zou kunnen bedoelen.
Verder stond Sander Sassen niet onder NDA, en had mijn ban totaal niets van doen met gevoelige informatie, maar gewoon met absolute intollerantie van enige andere mening - vooral als die wel eens ietsiepietsie negatief voor ATi zou kunnen worden uitgelegd.
Overigens: leuk zo'n heldenactie, maar toch geef ik Zardon geen ongelijk. Want elke persoon die zich daar registreert (ja, de postteller stond op 1 Firefox) om speciaal heel DH ervan te overtuigen dat Sander gelijk had, dat komt over alsof die persoon gelinkt is aan DriverHeaven, en is daarom een gevaar voor zijn voortbestaan. Doemdenken? Nee, want als hij je niet gebanned had, en de discussie was doorgaan en ATi was erachter gekomen (dat lijkt me wel realistisch), wat denk je dan dat dat voor consequenties had gehad voor DH? Dan waren ze bestempeld als 'verklikkers', nooit meer serieus genomen, en hadden ze (iig van ATi) geen hardware meer gekregen om te testen. Dat zorgt niet voor hopen goodwill... Heb je daar wel eens bij stil gestaan Firefox?
Ik heb nog nooit zo'n <flamerig overkomend woord verwijderd> rechtvaardiging voor totale intollerantie, de kop indrukken van kritiek, totale lak aan vrijheid van meningsuiting en klinkklare leugens gehoord.
Ik heb trouwens nergens beweerd dat Sander gelijk had, ik heb alleen aangegeven dat zijn resultaten tenminste in oveweging genomen konden worden, en dat ik het bijster verkeerd vind iemand op persoonlijke termen volledig af te flamen (inclusief zware dreigementen) omdat hij een set benchmarks post die een aantal fanboys kwetst in hun undying-ati-love.

Ik snap helemaal dat Zardon jouw crowd is (als het aan bepaalde mensen hier had gelegen mocht ik ook niet meer in dit topic komen), alleen ik heb het - met reden - niet zo op hem... sorrie.
Maar let wel: als het IP niet hetzelfde was, dan had hij geen recht om het goed te praten tegenover eigen leden! Daar ben ik volledig niet mee eens, want dat is matennaaierij imo.
No, really? Sander en ik wonen niet eens in dezelfde stad, plus ik heb een Static IP.
Je zegt het zelf al, met andere woorden... dit issue bestaat dus nog steeds. En dus vind ik dat men (en dat wil zeggen: iedereen) het grootste recht heeft om Nvidia daarop aan te spreken. Zolang dat shimmeringgedoe niet volléedig uitgeroeid is met een driver en er mensen last van hebben, is het gewoon een issue. Punt. En datzelfde geldt voor ATi. Gisteren nog, veel users hebben geen beeld behalve radar in de DTM RaceDriver3-demo. Zolang dat niet is gefixed door ATi in nieuwe drivers, is het gewoon een issue. Punt. Trust me, dit vind ik ook knap stom dat het niet gefixed is, maar hierbij bekijk ik de zaak objectief.
Dat "shimmeringgedoe" is i.m.o. heel wat minder kwalijk dan die HDR issue met de XT (of ATi's OpenGL issues), want zoals al 100x gezegd speelt het in verreweg de meeste games niet. Die HDR issue speelt in verreweg de meeste games wel, en OGL is nog steeds niet bepaald volledig gefixed.
Het laatste word gebaggetalliseerd en nV mag wel worden afgefikt op het eerste. Hoezo voorkeuren?
Zoals CJ al zei... komt lichtelijk trollerig op mij over, zou je die toon aub aan willen passen Firefox? Dit soort dingen werken bij mensen op hun zenuwen, dus ook bij mij. Bvd.
Dan moeten een aantal mensen hier mss iets aan hun zenuwen doen, want die zijn volgens mij een beetje overgevoelig ;)

[Voor 3% gewijzigd door Cheetah op 15-11-2005 15:01]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
Gebeurt het weer.. come on people.. be happy.. :D (alle bij de "kanten" btw)

[Voor 22% gewijzigd door jimbojansen op 15-11-2005 15:12]


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

CJ schreef op dinsdag 15 november 2005 @ 13:21:
, want in de US/UK is-ie gewoon te krijgen.
Nou gewoon is ook maar heel relatief. Ook de UK en de VS kampen met grote tekorten. Bij OC.uk is er bv geen XT te bekennen, waar blijven toch als die massa's? XT's

Ik heb nog een aantal Aces achet de hand in de vorm van VS etailer die naar Europa shippen, maar vergeet het maar geen XT.

Niet op voorraad.


  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 19-10 09:25

Pubbert

random gestoord

FirefoxAG schreef op dinsdag 15 november 2005 @ 14:49:

[...]
Dat nV gamedeveloppers betaald om hun logo te promoten doet verder niet af van dat de games gewoon "DirectX9.0" en "OpenGL" compliant zijn... daar heb je standaarden voor. De games waarin zeer specifiek nV patented technologie gebruikt is zijn op de vingers van een hand te tellen.
Vaak bestond dit ook dat nvidia test systemen leverde aan de gamesproducent (vroeger was dit iig zo, en zodoende was er bij een leuk populair spel altijd een patch van de óf de gamedevver óf ATi nodig om de game goed te laten lopen op een Radeon. Eerlijk? Nou uh nee. Maar gelukkig is het nog wel meegavellen, en vooral leuk omdat (was vorig jaar) een test aan toonde dat ATi in 70-80% van de TWIMTBP games gemiddeld sneller was dan een vergelijkbaar nv-kaart (qua prijs) Ik kan de link ff zo 123 niet meer vinden.
Dat "shimmeringgedoe" is i.m.o. heel wat minder kwalijk dan die HDR issue met de XT (of ATi's OpenGL issues), want zoals al 100x gezegd speelt het in verreweg de meeste games niet. Die HDR issue speelt in verreweg de meeste games wel, en OGL is nog steeds niet bepaald volledig gefixed.
Het laatste word gebaggetalliseerd en nV mag wel worden afgefikt op het eerste. Hoezo voorkeuren?
Tja, hoeveel HDR games zijn er? Denk dat dit nog wel minder is dan het aantal games waarin de shimmershizzle optreed, verder geen ervaring mee, (sinds 7 brakke GeForce's (GF256 t/m GF3ti200, problemen uiteenlopend van dode fan, dode kaart, rotte 2d, rotte tv-out) in ruim een jaar heb alleen maar ATi gehad (8500/9700/9800PRO/X800PRO/X700M, die nu nog allemaal ergens funktioneren) Maar dus zelf geen ervaring hoe vervelend dit is en hoe het optreed. Net als dat ATi beloofde de perf. van de X1800 in OGL aan te pakken (hoppa, in AF en AF+AA modes tot 30/40% winst) heb ik ook wel vertrouwen dat ze de HDR bug opgelost krijgen) En ik denk niet ATi er nu echt wakker van ligt dat de peformance in non AA/AF modes nog wat lager is dan de concurrent, aangezien je met een X1800 toch wel met AA/AF kunt spelen in Q4/D3, waar je dus al bijna geen perf. hit meer hebt.
Want wat heb je eraan om 140 of 110 fps te hebben in 1024x768 zonder AA/AF? Maar zou wel leuk zijn als die perf. nog omhoog ging, maar liever dat ze hun tijd steken in het fixxen van de HDR bug.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 15:45
shuogg schreef op dinsdag 15 november 2005 @ 14:15:
[...]


het is haast alsof ATi wil dat men hier of nVidia koopt of gewoon afstapt van de echte high-end.
het is geen kwestie van willen, maar kúnnen :)

''échte highend'' ?..... 8)7

ik vind het wel grappig hoe ati in dit topic ''verheven'' wordt (maar dat mag...is tenslotte het ati discussie topic)...wat me wel opvalt is dat er heel veel mensen zijn (mischien wel te veel) die pér definitie ati beter vinden....op het nvidia discussie topic, is dit niet zo...die mensen kopen gewoon de snelste kaart op 't moment...als dat nou ati is, of nvidia, maakt ze niet uit (en mij ook niet)....

ook al blijken de cyfers achteraf een beetje tegenvallen (laten we eerlijk zijn ivm 4 maanden geleden)...men blijft gewoon stug volhouden :|


btw...20.000 3dmarks is in zicht.... http://www.xtremesystems.org/forums/showthread.php?t=80080 maar dan met échte echte highend :X

[Voor 73% gewijzigd door Mr. Detonator op 15-11-2005 16:30]


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
Mr. Detonator schreef op dinsdag 15 november 2005 @ 16:09:
[...]


het is geen kwestie van willen, maar kúnnen :)

''échte highend'' ?..... 8)7

ik vind het wel grappig hoe ati in dit topic ''verheven'' wordt (maar dat mag...is tenslotte het ati discussie topic)...wat me wel opvalt is dat er heel veel mensen zijn (mischien wel te veel) die pér definitie ati beter vinden....op het nvidia discussie topic, is dit niet zo...die mensen kopen gewoon de snelste kaart op 't moment...als dat nou ati is, of nvidia, maakt ze niet uit (en mij ook niet)....

ook al blijken de cyfers achteraf een beetje tegenvallen (laten we eerlijk zijn ivm 4 maanden geleden)...men blijft gewoon stug volhouden :|


btw...20.000 3dmarks is in zicht.... http://www.xtremesystems.org/forums/showthread.php?t=80080 maar dan met échte echte highend :X
Je leest mijn post verkeerd, ik zeg 'of' :). Puur omdat sommige mensen nooit nV zullen halen (bijv. omdat ze zoals Thund3r veel kaarten hebben zien sterven) zal het niet leverbaar zijn van high-end ATi kaarten betekenen dat ze een stapje lager zullen gaan zitten (dus X1800XL ipv X1800XT 512MB in dit geval) :)

specs desktop | specs laptop

FirefoxAG schreef op dinsdag 15 november 2005 @ 14:49:
[...]
De HDR problemen van de XT worden nu dus afgeschoven op de FarCry patch die zogenaamd niet goed is. Is gewoon OpenEXR FP blending HDR wat in FarCry gedaan word hoor... had geen enkel probleem moeten zijn. Verder hebben we het wel constant over FarCry, maar what about al die andere HDR games waarin de stock GTX de XT voorbijloopt (op soms vrij dramatische manieren)?
Dat blijkt maar weer hoeveel je van HDR af weet... je er eerst een beetje meer in verdiepen en je zult zien dat 'gewoon OpenEXR' niets zegt. Far Cry maakt gebruik van specifieke nV calls en dit geldt ook voor de meeste andere games. Die zijn ontwikkeled op nV kaarten. Het uiteindelijke resultaat mag er dan hetzelfde uitzien, maar hoe het intern werkt is heel verschillend en de games zijn op dit moment gefinetuned voor de NV manier.

Maar ik meende me te herinneren dat ik een paar posts geleden dit al uitgebreid uitgelegd heb hoe dit werkte... :X

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 15 november 2005 @ 17:03:
Dat blijkt maar weer hoeveel je van HDR af weet...
Zullen we even niet gaan sneren? O-)
je er eerst een beetje meer in verdiepen en je zult zien dat 'gewoon OpenEXR' niets zegt. Far Cry maakt gebruik van specifieke nV calls en dit geldt ook voor de meeste andere games. Die zijn ontwikkeled op nV kaarten. Het uiteindelijke resultaat mag er dan hetzelfde uitzien, maar hoe het intern werkt is heel verschillend en de games zijn op dit moment gefinetuned voor de NV manier.
Even een analogie tussendoor: als ik nou ga roepen dat de GeforceFX serie een geweldige serie was, maar niet performde doordat gamedeveloppers "de ATi manier" van Dx9 hanteerden word ik hier terecht voor gek verklaard. Waarom? Omdat de "ATi manier" gewoon de DirectX9 standaard was.

Zo is er ook een OpenEXR standaard, en die is volledig open. Roepen dat ATi niet performt in OpenEXR omdat dit op "de nV manier" word gedaan is i.m.o. net zo kansloos als bovenstaand voorbeeld. HDR - ook FP blending HDR zoals OpenEXR - gebeurd met DirectX9.0 calls, niet met directe calls aan nV hardware.
Als hier "specifieke nV calls" voor werden gebruikt zou het uberhaupt niet werken op ATi hardware (en zelfs dan nog zou je je kunnen afvragen of dit aan de calls zelf of aan het oppakken daarvan door ATi ligt).

Ik mag toch wel hopen dat de tijd dat specifieke renderpaths werden gecode voor de verschillende 3D Card fabrikanten ondertussen ver achter ons ligt. Daar zijn standaarden voor waar alle partijen zich aan dienen te conformeren.
Maar ik meende me te herinneren dat ik een paar posts geleden dit al uitgebreid uitgelegd heb hoe dit werkte... :X
En ik meen dat ik een paar posts geleden ook al uitgebreid heb uitgelegd hoe ik er over dacht ;)

[Voor 11% gewijzigd door Cheetah op 15-11-2005 18:28]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Seekless
  • Registratie: februari 2004
  • Laatst online: 08-09-2006

Seekless

Doelloos zoekende

CJ schreef op dinsdag 15 november 2005 @ 17:03:
[...]


Dat blijkt maar weer hoeveel je van HDR af weet... je er eerst een beetje meer in verdiepen en je zult zien dat 'gewoon OpenEXR' niets zegt. Far Cry maakt gebruik van specifieke nV calls en dit geldt ook voor de meeste andere games. Die zijn ontwikkeled op nV kaarten. Het uiteindelijke resultaat mag er dan hetzelfde uitzien, maar hoe het intern werkt is heel verschillend en de games zijn op dit moment gefinetuned voor de NV manier.
Klopt wat je zegt maar ATi had al lang en breed kunnen en moeten voldoen aan dezelfde snelheden. Als je een kaart uitbrengt en alle IQ opties promoot als een fallus ter grote van de toren van Pisa dan verwacht ik dat ze ook werken of er dus nVidia calls of niet zijn, pomp je maar wat US $ in de developers om een fix voor je uit te brengen.
Help!!!! schreef op dinsdag 15 november 2005 @ 14:33:
[...]

nVidia heeft daar alles mee te maken.

Een winkelprijs die hoger ligt dan de MSRP prijs heeft vrijwel altijd als oorzaak dat de fabrikant niet voldoende kaarten gemaakt heeft waardoor aanbod bij vraag achterblijft en winkels dus absurde prijzen kunnen vragen.
MSRP prijzen zeggen weinig tot niets als de produktie/aanbod daar niet op afgestemd is.

Bovendien: In juni 2005 lagen de GTX'en binnen 1 a 2 weken voor een prijs van 520 a 550 in de winkel waarbij deze kaart niet alleen een vergelijkbare snelheidswinst liet zien maar ook nieuwe (IQ) functies toevoegde.
Ja, tuurlijk. :? Eh, als Komplett die kaart wil aanbieden voor een staaf goud dan kan nVidia daar dus niets aan doen. Dat is de keuze van Komplett. Dat nVidia de gemiddelde marktprijs kan proberen te beinvloeden door genoeg kaarten op de markt te brengen en die aan verschillende verkopers te leveren is ook een waarheid. Doch bepaalt nVidia dan nog steeds niet de verkoop prijs in de winkels. Als je dit wel beweert dan zou ik zeggen babbel maar even met een econoom.
Anyway, Consument hebben obv prijzen die zij in het recente verleden voor vergelijkbare innovaties betaalden een beeld van wat een redelijke prijs zou zijn.
Dit zou ik graag zwart op wit zien want ik heb namelijk iets geheel anders geleerd.
De goedkoopste XT512 staat bij 3 winkels voor EUR 512,-- te koop.
De goedkoopste GTX 512 stond gisteren ten tijde van mijn post voor ongeveer EUR 705,-- in de PW wat grosso modo op EUR 200 uitkomt.

De GTX512 staat inmiddels op EUR 672 wat het verschil inmiddels op EUR 160,- brengt.
Tuurlijk de goedkoopste min goedkoopste. Ik zeg ten eerste duidelijk gemiddelde prijs ten tweede zou je dan ook nog eens komplett van komplett moeten afhalen. Eerlijk vergelijken heet dat, is wel zo netjes en verkomt een hoop nodeloos gezever.

Trouwens, de GTX 512 Mb is beter leverbaar dan de XT(welke smaak dan ook), vraag maar aan de distributeurs. Doch ik geef toe dat ik de GTX ook in iets grotere supplies verwacht had, maar ik kan niet inschatten wat de vraag naar de GTX is terwijl de vraag naar XT's al duidelijk was uit preorders.

In darkness we were born, in darkness we will live, till the enlightenment of death.


  • Astennu
  • Registratie: september 2001
  • Nu online
Jah die leverbaarheid van die X1800 XT is om te huilen. JE zou toch denken dat ATi er iets van geleerd zou hebben. NIET DUS.... 8)7 |:( . Nja ATI DOE HET BIJ DE R580 en RV560 EENS GOED !!!

Sorry dat moest ik er even over kwijt. En over dat geblaat hier over Nvidia ATi. Je moet idd toegeven dat op dit moment de ATi kaarten gewoon onder de maat presteren. Idd wat ik zij over die drivers mag dan wel zo zijn maar dat kan ATi kennende lang duuren. Dus dat mag je nu niet mee krekenen. Alleen wel als het op de korte termijn zou zijn. Maar ik sluit ook niet uit dat de nieuwere games en mischien far cry en zo met patches toch erg goed op ATi kaarten gaan lopen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Ik sneer niet. Als dat zo overkomt, dan bij deze m'n excuus. Ik wijs je alleen maar even op een bepaalde kortzichtigheid zoals bepaalde punten als feiten presenteren terwijl er meer aan de hand is dan jezelf klaarblijkelijk weet, terwijl ditzelfde punt hier al meerdere keren voorbij is gevlogen. Wacht maar even af tot bepaalde games gepatched zijn. Waarom denk je dat SS2 zo'n corruptie kan geven op ATi kaarten met HDR? Waarom denk je dat SC:CT gebruik maakt van het SM2.0 path op ATi X1K kaarten, terwijl dit bij lange na niet optimaal is voor die serie (aangegeven door Ubi zelf)? Bepaalde games die nu under development zijn, hebben inmiddels ondersteuning voor de X1K serie en HDR toegevoegd aan hun arsenaal... Je bent gewoon te vroeg met het trekken van conclusies over HDR performance.

OpenEXR een "standaard" noemen is één ding, maar er dan meteen van uit gaan dat iedereen dit zo maar ondersteund is iets anders. nVidia volgt OpenEXR vrij nauwkeurig en dat is hun keuze. Als ATi op een andere manier HDR ondersteunt dan is dat hun keuze, als het resultaat er maar hetzelfde uit ziet. Er zijn meerdere wegen die naar (HDR) Rome leiden. OpenEXR is er een van en is een bepaald FP16 formaat wat bepaalde calls vereist die nV tot bijna in de puntjes hardwarematig volgt. Het is niet "HET FP16 formaat". "Open standaard" wil niet zeggen dat iedereen verplicht is dit te volgen.

Je schijnt te denken (correct me if I'm wrong) dat OpenEXR HDR echt een vorm van HDR is, terwijl dit niet meer is dan een bepaald FP16 formaat HDR. Het is dus absoluut niet gek dat games aangepast moeten worden aan andersoortige hardware, wanneer er tot voor kort alleen maar NV kaarten waren die hardwarematige HDR deden (en dit dus voornamelijk doen volgens het OpenEXR standaard).

3Dc is ook een open standaard. Ondersteunt nVidia dit hardwarematig? Nee. Ze doen dit via een driverhack waardoor er 2x zo veel geheugen nodig is om hetzelfde effect te bereiken.

De FX in deze vergelijking roepen is het vergelijken van appels met peren. DX9 was DE standaard die Microsoft had opgelegd. Was dit een OPEN standaard? Nee. Dit was puur en alleen door Microsoft op de markt gezet en wil je dat je games het goed doen onder Windows, dan moet je er voor zorgen dat je je hardware conform hieraan maakt. Dit geldt niet voor HDR. nVidia maakte de fout door uit het developersforum te stappen en maakte hun hardware op hun eigen manier. Het gevolg was een brakke DX9 implementatie. DX => niet een open standaard, dus fabrikanten zijn min of meer verplicht om alles tot op de letter te volgen wil je dat iets goed werkt. OpenEXR => open standaard, dus fabrikanten hoeven het niet te volgen. Er is een wereld van verschil tussen EEN standaard en DE standaard.

De vergelijking gaat dus absoluut niet op met ATi's manier van HDR implementatie, aangezien die vrij correct is uitgevoerd (en nog wel in meerdere vormen + AA). Als ATi had geadverteerd met "Our hardware supports fast OpenEXR HDR", dan had ik je gelijk gegeven. Feit is dat ATi dit niet ondersteunt, maar wel andere vormen van FP16 blending heeft voor HDR en dit op andere manieren kan gebruiken.

Games die HDR hebben zullen tot voor kort alleen op NV hardware gemaakt zijn en hebben dus grote kans dat die getuned zijn voor de specifieke OpenEXR calls en dit misschien wel via omwegen moeten doen (zo is SM2.0 hardware ook in staat om aan de OpenEXR eisen te voldoen, maar moet FP blending via de shaders gaan en zal daardoor zo'n 20-30% trager zijn).

Patches komen er dus ook aan voor Far Cry (1.4), SC:CT, Serious Sam 2 etc. Het is niet veel werk, en het activeren van AA in combinatie met HDR zou als het goed is, niet veel aan performance moeten inboeten. Hoe ingewikkelder de shading is, des te minder performance impact zal AA krijgen op HDR op ATi kaarten. Als na de patches en driverupdates de boel nog een brakke performance geeft, dan mag je wat mij betreft de hele X1K serie de grond in boren. Maar imo ben je nu te voorbarig bezig.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

.

[Voor 102% gewijzigd door Help!!!! op 15-11-2005 19:37]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |

Pagina: 1 ... 4 5 6 Laatste

Dit topic is gesloten.

Let op:
Er worden teveel basic vraagjes gesteld in grote topics als dit. De GoT Huisregels gelden ook in grote topics. Als je vraag te simpel is voor in een aparte topic, is hij ook te simpel voor hier.

POST DUS GEEN 'SIMPELE VRAAGJES' MAAR DOE EVEN ZELF DE MOEITE IETS UIT TE ZOEKEN.

Doe je dat niet en post je hier alsnog, dan riskeer je sancties :o


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee