nVidia heeft nog G72 en G73 voor de low- en mid end markt klaar staan, misschien dat ATI daarom wacht met het verhogen van de kloksnelheid voor haar X1600 serie.Astennu schreef op zondag 13 november 2005 @ 12:10:
Waarom zegt ATi niet gewoon dat de X1600 standaard op 690 MHz geclockt moet worden ? ik bedoel die core kan met stock cooling zonder voltage verhogingen 800 mhz aan. Daar zit de max ergens. En met 100 MHz boost heb je toch een leuke redelijk snelle kaart die dan wel mee kan met de GTO en GTO2.
Het plaatje even uitvergroot en gesharpend:

Vooral boven de X van XL zie je duidelijk een 8, dus het plaatje lijkt me zeker van een X800XL doos te zijn.

Vooral boven de X van XL zie je duidelijk een 8, dus het plaatje lijkt me zeker van een X800XL doos te zijn.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Eerlijk gezegd.. ik zie helemaal niks.. alleen de X van X(1)800 ...Thund3r schreef op zondag 13 november 2005 @ 21:12:
Het plaatje even uitvergroot en gesharpend:
[afbeelding]
Vooral boven de X van XL zie je duidelijk een 8, dus het plaatje lijkt me zeker van een X800XL doos te zijn.
[Voor 9% gewijzigd door jimbojansen op 13-11-2005 21:22]
Tja micshien wel. Met wat tweaks aan de core zou 750 a 800 mhz goed mogelijk zijn. Maar als ik het goed begreep krijgt de opvolger ( de RV560 ) 8 Piplines ik denk dat hij dan wel dezelfde opzet krijgt als de R580. Dus 1-3-1-1 ipv 1-3-2-1 wat het nu is. Maar dat moet aanzienlijk sneller zijn. Hij heeft theoreties meer shader power dan de X1800. En de X1600 zou wel een mooi low range kaartje zijn alleen de vraag is of ATi em zo kan aanprijzen zonder verlies te maken. Mischien als ze de Ring bus er uit halen.. Dan zou i wel een stuk goedkoper kunnen worden. Maar dit is allemaal mooie specualtie. Niet dat er ooit iets van komt maar het zou wel mooi zijnHacku schreef op zondag 13 november 2005 @ 18:54:
[...]
nVidia heeft nog G72 en G73 voor de low- en mid end markt klaar staan, misschien dat ATI daarom wacht met het verhogen van de kloksnelheid voor haar X1600 serie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als je gewoon even naar de code kijkt dan zie je dat elk plaatje viperx800xl.jpg heet. Dit is bij de Viper X1800XL zo, maar ook bij de Viper X1600 en bij de Viper X1300.Thund3r schreef op zondag 13 november 2005 @ 21:12:
Het plaatje even uitvergroot en gesharpend:
[afbeelding]
Vooral boven de X van XL zie je duidelijk een 8, dus het plaatje lijkt me zeker van een X800XL doos te zijn.
offtopic:
Heb zelf ook nog een Viper gehad, namelijk de Viper II met de brakke Savage2000 chip.
Heb zelf ook nog een Viper gehad, namelijk de Viper II met de brakke Savage2000 chip.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Kwist niet dat die lui nog bestonden. Die hadden toch S3 overgenomen of zo ? Er was toen wel iets mee want ze brachten alleen maar kaarten uit met S3 chipsets er op. En van die Kyro lui hebben we trouwens ook niet veel meer gehoord. Waaren allemaal leuke kaartjes maar de drivers waren toen gewoon te slecht waardoor de Geforce kaarten sneler waren.CJ schreef op zondag 13 november 2005 @ 23:33:
[...]
Als je gewoon even naar de code kijkt dan zie je dat elk plaatje viperx800xl.jpg heet. Dit is bij de Viper X1800XL zo, maar ook bij de Viper X1600 en bij de Viper X1300.
offtopic:
Heb zelf ook nog een Viper gehad, namelijk de Viper II met de brakke Savage2000 chip.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De kyro kaarten waren vaak sneller dan de geforcen voor dezelfde prijs, de z-buffer wertkte alleen niet helemaal lekker waardoor max payne (ook al heet ie daar niet zo) in 3dmark 01 bij mij half voor de paal langs liep ipv achter de paal
Later kwamen de spellen die hardware T&L ondersteunden en vereisten en toen was het eigelijk wel afgelopen met de kyro
Ik heb nu een x1800xl en ik heb die demo's van ati eens bekeken; toystore is inderdaad heel erg mooi. Ik had POM (diepte in een texture zonder dat de leveldesiner er rekening mee hoeft te houden) al wel een in een demofilpje gezien van de aankomende unreal, maar om het dan ook realtime gerendered te zien is gaaf. Zelfs mijn vader kon het waarderen, ookal is hij geen graphics freak.
Ik zou wel wat plaatjes willen posten, maar al mijn plaatjes worden zo met fraps:


Later kwamen de spellen die hardware T&L ondersteunden en vereisten en toen was het eigelijk wel afgelopen met de kyro
Ik heb nu een x1800xl en ik heb die demo's van ati eens bekeken; toystore is inderdaad heel erg mooi. Ik had POM (diepte in een texture zonder dat de leveldesiner er rekening mee hoeft te houden) al wel een in een demofilpje gezien van de aankomende unreal, maar om het dan ook realtime gerendered te zien is gaaf. Zelfs mijn vader kon het waarderen, ookal is hij geen graphics freak.
Ik zou wel wat plaatjes willen posten, maar al mijn plaatjes worden zo met fraps:

[Voor 17% gewijzigd door m277755 op 14-11-2005 00:55]
Dat lijkt wel op mijn bootlogo met mijn X1800 XL + een DFI Ultra D. Die heeft er ook last van. Ben nu aan het wachten op een goede bios update.m277755 schreef op maandag 14 november 2005 @ 00:49:
De kyro kaarten waren vaak sneller dan de geforcen voor dezelfde prijs, de z-buffer wertkte alleen niet helemaal lekker waardoor max payne (ook al heet ie daar niet zo) in 3dmark 01 bij mij half voor de paal langs liep ipv achter de paal![]()
Later kwamen de spellen die hardware T&L ondersteunden en vereisten en toen was het eigelijk wel afgelopen met de kyro
Ik heb nu een x1800xl en ik heb die demo's van ati eens bekeken; toystore is inderdaad heel erg mooi. Ik had POM (diepte in een texture zonder dat de leveldesiner er rekening mee hoeft te houden) al wel een in een demofilpje gezien van de aankomende unreal, maar om het dan ook realtime gerendered te zien is gaaf. Zelfs mijn vader kon het waarderen, ookal is hij geen graphics freak.
Ik zou wel wat plaatjes willen posten, maar al mijn plaatjes worden zo met fraps:
[afbeelding]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het gekke is dat het beeld tijdens de demo helemaal niet zo is, maar gewoon helemaal goed. Als ik met fraps screenshots of filmpjes maak van spellen worden ze wel goed, dus ik denk dat het aan de samenwerken van de ati demo engine en fraps ligt
Ik heb normaal gesproken het bootlogo van mijn ultra d uitstaan, dus mij was niks opgevallen, maar ik heb het even getest en ik krijg ook rare kleuren te zien
Ik heb normaal gesproken het bootlogo van mijn ultra d uitstaan, dus mij was niks opgevallen, maar ik heb het even getest en ik krijg ook rare kleuren te zien
[Voor 25% gewijzigd door m277755 op 14-11-2005 10:28]
Goede review van de X1800XT 512MB @ Bit-tech.
Naast de Reference 7800 GTX 256MB kaart vergelijken ze 'm ook met de XFX GeForce 7800 GTX Extreme Gamer Edition 256MB, de kaart die in hun 7800 GTX Extreme Edition Head-to-Head als beste 265MB GTX eindigt.
Naast de Reference 7800 GTX 256MB kaart vergelijken ze 'm ook met de XFX GeForce 7800 GTX Extreme Gamer Edition 256MB, de kaart die in hun 7800 GTX Extreme Edition Head-to-Head als beste 265MB GTX eindigt.
It is hard to compare the Radeon X1800XT 512MB to the baseline performance you are going to get from a GeForce 7800 GTX at the moment, because the prices are so far apart. Having said that, the Radeon X1800XT 512MB is noticeably faster in just about every situation that they clashed. However, we don't believe that the additional £45 that it will cost you over the price of BFGTech's GeForce 7800 GTX OC (clocked at 460/1300MHz) is worth it at this moment in time.
There's certainly a hell of a lot of promise in ATI's Radeon X1800XT, and we hope that it will become readily available and competitive with the lower clocked GeForce 7800 GTX's on price. When that happens, there shouldn't be any negative thoughts entering your mind when you're considering dropping your hard earned cash on one of these babies.
Ah kijk ik ben dus niet de enige. Met een bios update zou het igg weg zijn. Alleen ik vraag me af welke. Ik heb zelf de 704-BT2A bios. Volgens mij is dat een van de nieuwste.m277755 schreef op maandag 14 november 2005 @ 10:23:
Het gekke is dat het beeld tijdens de demo helemaal niet zo is, maar gewoon helemaal goed. Als ik met fraps screenshots of filmpjes maak van spellen worden ze wel goed, dus ik denk dat het aan de samenwerken van de ati demo engine en fraps ligt
Ik heb normaal gesproken het bootlogo van mijn ultra d uitstaan, dus mij was niks opgevallen, maar ik heb het even getest en ik krijg ook rare kleuren te zien
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als het enige probleem is dat het bios logo niet goed wordt weergegeven maakt het mij helemaal niet uit; ik heb hem toch atijd uitstaan. Bedoel je trouwens bios van het moederbord of de videokaart? Ik kan van beide niet vinden hoe ik moet zien welke versie ik heb
Ik heb trouwens sinds ik de nieuwe 5.11 geinstalleerd had problemen met het geheugen van clockspeed veranderen. Met 5.10 kon ik met ati overclocker zonder problemen zowel de core als het geheugen veranderen, nu is het zo dat ik met zowel ati overclocker als overdrive de core kan veranderen, maar als ik de snelheid van het geheugen aanpas gaat het mis: met overclocker krijg ik na een tijdje zwart scherm een vpu recover fout en met overdrive reboot de pc meteen na het aanpassen.
Ik heb trouwens sinds ik de nieuwe 5.11 geinstalleerd had problemen met het geheugen van clockspeed veranderen. Met 5.10 kon ik met ati overclocker zonder problemen zowel de core als het geheugen veranderen, nu is het zo dat ik met zowel ati overclocker als overdrive de core kan veranderen, maar als ik de snelheid van het geheugen aanpas gaat het mis: met overclocker krijg ik na een tijdje zwart scherm een vpu recover fout en met overdrive reboot de pc meteen na het aanpassen.
[Voor 48% gewijzigd door m277755 op 14-11-2005 13:03]
Ik bedoel de bios versie van het moederbord. Ik weet niet hoe je de versie kan zien. Ik weet em toevallig omdat ik die geflashed heb ik denk dat jij gewoon een standaart 318 er in hebt zitten.
Maar volgens mij is dat idd het enige. Ik heb het gevoel dat het iets met dat Avivo te maken heeft maar ik weet het niet zeker.
Maar volgens mij is dat idd het enige. Ik heb het gevoel dat het iets met dat Avivo te maken heeft maar ik weet het niet zeker.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Weer een zware titel erbij waarin ATi met HDR ingeschakeld verslagen wordt door zelfs een stock GTX:MaTr1x schreef op maandag 14 november 2005 @ 11:37:
Goede review van de X1800XT 512MB @ Bit-tech.
Naast de Reference 7800 GTX 256MB kaart vergelijken ze 'm ook met de XFX GeForce 7800 GTX Extreme Gamer Edition 256MB, de kaart die in hun 7800 GTX Extreme Edition Head-to-Head als beste 265MB GTX eindigt.
Age of Empires III
Dit begint nu langzamerhand echt op meer dan een incident te lijken...

Alleen jammer dat ze niet overal het aantal fps bij vermelden (slechts bij enkele games)...

<edit>
De eerste plaatjes van GTX512 beginnen binnen te komen: klik en klik en klik en klik
(koreaanse site - onleesbaar dus maar plaatjes spreken voor zich)
[Voor 35% gewijzigd door Cheetah op 14-11-2005 13:45]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Zo onleesbaar is het nu ook weer niet, de getallen zijn toch duidelijkFirefoxAG schreef op maandag 14 november 2005 @ 13:05:
<edit>
De eerste plaatjes van GTX512 beginnen binnen te komen: klik en klik en klik en klik
(koreaanse site - onleesbaar dus maar plaatjes spreken voor zich)

Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244
2e review 7800GTX 512 vs TOP vs X1800XT: http://www.digit-life.com/articles2/video/g70-7.html
De review pakt trouwens een model op stock clocks (550/1700). Een XFX loopt bijv. 580/1730.
Qua overclocking:
Overall gezien, de conclusie: Bring on that R580 ATi!!
De review pakt trouwens een model op stock clocks (550/1700). Een XFX loopt bijv. 580/1730.
Qua overclocking:
13% OC!! De GTX512 kan op core dus zo'n beetje de stock speeds van de X1800XT halenNow what concerns overclocking. I expected that the selected G70 would run at 550 MHz nearly at maximum output, I was wrong. The card worked fine at 620/1930 MHz! It's clear that the memory running at 900 (1800) MHz can demonstrate a decent potential, but the core running at 620 MHz is a miracle!

Overall gezien, de conclusie: Bring on that R580 ATi!!

[Voor 63% gewijzigd door Cheetah op 14-11-2005 14:47]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Anoniem: 79835
Cherry?FirefoxAG schreef op maandag 14 november 2005 @ 14:27:
2e review 7800GTX 512 vs TOP vs X1800XT: http://www.digit-life.com/articles2/video/g70-7.html
De review pakt trouwens een model op stock clocks (550/1700). Een XFX loopt bijv. 580/1730.
Qua overclocking:
[...]
De GTX512 kan op core dus zo'n beetje de stock speeds van de X1800XT halen
Overall gezien, de conclusie: Bring on that R580 ATi!!
http://www.techwarelabs.c...a7800gtx512/index_5.shtmlTo our dismay, Nvidia really has maxed out their core and memory this time, leaving little headroom for fun. Using the below Nvidia software utility, we were only able to overclock the video card to 581 MHz core / 1.75 GHz memory (Default 550/1700).
Idd. Ik vind dat de prestaties echt GOED meevallen! Ik had marginale verbeteringen verwacht, maar dit slaat alles. In sommige gevallen is er sprake van een verbetering van meer dan 50% minimaal (tov de ref.GTX)!CyberAmp schreef op maandag 14 november 2005 @ 14:05:
[...]
Zo onleesbaar is het nu ook weer niet, de getallen zijn toch duidelijk
Naar mijn mening is de astronomische prijs nu ook meer gerechtvaardigd.
Kan iemand mij verklaren hoe nvidia op 110nm zulke speeds weet te halen? Hebben ze niet stiekem 90nm gebruikt? Of zijn er nieuwe technieken gebruikt die zulke clocks mogelijk maken? Een verklaring als "een aangepast PCB" lijkt mij te simpel.
[Voor 25% gewijzigd door Brainless-NL op 14-11-2005 15:00]
leuk verschil 580 max en 620 max. Dus zullen er idd wel weer TOP 512 en niet TOP 512's komen.
Maar die R580 mag idd ook wel komen van mij
koop ik er mooi een 
Over dat HRD gebeuren. Ik denk dat er nog veel aan de drivers moet gaan gebeuren. Want ik denk niet dat die prestatie zo slecht zal blijven anders flopt de hele X1k serie.
Edit:
Die test deugt niet. Er staat bij doom 3 98% winst TOV de XT. Dus duidelijk oude drivers :\ niet eens 5.10a ook geen 5.11. Dus een test die niet meer te gebuiken is. Dus nu maar wachten op Anandtech. ik denk dat je dan een iets minder dominant beeld krijgt. Maar nog steeds wel dikke winst voor de GTX512. Wat wel grappig is is dat in een aantal games de XT zelfs sneller was dan de GTX512 in AAA en HQ AF.
Maar die R580 mag idd ook wel komen van mij


Over dat HRD gebeuren. Ik denk dat er nog veel aan de drivers moet gaan gebeuren. Want ik denk niet dat die prestatie zo slecht zal blijven anders flopt de hele X1k serie.
Edit:
Die test deugt niet. Er staat bij doom 3 98% winst TOV de XT. Dus duidelijk oude drivers :\ niet eens 5.10a ook geen 5.11. Dus een test die niet meer te gebuiken is. Dus nu maar wachten op Anandtech. ik denk dat je dan een iets minder dominant beeld krijgt. Maar nog steeds wel dikke winst voor de GTX512. Wat wel grappig is is dat in een aantal games de XT zelfs sneller was dan de GTX512 in AAA en HQ AF.
[Voor 39% gewijzigd door Astennu op 14-11-2005 14:49]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zou kunnen, maar houdt ook in gedachte dat de speeds die techwarelabs haalde zo'n beetje de stock speeds van de XFX versie zijn...
Kan dus ook een pechkaart of een ander probleem zijn, maar dat zullen we snel genoeg weten bij het binnenkomen van verdere reviews

Iets anders interessants uit de digit-life review: nV heeft bij GTX512 de ROP, Shader en Geometry Unit gelijkgeklokt. Geen asynchrone clocks meer dus...
Ik hoop dat er een bios voor de standaard GTX komt die dit ook mogelijk maakt. Ik heb namelijk het idee dat die mss ook veel verder kunnen klokken als er niet met asynchrone speeds word gedraaid

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Dit zou wel eens de verklaring kunnen zijn:Brainless-NL schreef op maandag 14 november 2005 @ 14:41:
Kan iemand mij verklaren hoe nvidia op 110nm zulke speeds weet te halen? Hebben ze niet stiekem 90nm gebruikt? Of zijn er nieuwe technieken gebruikt die zulke clocks mogelijk maken? Een simpel verklaring als "een aangepast PCB" lijkt mij te simpel.
<edit> @astennu:Iets anders interessants uit de digit-life review: nV heeft bij GTX512 de ROP, Shader en Geometry Unit gelijkgeklokt. Geen asynchrone clocks meer dus...
Over welke test heb je het? Bij Digit-Life is het maximale verschil tussen GTX512 en de XT 46% @1600x1200 noAA/noAF, en 27% met 4xAA/16xAFAstennu schreef op maandag 14 november 2005 @ 14:43:
Die test deugt niet. Er staat bij doom 3 98% winst TOV de XT. Dus duidelijk oude drivers :\ niet eens 5.10a ook geen 5.11. Dus een test die niet meer te gebuiken is. Dus nu maar wachten op Anandtech. ik denk dat je dan een iets minder dominant beeld krijgt. Maar nog steeds wel dikke winst voor de GTX512. Wat wel grappig is is dat in een aantal games de XT zelfs sneller was dan de GTX512 in AAA en HQ AF.
Ze gebruiken daar ook 5.10a:
ATI drivers 6.575 (CATALYST 5.10a); NVIDIA drivers 81.87.
[Voor 43% gewijzigd door Cheetah op 14-11-2005 15:07]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
offtopic:
* Cheetah moet edit knop leren gebruiken af en toe
* Cheetah moet edit knop leren gebruiken af en toe

[Voor 134% gewijzigd door Cheetah op 14-11-2005 15:08]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Anoniem: 79835
ok, geen cherry:
http://graphics.tomshardw...orce_7800_gtx_512-12.htmlWe were able to get the single card's core up to 621 MHz and the memory up to 1.81 GHz (recall that stock is 550 MHz core and 1.7 GHz memory).
Ik dacht fear met TAA of far cry een van de 2. Maar waarom is dom 3 dan zo langzaam ? de GTX512 zou bijna 2x zo snel zijn. En is 30% sneller dan de GTX 256. En de Oude gtx preseerde met de 5.10a drivers gelijk aan de X1800 XT in doom3 en Q4. Dus dat vind ik dan wel vaag :\FirefoxAG schreef op maandag 14 november 2005 @ 14:49:
[...]
Dit zou wel eens de verklaring kunnen zijn:
[...]
<edit> @astennu:
[...]
Over welke test heb je het? Bij Digit-Life is het maximale verschil tussen GTX512 en de XT 46% @1600x1200 noAA/noAF, en 27% met 4xAA/16xAF
Ze gebruiken daar ook 5.10a:
[...]
Edit:
Tomshwardware test zuigt echt dik zie het volgende dat zegt al wer genoeg

Graphics Driver(s) ATI - Catalyst 5.9 - Display Driver 8.173
NVIDIA - Forceware 81.85 - WHQL - 7800 GTX
NVIDIA - Forceware 81.89 - Beta - 7800 GTX 512
Cat 5.9 VS de nieuwste beta's zo die hebben lef zeg



[Voor 22% gewijzigd door Astennu op 14-11-2005 15:23]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hey dat is idd niet eerlijk van 'ome' TomAstennu schreef op maandag 14 november 2005 @ 15:15:
Tomshwardware test zuigt echt dik zie het volgende dat zegt al wer genoeg
Graphics Driver(s) ATI - Catalyst 5.9 - Display Driver 8.173
NVIDIA - Forceware 81.85 - WHQL - 7800 GTX
NVIDIA - Forceware 81.89 - Beta - 7800 GTX 512
Cat 5.9 VS de nieuwste beta's zo die hebben lef zeg![]()
![]()


Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244
Nou, dat kan ik je wel vertellen:Toms Hardware Conclusion:
Now we wait to see what ATI's response will be.
"Als jullie eens testen met de nieuwste drivers van beide kanten ipv alleen van 1 kant!"
Logisch toch? Magoed. Ik zie ook dat de GTX512 al in de schappen moet liggen bij de winkels? Zijn er al mensen op het web te vinden die hem al in handen hebben??
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Idd matig van Tom, ik denk dat hij gewoon de oude results van zijn review van 1 maand terug heeft genomen, en die bij de test erbij geduwd. Beetje jammer.
Verder presteerd hij wel aardig die nieuwe GTX, maar toch had ik hem wat sneller verwacht, zeker omdat het mem 600mhz omhoog ging, de core ook nog eens 100? mhz omhoog.
Denk niet dat ATi zn R580 nu meteen naar voren gaat pushen, nv heeft nu wel weer de snelste, maar die gaat ook voor iets meer euro's over de toonbank dan de X1800XT (denk dat we over 2/3 weken als beide fatsoenlijk leverbaar zijn nog eens moeten kijken) En toch maar een klein aantal koopt een GFX van 500Euro+, laat staan 600/700 Euro.
Ben eerder benieuwd of ATi het gaat tussen de X1600XT en X1800XL gaat opvullen, X1800LE of een X1700 ofzo? Ook al word de X1800XL richting 300E gedrukt (nu al 330E in Duitsland hoorde ik van mijn Duitse collegas) Valt er nog steeds een gat als de X1600's in de 149-199 gaan vallen, van 100 Euro.
Verder presteerd hij wel aardig die nieuwe GTX, maar toch had ik hem wat sneller verwacht, zeker omdat het mem 600mhz omhoog ging, de core ook nog eens 100? mhz omhoog.
Denk niet dat ATi zn R580 nu meteen naar voren gaat pushen, nv heeft nu wel weer de snelste, maar die gaat ook voor iets meer euro's over de toonbank dan de X1800XT (denk dat we over 2/3 weken als beide fatsoenlijk leverbaar zijn nog eens moeten kijken) En toch maar een klein aantal koopt een GFX van 500Euro+, laat staan 600/700 Euro.
Ben eerder benieuwd of ATi het gaat tussen de X1600XT en X1800XL gaat opvullen, X1800LE of een X1700 ofzo? Ook al word de X1800XL richting 300E gedrukt (nu al 330E in Duitsland hoorde ik van mijn Duitse collegas) Valt er nog steeds een gat als de X1600's in de 149-199 gaan vallen, van 100 Euro.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Anoniem: 79835
Er zijn ook andere review sites dan tomshardware, er zijn zelfs meerdere reviews die de laatste cats wel gebruiken. En nog steeds wint de X1800XT nauwelijks een benchmark.Oet schreef op maandag 14 november 2005 @ 15:35:
[...]
Nou, dat kan ik je wel vertellen:
"Als jullie eens testen met de nieuwste drivers van beide kanten ipv alleen van 1 kant!"
Logisch toch? Magoed. Ik zie ook dat de GTX512 al in de schappen moet liggen bij de winkels? Zijn er al mensen op het web te vinden die hem al in handen hebben??
Kom op zeg, Tom nemen we toch al jaren niet meer serieus ??
Hanners (die nemen we wel serieus) heeft een leuk rijtje staan
Hanners (die nemen we wel serieus) heeft een leuk rijtje staan
quote: HannersToday sees the launch of NVIDIA's latest attempt to capture the high-end video card performance crown, in the form of a higher clocked, 512MB-sporting GeForce 7800 GTX. Below is our comprehensive list of reviews and previews, to keep you up-to-date with everything you need to know about this part:
- NVIDIA GeForce 7800 GTX 512MB preview at Beyond 3D
- NVIDIA GeForce 7800 GTX 512MB preview at HEXUS
- NVIDIA GeForce 7800 GTX 512MB preview at The Tech Report
- NVIDIA GeForce 7800 GTX 512MB preview at Anandtech
- NVIDIA GeForce 7800 GTX 512MB preview at[H]ard|OCP
- NVIDIA GeForce 7800 GTX 512MB preview at bit-tech
- NVIDIA GeForce 7800 GTX 512MB preview at Driver Heaven
- NVIDIA GeForce 7800 GTX 512MB preview at Hot Hardware
- NVIDIA GeForce 7800 GTX 512MB preview at PC Perspective
- NVIDIA GeForce 7800 GTX 512MB preview at Firing Squad
- NVIDIA GeForce 7800 GTX 512MB preview at Digit Life
- NVIDIA GeForce 7800 GTX 512MB preview at Guru 3D
- NVIDIA GeForce 7800 GTX 512MB preview at Bjorn 3D
- XFX GeForce 7800 GTX 512MB review at Extreme Tech
- EVGA e-GeForce 7800 GTX 512MB review at Techware Labs
- NVIDIA GeForce 7800 GTX 512MB preview (Russian) at iXBT
- NVIDIA GeForce 7800 GTX 512MB preview (Chinese) at PC Online
Ze hebben gewoon een oude review van de X1800XT genomen en daar de resultaten van de 7800GTX 512 aan toegevoegd. Bekijk maar eens de resultaten in die oude review (http://graphics.tomshardw..._land-14.html#3dmark_2003) en vergelijk ze met deze nieuwe review. Zo kan ik het ookAstennu schreef op maandag 14 november 2005 @ 15:15:
[...]
Graphics Driver(s) ATI - Catalyst 5.9 - Display Driver 8.173
NVIDIA - Forceware 81.85 - WHQL - 7800 GTX
NVIDIA - Forceware 81.89 - Beta - 7800 GTX 512

Nieuwe drivers vragen om een her-test natuurlijk.
Lol, krijg net een mailtje dat m'n Sapphire X1800XT klaar ligt om opgehaald te kunnen worden, maar de 7800GTX/512 lijkt nu toch ook wel aantrekkelijk te zijn.
Aan de andere kant, de GTX is vooralsnog 150 euro duurder
, natuurlijk geen FP HDR + AA en geen non-angle dependant AF.
Twijfel twijfel twijfel, toch maar wachten op de R580?

Aan de andere kant, de GTX is vooralsnog 150 euro duurder

Twijfel twijfel twijfel, toch maar wachten op de R580?
Waar is die XT1800Xt voorradig?Anoniem: 38733 schreef op maandag 14 november 2005 @ 17:14:
Lol, krijg net een mailtje dat m'n Sapphire X1800XT klaar ligt om opgehaald te kunnen worden, maar de 7800GTX/512 lijkt nu toch ook wel aantrekkelijk te zijn.![]()
Aan de andere kant, de GTX is vooralsnog 150 euro duurder, natuurlijk geen FP HDR + AA en geen non-angle dependant AF.
Twijfel twijfel twijfel, toch maar wachten op de R580?
[Voor 3% gewijzigd door edward2 op 14-11-2005 17:22]
Niet op voorraad.
PC Megastore
Zie nu net dat ie op de website zelf nog niet als "op voorraad" staat vermeld.
http://www.pcmegastore.nl...=1_4_180&products_id=3806
Zie nu net dat ie op de website zelf nog niet als "op voorraad" staat vermeld.
http://www.pcmegastore.nl...=1_4_180&products_id=3806
[Voor 92% gewijzigd door Anoniem: 38733 op 14-11-2005 17:35]
Thanx. Ik zal wel te laat zijn ivm pre orders.
Niet op voorraad.
Jij gaat op zeker voor de XT? (of gewoon beide kaarten, dus ook een GTX/512edward2 schreef op maandag 14 november 2005 @ 17:40:
Thanx. Ik zal wel te laat zijn ivm pre orders.

Wat ik trouwens mis in de reviews is het renamen van Fear.exe, er wordt nergens over gesproken. Zelfs Kyle/Brent van [H] die wel degelijk van deze situatie op de hoogte zijn reppen er met geen woord over in hun review.

[Voor 8% gewijzigd door Anoniem: 38733 op 14-11-2005 17:54]
Een oud klasgenoot van mij heeft sinds vandaag ook zijn X1800XT, zal eens vragen hoever hij hem kan klokken.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Anoniem: 79835
http://www.hothardware.co...age=5&articleid=751&cid=2Anoniem: 38733 schreef op maandag 14 november 2005 @ 17:53:
[...]
Jij gaat op zeker voor de XT? (of gewoon beide kaarten, dus ook een GTX/512)
Wat ik trouwens mis in de reviews is het renamen van Fear.exe, er wordt nergens over gesproken. Zelfs Kyle/Brent van [H] die wel degelijk van deze situatie op de hoogte zijn reppen er met geen woord over in hun review.
en driverheaven ook
[Voor 3% gewijzigd door Anoniem: 79835 op 14-11-2005 18:07]
WTF halen ze die dingen vandaan?!Thund3r schreef op maandag 14 november 2005 @ 18:00:
Een oud klasgenoot van mij heeft sinds vandaag ook zijn X1800XT, zal eens vragen hoever hij hem kan klokken.
Ja ik ga voor de XT (als ik tenminste de gave bezit om de juiste winkel te vinden), volgens mij zit er nog erg veel rek in dmv drivers. Afhankelijk daarvan probeer ik misschien ook de 512 mb GTX, maar ik vind 710 eur een beetje overdreven, de SapphireXT is 511, dat vind ik een stuk beter.

[Voor 17% gewijzigd door edward2 op 14-11-2005 18:05]
Niet op voorraad.
Thnx. En zowaar is de XT hier sneller (met AA/AF) dan de GTX512.
Hij had hem direct via zijn groothandel (hij heeft klein bedrijfje) Donderdag had hij hem besteld dacht ik.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Ja, dit scheelt gewoon ff 200 euries.Afhankelijk daarvan probeer ik misschien ook de 512 mb GTX, maar ik vind 710 eur een beetje overdreven, de SapphireXT is 511, dat vind ik een stuk beter.
Anoniem: 79835
Ja maar er is een maarAnoniem: 38733 schreef op maandag 14 november 2005 @ 18:08:
[...]
Thnx. En zowaar is de XT hier sneller (met AA/AF) dan de GTX512.

vreemd tochWithout any additional pixel processing enabled though, the Radeon X1800 XT's performance doesn't look so good, as it gets beaten by 20 FPS and 15 FPS depending on the resolution.
[Voor 4% gewijzigd door Anoniem: 79835 op 14-11-2005 18:20]
Nou mensen laten we een ding even uit de wereld helpen:

Het hoge stroom verbuik van de X1800 XT is nu denk ik ook geen minpunt meer

Het hoge stroom verbuik van de X1800 XT is nu denk ik ook geen minpunt meer

[Voor 21% gewijzigd door Astennu op 14-11-2005 18:21]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.Anoniem: 38733 schreef op maandag 14 november 2005 @ 18:08:
[...]
Thnx. En zowaar is de XT hier sneller (met AA/AF) dan de GTX512.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
IMO is de 512 hooooguit 550 a 600 euri waard. Zeker gezien de tijd die nVidia heeft gehad om hiermee op de proppen te komen.
Ik vind het eerlijk gezegd een beetje tegenvallen allemaal als je de prijs bij komplett van EUR 710 beschouwt. En dan krijg je ook nog, met alle respect, een POV...... Zo groot is de prestatiewinst niet tov een 256 of een x1800xt512 en bovendien krijg je nul, nul extra functies tegen een prijs van (ruim) EURI 200 meer.......
Als nVidia echt zou heerschen bieden ze deze kaart voor EUR 575 aan in quantity...
Ik vind het eerlijk gezegd een beetje tegenvallen allemaal als je de prijs bij komplett van EUR 710 beschouwt. En dan krijg je ook nog, met alle respect, een POV...... Zo groot is de prestatiewinst niet tov een 256 of een x1800xt512 en bovendien krijg je nul, nul extra functies tegen een prijs van (ruim) EURI 200 meer.......
Als nVidia echt zou heerschen bieden ze deze kaart voor EUR 575 aan in quantity...
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Mja geef toe als je nu moet kiezen tussen de GTX512 en de X1800 XT qua prestatie zou ik niet voor die kaart gaan. Nu vraag ik me wel af hoeveel die drivers van ATi nog getweaked kunnen worden. Vooral als je kijkt naar HDR games. En hoe de "TOP" XT's het strax doen. En de Prijs van de GTX512 is natuurlijk wel belaggelijk maar goed.....CJ schreef op maandag 14 november 2005 @ 18:30:
[...]
Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.
[Voor 9% gewijzigd door Astennu op 14-11-2005 19:01]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik vraag me af hoe de TOP 512MB GTX het gaat doen!
Wow! Wat is die kaart snel zeg. Hij owned de X1800XT op snelheid in bijna ELKE game. Dát is nu een super kaart.
No offense hoor, maar als deze kaart straks goed leverbaar is, wat ik wel hoop, dan denk ik dat de prijzen van die kaart wel wat dalen, en dat veel mensen dan toch voor de GTX 512 gaan.
Tenzij ATi NU als de wiede weerga gaat leveren.

Wow! Wat is die kaart snel zeg. Hij owned de X1800XT op snelheid in bijna ELKE game. Dát is nu een super kaart.
No offense hoor, maar als deze kaart straks goed leverbaar is, wat ik wel hoop, dan denk ik dat de prijzen van die kaart wel wat dalen, en dat veel mensen dan toch voor de GTX 512 gaan.
Tenzij ATi NU als de wiede weerga gaat leveren.

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX
Prijsniveau v/d XT zal altijd flink lager blijven. De GTX heeft een bak van een megakoeler die gewoon duurder te produceren is en het duurdere 1.1 ns geheugen.RappieRappie schreef op maandag 14 november 2005 @ 19:02:
Ik vraag me af hoe de TOP 512MB GTX het gaat doen!![]()
Wow! Wat is die kaart snel zeg. Hij owned de X1800XT op snelheid in bijna ELKE game. Dát is nu een super kaart.
No offense hoor, maar als deze kaart straks goed leverbaar is, wat ik wel hoop, dan denk ik dat de prijzen van die kaart wel wat dalen, en dat veel mensen dan toch voor de GTX 512 gaan.
Tenzij ATi NU als de wiede weerga gaat leveren.
Al met al, als ik de FEAR en COD2 resultaten erbij haal, en de extra features die de XT biedt, en dit ook nog eens tegen een flink lagere prijs dan is de XT gewoon een uitstekende koop.
Btw, en wat als Ati zo slim is om game-developers er toe over te halen (lees; met de portemonnee open) om sm3.0 & dynamic branching patches te gaan maken voor de huidige games? Soortgelijke patches als de toenmalige Farcry sm3.0 patch waarin Crytek het gebruik van DB vermijdde omdat de toenmalige Nv40 daar veel te traag voor was? In dat geval kan een 7800GTX nog wel eens in z'n hemd komen te staan vs de XT.
Ik moet wel gelijk melden dat PR zaken als dit Ati's sterkste punt niet is. Want wtf is the Farcry AA+HDR patch?

[Voor 5% gewijzigd door Anoniem: 38733 op 14-11-2005 19:29]
mmm, bij Salland was hij weer uitgesteld, dus ook maar hier geordered, jij hebt iig mazzelAnoniem: 38733 schreef op maandag 14 november 2005 @ 17:33:
PC Megastore
Zie nu net dat ie op de website zelf nog niet als "op voorraad" staat vermeld.
http://www.pcmegastore.nl...=1_4_180&products_id=3806

Daar heb je gelijk in, maar als het prijsniveau daalt naar ongeveer gelijke waarden, is de GTX 512 (misschien) een beter koop. De XFX 7800GTX 512 scoort gewoon 9850 3Dmarks in '05!Anoniem: 38733 schreef op maandag 14 november 2005 @ 19:22:
[...]
Al met al, als ik de FEAR en COD2 resultaten erbij haal, en de extra features die de XT biedt, en dit ook nog eens tegen een flink lagere prijs dan is de XT gewoon een uitstekende koop.

Ach, ieder zijn eigen... De ATi X1800XT is ook een leuk kaartje. En ook retesnel.
[Voor 3% gewijzigd door Format-C op 14-11-2005 19:31]
MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX
ATi mag wel met de R580 komen als ze die GTX512 voor bij willen. Of ze moeten die X1800 XT op 750 kunen clocken. Denk niet dat echt een standaart kan worden. Meer als echte TOP kaartjes.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Tja, als ATi er nog wat MHzen uit weet te persen wordt het voor ons allemaal alleen maar leuker. (Ik hoop dat het gebeurt!)
En ik moet eerlijk zeggen; de 7800GTX 512MB is TE duur als je hem NU vergelijkt met de X1800XT 512.
Misschien is het wel het beste even een maandje of anderhalve maand de kat uit de boom te kijken. Misschien komen er van beide merken wel TOPPEN binnen die tijd.
En ik moet eerlijk zeggen; de 7800GTX 512MB is TE duur als je hem NU vergelijkt met de X1800XT 512.
Misschien is het wel het beste even een maandje of anderhalve maand de kat uit de boom te kijken. Misschien komen er van beide merken wel TOPPEN binnen die tijd.

[Voor 8% gewijzigd door Format-C op 14-11-2005 19:36]
MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX
Hoop dat het waar is, ik rij er morgenochtend langs.epo schreef op maandag 14 november 2005 @ 19:23:
[...]
mmm, bij Salland was hij weer uitgesteld, dus ook maar hier geordered, jij hebt iig mazzel
Geachte heer xxxx,
Hierbij delen wij u mede dat uw bestelling gereed staat om af te halen.

Bij mijn nieuwe dell pc zit een Ati x600 256mb kaart. Is dit een goede kaart? Ik heb nou een 6610xl 128mb. Welke is beter?
Het enige wat mij (voorlopig?) nog tegenvalt is de HDR performance van de X1800. In Far Cry(wel erg prematuur) DOD en Loast Coast lijkt de 7800 gtx de laagste HDR-hit te hebben.
Niet op voorraad.
De MSRP van de 7800GTX is ook $599 en die zat binnen no time op 500 Euro. Ik denk zodoende dat GTX512 ook binnen 2-3 weken op ~550 Euro zal zitten...Help!!!! schreef op maandag 14 november 2005 @ 18:57:
Ik vind het eerlijk gezegd een beetje tegenvallen allemaal als je de prijs bij komplett van EUR 710 beschouwt. [...] Zo groot is de prestatiewinst niet tov een 256 of een x1800xt512 en bovendien krijg je nul, nul extra functies tegen een prijs van (ruim) EURI 200 meer.......
Als nVidia echt zou heerschen bieden ze deze kaart voor EUR 575 aan in quantity...
Als je verder naar de Digit Life review kijkt is het performanceverschil van de standaard GTX512 (550/1700) met de standaard GTX in de Q modes vaak zo'n 35%. Da's echt niet niks...

Diverse andere reviews geven een ander beeld van in ieder geval COD2...CJ schreef op maandag 14 november 2005 @ 18:30:
Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.
Verder lijkt uitschakeling van Cat.A.I. in F.E.A.R met name in de demo/benchmark veel effect te sorteren. Ingame lijkt het verschil een stuk minder te zijn. Zie ook het volgende commentaar:
We did manual run throughs with Catalyst AI on and Catalyst AI off, to find some interesting numbers. The Radeon X1800XT delivered an average frame rate of 42 frames per second with Catalyst AI turned on, and that increased to 46 frames per second with Catalyst AI turned off. The minimum frame rate remained the same during both run throughs at 13 frames per second.
Bron: http://www.bit-tech.net/h.../ati_x1800xt_512mb/3.html
Dat is dus een veel kleiner verschil dan mensen rapporteren bij het runnen van de ingebouwde demo.
Zou kunnen, maar ik zou er niet van uit gaan, tenzij ATi de prijzen van de XT flink laat zakken in de komende periode.Anoniem: 38733 schreef op maandag 14 november 2005 @ 19:22:
Prijsniveau v/d XT zal altijd flink lager blijven. De GTX heeft een bak van een megakoeler die gewoon duurder te produceren is en het duurdere 1.1 ns geheugen.
Verder performt GTX512 natuurlijk ook op een ander level dan de XT, dus nV zal stellen dat het geen "directe" concurrent is...
FarCry HDR+AA patch? De HDR patch is er toch al, alleen lukt AA daarbij niet vanwege de lage performance met HDR...Ik moet wel gelijk melden dat PR zaken als dit Ati's sterkste punt niet is. Want wtf is the Farcry AA+HDR patch?
+ Serious Sam 2 HDR + Age of Empires III HDR...edward2 schreef op maandag 14 november 2005 @ 20:58:
Het enige wat mij (voorlopig?) nog tegenvalt is de HDR performance van de X1800. In Far Cry(wel erg prematuur) DOD en Loast Coast lijkt de 7800 gtx de laagste HDR-hit te hebben.
ATi mag daar nu echt zoden aan de dijk gaan zetten...
Zolang dit niet gefixed is zal de X1800XT in mijn boek sowieso geen optie zijn. Ik ben in korte tijd teveel aan HDR gaan hechten en vind dit een stuk belangrijker dan bijv. AA (zeker op 1920x1200)

[Voor 18% gewijzigd door Cheetah op 14-11-2005 21:35]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ubisoft dient een patch uit te brengen, op dit moment is het inschakelen van AA nog niet mogelijk. Bron; DB Beyond3D.FarCry HDR+AA patch? De HDR patch is er toch al, alleen lukt AA daarbij niet vanwege de lage performance met HDR...
Dat AA niet lukt vanwege de performance vind ik nogal trollerig van je overkomen aangezien we al vaker besproken hebben dat 1280x1024/4xAA speelbaar lijkt op rendering 7 (~40fps), als je hdr rendering 2 neemt kun je hier +10/20 fps bij optellen. In dat geval komt zelfs 1600x1200/2xAA in zicht (avg 28 wordt dan avg 38/48).
Probeer zelf het verschil eens uit tussen hdr rendering 2 en 7, het fps verschil is enorm.
[Voor 4% gewijzigd door Anoniem: 38733 op 14-11-2005 21:38]
Anoniem: 149755
De 7800 512Mb is gemiddeld zo'n 10% sneller en bedoeld om de X1800XT te verslaan, maar ze zijn beide van dezelfde "level". Ze hebben allebei 512 Mb, de 7800 is qua snelheid idd wat beter en de X1800 is qua features (SM3.0) wat beter. Een prijsverschil van 150 euro is naar mijn mening niet te rechvaardigen.Verder performt GTX512 natuurlijk ook op een ander level dan de XT, dus nV zal stellen dat het geen "directe" concurrent is...
Mocht de X1800XT in de toekomst door hogere clock's en driver-optimalistaties sneller worden dan zal de 7800 512M alsnog een concurrentieslag moeten ondergaan met X1800XT. De 7800 moet dan wel in prijs zakken.
[Voor 30% gewijzigd door Anoniem: 149755 op 14-11-2005 21:49]
Dat is blijkbaar under max load... THG heeft echter weer andere plaatjes in game en idle:Astennu schreef op maandag 14 november 2005 @ 18:20:
Nou mensen laten we een ding even uit de wereld helpen:
[afbeelding]
Het hoge stroom verbuik van de X1800 XT is nu denk ik ook geen minpunt meer
http://graphics.tomshardw...orce_7800_gtx_512-05.html
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ja klopt. Maar ATi heeft nog geen clock gating in de drivers zitten. Dat zou nog gaan komen en dit reken ik even mee in me achtehooft.FirefoxAG schreef op maandag 14 november 2005 @ 21:44:
[...]
Dat is blijkbaar under max load... THG heeft echter weer andere plaatjes in game en idle:
http://graphics.tomshardw...orce_7800_gtx_512-05.html
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Huh ... Wat lees ik daar nou in de kop van reviewFirefoxAG schreef op maandag 14 november 2005 @ 21:44:
[...]
Dat is blijkbaar under max load... THG heeft echter weer andere plaatjes in game en idle:
http://graphics.tomshardw...orce_7800_gtx_512-05.html

En iedereen mij hier op got maar vertellen dat als je bijv. 2 kaarten van 128mb in SLI drukt je niet 256mb, maar 128mb tot je beschikking hebt.... nou wordt het helemaal verwarrendUp To 1 GB Video Memory With GeForce 7800 GTX 512 SLI

Edit: zie ook;
Nou begin ik helemaal te twijfelen... dus het is wel technisch goed mogelijk de data niet redundant op te slaan, en dat je het geheugen gewoon kan optellenOn the 7800 GTX 512, the internal bus is able to transfer 512 Bits of data per clock, because of its double data rate capability. External data transfers remain 256 Bit wide, so transfers to and from the 512 MB frame buffer memory remain the same. Looking back, no one ever saw the amount of memory on a graphics card equaling or surpassing the total amount of system memory, certainly not hitting 1 GB when in SLI configuration!

bron: http://graphics.tomshardware.com/graphic/20051114/index.html
[Voor 32% gewijzigd door Bartjuh op 14-11-2005 22:20]
Ik vind zelf dat Crytek eens moet kappen met het constant oplappen van de FarCry met foefjes. Het is allemaal wel leuk dat het constant steeds iets beter wordt, maar ik vond het eerlijk gezegd al overdone toen ze HDR erin stopte. Het lijkt meer reclame als goodwill naar gamers toe. Als ze echt gamers blij willen maken, dan moeten ze die gare multiplayer eens onder handen nemen. Wat is die code slecht zegAnoniem: 38733 schreef op maandag 14 november 2005 @ 21:37:
[...]
Ubisoft dient een patch uit te brengen, op dit moment is het inschakelen van AA nog niet mogelijk. Bron; DB Beyond3D.
Dat AA niet lukt vanwege de performance vind ik nogal trollerig van je overkomen aangezien we al vaker besproken hebben dat 1280x1024/4xAA speelbaar lijkt op rendering 7 (~40fps), als je hdr rendering 2 neemt kun je hier +10/20 fps bij optellen. In dat geval komt zelfs 1600x1200/2xAA in zicht (avg 28 wordt dan avg 38/48).
Probeer zelf het verschil eens uit tussen hdr rendering 2 en 7, het fps verschil is enorm.


Als ze nou gewoon FarCry 2 maken, ipv het constant doorborduren op een spel dat al 1,5 jaar op de markt is

Vindt je nou zelf niet dat je een beetje erg veel verwacht van de toekomstige drivers??? als ik al die dingen bij elkaar optel dan komt er nog 40% bovenop de huidige prestatie van de XT. 15% is geloofwaardig mits de huidige drivers echt bagger zijn, maar verwacht gewoon niet de heilige graal van al die PR mannetjes van die bedrijven. Het is hun werk om zieltjes te winnen.Astennu schreef:
Ja klopt. Maar ATi heeft nog geen clock gating in de drivers zitten. Dat zou nog gaan komen en dit reken ik even mee in me achtehooft.
[Voor 19% gewijzigd door sjekneck op 14-11-2005 22:29]
Kom op zeg, we gaan toch niet twijfelen om Tom, die site is allang afgeschreven als serieus !!
Ik weet wel wie ik geloof als ik Zardon met Tom verglijk, en het is niet de duitser met zijn site !!
Ik weet wel wie ik geloof als ik Zardon met Tom verglijk, en het is niet de duitser met zijn site !!
De lijst van "wat er nog moet gaan komen" begint wel een beetje lang te worden...Astennu schreef op maandag 14 november 2005 @ 22:04:
Ja klopt. Maar ATi heeft nog geen clock gating in de drivers zitten. Dat zou nog gaan komen en dit reken ik even mee in me achtehooft.

* HDR performance fixes (voor een steeds langer wordende rij games)
* Dual Core drivers
* Clock gating om het stroomverbruik onder controle te krijgen
* OpenGL fixes voor overige games en beeldmodi naast 4xAA
* Memorycontroller tunes voor een hele rij games
* etc.
Zodra er wat word genoemd waarin nV beter is zie ik het excuus: "Dat word nog wel (ooit)/(misschien) gefixed in een driverrelease..."
En anders ligt het wel aan de games die "alleen/speciaal zijn geoptimaliseerd voor nV"...
B3D zegt dat HDR+AA niet mogelijk is in FarCry!?Anoniem: 38733 schreef op maandag 14 november 2005 @ 21:37:
Ubisoft dient een patch uit te brengen, op dit moment is het inschakelen van AA nog niet mogelijk. Bron; DB Beyond3D.

Zal mij dan zeer benieuwen hoe ze zelf deze test hebben uitgevoerd...
Trollerig? Hebben we het daar ook niet eerder over gehad? Een verschil van mening tussen jou en mij is behoorlijk ongelijk aan trollerig hoor...Dat AA niet lukt vanwege de performance vind ik nogal trollerig van je overkomen aangezien we al vaker besproken hebben dat 1280x1024/4xAA speelbaar lijkt op rendering 7 (~40fps),

Naar jouw mening is FarCry HDR+AA speelbaar met een gemiddelde van ~40fps... naar mijn mening speel ik alleen op 1600x1200 of 1920x1200 en wil ik geen framedrops naar 20~25fps en zeker niet daaronder, want die drops treden vaak op in zware vuurgevechten (ofwel waar je ze in een shooter het minst kan gebruiken). De speelbaarheid op 1280 is dus nogal betwistbaar, zeker indien voor FarCry dezelfde grillige HDR patronen op de X1800 optreden als in SS II. Daar loopt de XT op 1024x768 (!!) op een avg van 70fps, echter met drops naar 23fps... als dat ook de trend is in FarCry HDR, en het avg is daar 40fps, dan kun je wel uitrekenen wat de drops zijn...
Maar helaas zijn min en max fps dus niet meegenomen in de B3D review, alleen avg...

Geloof je zelf echt dat de performance van de XT 36~70% toeneemt als je HDR van 7 naar 2 zet??als je hdr rendering 2 neemt kun je hier +10/20 fps bij optellen. In dat geval komt zelfs 1600x1200/2xAA in zicht (avg 28 wordt dan avg 38/48).
Probeer zelf het verschil eens uit tussen hdr rendering 2 en 7, het fps verschil is enorm.
Come on now... Zelfs voor een die-hard optimist is dat wel erg onrealistisch.
Verder zie ik dit ook als een uitvlucht: "Als je HDR een stuk minder zet dan is die sneller". Tjsa, we kunnen zo ook gaan roepen dat GTX512 (en meestal ook GTX TOP) het op 2xAA (en AA uitgeschakeld) altijd beter doet dan de X1800XT...
HDR7 is gewoon de default HDR mode in FarCry, dus dat is in mijn boek het uitgangspunt... bovendien vind ik HDR7 een stuk mooier (enkele situaties daar gelaten), en die staat hier dan ook standaard aan @1920x1200.
Zardon? In ATi kwesties? Na mijn hoogst eigen persoonlijke ervaringen met Zardon neem ik THG (en elke andere malloot) anytime boven Zardon... ik kreeg van mr Zardon himself een IP ban omdat ik het indertijd in mijn dolle kop haalde het op te nemen voor Sander Sassen (die compleet werd afgeflamed op de DH forums)... waarbij meneer Z het ook nog eens presteerde mijn terechte kritiek weg te moffelen en ban te rechtvaardigen door zijn forumleden voor te liegen dat Sander en ik vanaf hetzelfde IP postten en dus dezelfde persoon warenhjs schreef op maandag 14 november 2005 @ 22:28:
Ik weet wel wie ik geloof als ik Zardon met Tom verglijk, en het is niet de duitser met zijn site !!

Wat overigens ondanks protesten van mij per email (en van Sander op het forum) nooit gerectificeerd is.
Trek zelf je conclusies maar over hoe betrouwbaar dat op jou overkomt...

[Voor 18% gewijzigd door Cheetah op 14-11-2005 22:58]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ten eerste word data altijd niet redundant opgeslagen zo niet heb je 'mem leak' problemen. Maar je kunt het niet optellen nu. Het kan technisch zeker mogelijk alleen swmatig (nog) problematisch, namelijk de mems worden op dit moment juist parallel gebruikt wat in feite een noodoplossing is, het moet kunnen om de sw zo te schrijven dat beide mems shared varianten worden en daardoor aparte data transfer nodig hebben, dit vereist dan weer support van de NBridge en dat is er nog niet. In principe zit je dat met de transfer en bw dilemma, maar misschien zouden nieuwe mobo's dat wel ondersteunen indien ze daarmee rekening houden. Zeker gezien het feit dat texture-usage in games ook vragen naar extra mem.Bartjuh schreef op maandag 14 november 2005 @ 22:16:
Nou begin ik helemaal te twijfelen... dus het is wel technisch goed mogelijk de data niet redundant op te slaan, en dat je het geheugen gewoon kan optellen
bron: http://graphics.tomshardware.com/graphic/20051114/index.html
Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244
Enkele reviewers waaronder DB zijn in het bezit van een beta patch. De officiële voor hetB3D zegt dat HDR+AA niet mogelijk is in FarCry!?
Zal mij dan zeer benieuwen hoe ze zelf deze test hebben uitgevoerd...
grote publiek is nog niet uit.
Je kunt kiezen tussen 1---11, welke je handmatig in de console moet invoeren dmv een commando of het commando toevoegen aan je shortcut. Er is voor zover ik weet dus geen 'default' waarde.HDR7 is gewoon de default HDR mode in FarCry
[Voor 9% gewijzigd door Anoniem: 38733 op 14-11-2005 23:37]
Anoniem: 79835
Driverheaven is wel de laatste site die ik als betrouwbaar zou bestempelen. Die komen nog na de Inquirer.CJ schreef op maandag 14 november 2005 @ 18:30:
[...]
Driverheaven laat precies hetzelfde zien. Daar is de X1800XT zowel in F.E.A.R. als in CoD2 met AA/AF sneller dan de GTX512.
Bij dezeAnoniem: 38733 schreef op maandag 14 november 2005 @ 23:33:
Je kunt kiezen tussen 1---11, welke je handmatig in de console moet invoeren dmv een commando of het commando toevoegen aan je shortcut. Er is voor zover ik weet dus geen 'default' waarde.

Als je HDR in devmode ("-DEVMODE" switch) start rendert hij automatisch HDR 7, tenzij je in de console (of in de switch) anders aangeeft...
[Voor 6% gewijzigd door Cheetah op 14-11-2005 23:55]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Mmm, een aardig simpele vraag, omdat er genoeg benchmarks van de x600 zijn. Weinig mis met de kaart maar... het is en blijft maar een 4 pijplijn kaartje.. dus is de performance gelimiteerd. Maar op zich weinig mis mee....ruudvdsanden schreef op maandag 14 november 2005 @ 20:33:
Bij mijn nieuwe dell pc zit een Ati x600 256mb kaart. Is dit een goede kaart? Ik heb nou een 6610xl 128mb. Welke is beter?
There is no place like ::1
Zardon heeft een 7800GTX in z'n pc zitten.Anoniem: 79835 schreef op maandag 14 november 2005 @ 23:45:
[...]
Driverheaven is wel de laatste site die ik als betrouwbaar zou bestempelen. Die komen nog na de Inquirer.

Anoniem: 107308
Ik zal je even helpen(die open deur moet je me vergevenHelp!!!! schreef op maandag 14 november 2005 @ 18:57:
IMO is de 512 hooooguit 550 a 600 euri waard. Zeker gezien de tijd die nVidia heeft gehad om hiermee op de proppen te komen.
Ik vind het eerlijk gezegd een beetje tegenvallen allemaal als je de prijs bij komplett van EUR 710 beschouwt. En dan krijg je ook nog, met alle respect, een POV...... Zo groot is de prestatiewinst niet tov een 256 of een x1800xt512 en bovendien krijg je nul, nul extra functies tegen een prijs van (ruim) EURI 200 meer.......
Als nVidia echt zou heerschen bieden ze deze kaart voor EUR 575 aan in quantity...

Vergelijking van de gemiddelde XT @ 512MB prijs laat duidelijk zien dat er geen 200 euro prijsverschil is. Dus zou je me je cijfers kunnen laten zien?
Ik weet niet hoe jij op de hoogte bent wanneer nVidia wist wat voor kaarten ATi op de markt ging zetten en hoe ze zouden presteren maar bronvermelding bij zulke aantijgingen zou ik waarderen. Dit zou namelijk ook enige vorm van discussie bevorderen. Helemaal aangezien ATi's meerwaarde voornamelijk in IQ zit en dit al heel moeilijk te duiden is in dollars en zekers ook in kristallen bol prestatie voorspellingen.
Als ik de performance stijgingen bekijk(vergelijk oude met nieuwe reviews) die er geboekt worden met de X1800 onder de nieuwe drivers dan zie ik geen enorme vooruitgang(algemeen bekeken). Hiernaast zou ik eens naar het lijstje kijken wat Firefox gepost heeft:
[rml]FirefoxAG in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml]
Als ik hierbij de opmerking van CJ serieus neem, en dat doe ik, dat ATi nu zich richt op de RV530 dan wordt ik niet vrolijk. Want dan zal de XL zeker de GT niet inhalen en de XT zijn voorsprongetje zeker niet uitbreiden.
Interessanter aan enkele reviews vind ik de invloed van extra geheugen op de kaarten. Nu wordt er plotseling beweert dat 256Mb extra niet veel invloed heeft terwijl bij de XT dit wel zo was. Je gaat je af vragen wat waarheid is in review land.
En om Driverheaven nog verder zwart te maken bevestig ik hierbij het verhaal van Firefox, met de toevoeging dat het meer mensen is overkomen

Edit: @Apple met een spuitbus rode verf ernaast zeker

[Voor 5% gewijzigd door Anoniem: 107308 op 15-11-2005 00:27]
ik ben op zoek naar een site die expliciet verklaart dat ze de HQ settings van de detonators hebben gebruikt...
ik vind niet een
zegt genoeg
ik vind niet een
zegt genoeg
Als ik een GTX zou hebben is er maar één setting waar ik de slider op zet en dat is HQ, die bevat namelijk de shimmerfix. De performancehit hiermee op de GTX schijnt minder te zijn dan op de Nv40, maar altijd nog wel goed voor ~10% (naar horen zeggen in diverse forums, heb nog nooit exacte zwart op wit cijfers gezien).oeLangOetan schreef op dinsdag 15 november 2005 @ 00:51:
ik ben op zoek naar een site die expliciet verklaart dat ze de HQ settings van de detonators hebben gebruikt...
ik vind niet een
zegt genoeg

Ik zat al te wachten op die standaardcounter.
X1800XT word verslagen, dus halen we 't stokpaardje weer van stal om onszelf er alsnog van te overtuigen dat ATi op de een of andere manier toch misschien sneller is.
Ik weet niet hoe vaak dit nog herhaald moet worden, maar er is niet of nauwelijks optisch verschil tussen de nV Q mode en de ATi Q mode. Op diverse sites waaronder [H] worden IQ vergelijkingen gedaan met screenshots... have fun en zoek de verschillen.
Dat gezeur over shimmering begint ook al behoorlijk oud te worden gezien er tevens al vaker is gezegd dat dit in verreweg het grootste deel van de games geen rol speelt. En in de games waarin het wel speelt is het over het algemeen meer uitzondering dan regel dat je ergens shimmering ziet...
Hebben jullie eigenlijk uberhaupt wel een GTX om die zo geliefkoosde shimmeringcounter te kunnen verifieeren, of is dit gewoon goedkoop je gelijk proberen te halen door andere ATi die-hards na te praten? Ik heb er namelijk wel 1 en ik heb er geen last van

As if everAnoniem: 38733 schreef op dinsdag 15 november 2005 @ 01:57:
Als ik een GTX zou hebben [...]

Als je een GTX512 kado zou krijgen verkoop je 'm volgens mij alsnog om een X1800XT te kopen

[Voor 18% gewijzigd door Cheetah op 15-11-2005 03:58]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Stokpaardje of niet. Als je meer dan €700 betaald voor een kaart dan mag je verwachten dat je HQ aan kan zetten. Misschien dat jij weinig last hebt van shimmering, maar het feit dat dit uberhaupt optreedt op high end kaarten bij nVidia is gewoon een kwalijke zaak.
Overigens als ik naar Digit Life kijk in de grafieken dan zie ik daar een HQ modus voor nVidia, terwijl er ook een HQ modus voor ATi wordt gebruikt. Alleen jammer dat dit ook weer niet 'eerlijk' is, aangezien bij ATi dan non-angle dependent AF wordt gebruikt en dit bij de G70 niet mogelijk is.
Ik heb zelf shimmering gezien op een verschillende nV kaarten uit de GF6 en GF7 serie. Zeer vervelend als je een game als WoW speelt, wat toch nu door miljoenen mensen op aarde gespeeld wordt. Toegegeven, mensen die niets anders gewend zijn dan een GF7 die zien het niet zo snel, maar als je ze er eenmaal op wijst en ze dezelfde game op een ATi kaart in actie hebben gezien, dan is mijn ervaring dat die mensen zich er aan beginnen te storen en er op gaan letten.
Overigens als ik naar Digit Life kijk in de grafieken dan zie ik daar een HQ modus voor nVidia, terwijl er ook een HQ modus voor ATi wordt gebruikt. Alleen jammer dat dit ook weer niet 'eerlijk' is, aangezien bij ATi dan non-angle dependent AF wordt gebruikt en dit bij de G70 niet mogelijk is.
Ik heb zelf shimmering gezien op een verschillende nV kaarten uit de GF6 en GF7 serie. Zeer vervelend als je een game als WoW speelt, wat toch nu door miljoenen mensen op aarde gespeeld wordt. Toegegeven, mensen die niets anders gewend zijn dan een GF7 die zien het niet zo snel, maar als je ze er eenmaal op wijst en ze dezelfde game op een ATi kaart in actie hebben gezien, dan is mijn ervaring dat die mensen zich er aan beginnen te storen en er op gaan letten.
Op [H] wordt overigens weinig vergeleken met de competitie wat betreft IQ. Daar wordt zelden gekeken naar filtering (waardoor shimmering vaak plaats vindt), maar meer naar de verschillende AA mogelijkheden en de verschillen daartussen. Er is geen enkele site die uitvoerig in gaat op de verschillen Q en HQ modi, terwijl op de meeste sites nV kaarten standaard in Quality worden getest terwijl ATi altijd op HQ werkt wat betreft texturing/mipmapping (niet te verwarren met HQ AF/Area AF).FirefoxAG schreef op dinsdag 15 november 2005 @ 03:51:
Ik weet niet hoe vaak dit nog herhaald moet worden, maar er is niet of nauwelijks optisch verschil tussen de nV Q mode en de ATi Q mode. Op diverse sites waaronder [H] worden IQ vergelijkingen gedaan met screenshots... have fun en zoek de verschillen.
-1 Troll/Overbodig, ondanks deFirefoxAG schreef op dinsdag 15 november 2005 @ 03:51:
As if ever
Als je een GTX512 kado zou krijgen verkoop je 'm volgens mij alsnog om een X1800XT te kopen

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 79835
Uitstekend artikel trouwens: http://www.penstarsys.com...ia/512_7800gtx/index.htmlATI is apparently very happy with how the R580 is coming along, and it looks as if all production on R520 parts will be halted by December. This means that the final R520 chips off the line will be delivered in a late February timeframe for fulfilling the final orders for the X1800 series. This means that ATI is gearing up for a new product to replace the R520 around that time.
ja geinig om te lezen.Anoniem: 79835 schreef op dinsdag 15 november 2005 @ 09:58:
[...]
Uitstekend artikel trouwens: http://www.penstarsys.com...ia/512_7800gtx/index.html
HQ is trouwens zeker wel nodig op NVkaarten, Q geeft maar eem matige filtering met veell shimmering en het is weer erger geworden met FW 81.87.
Overigens geeft HQ niet altijd een grote perf hit!
Zo, zullen de sterren vandaag gunstig staan om een X1800XT richting mijn adres te sturen, of blijf ik illussies najagen...
Niet op voorraad.
Hier wordt er wel HQ setting gebruikt met daarnaast de default:oeLangOetan schreef op dinsdag 15 november 2005 @ 00:51:
ik ben op zoek naar een site die expliciet verklaart dat ze de HQ settings van de detonators hebben gebruikt...
ik vind niet een
zegt genoeg
http://www.ixbt.com/video2/g70-7-d.shtml#p17
(gele is HQ, oranje is HQ overclocked)
Dan is er duidelijk niet veel verschil tussen de X1800XT en de GTX512
[Voor 3% gewijzigd door SI4live op 15-11-2005 11:03]
Duh... logisch. De R520 is een nieuwe architectuur, remember? Logisch dat er dan nog bakken met werk te doen zijn voordat de R5x0 uit is gemolken... Bij de R300-architectuur duurde dat ook meer dan 2,5 jaar. O ja...FirefoxAG schreef op maandag 14 november 2005 @ 22:40:
De lijst van "wat er nog moet gaan komen" begint wel een beetje lang te worden...
* HDR performance fixes (voor een steeds langer wordende rij games)
* Dual Core drivers
* Clock gating om het stroomverbruik onder controle te krijgen
* OpenGL fixes voor overige games en beeldmodi naast 4xAA
* Memorycontroller tunes voor een hele rij games
* etc.

Vind ik eerlijk gezegd niet eens zo gek dat ze dat denken, tegenwoordig is het meer regel dan uitzondering dat er bij een demo/game in de intro staat: Nvidia, The Way It's Meant To Be Played...Zodra er wat word genoemd waarin nV beter is zie ik het excuus: "Dat word nog wel (ooit)/(misschien) gefixed in een driverrelease..."
En anders ligt het wel aan de games die "alleen/speciaal zijn geoptimaliseerd voor nV"...

B3D zegt dat HDR+AA niet mogelijk is in FarCry!?
Zal mij dan zeer benieuwen hoe ze zelf deze test hebben uitgevoerd...
Met een vluchtig gebouwde patch die een command introduceert waar ik in al die talloze topics over Far Cry nog nooit wat van gehoord, geroken en gezien heb: Devmode, wtfHDR7 is gewoon de default HDR mode in FarCry, dus dat is in mijn boek het uitgangspunt...

70% is inderdaad niet realistisch. Maar ik weet wél zeker dat de performance gaat toenemen bij mindere waarden, als dat gebeurt bij 6x00-owners, waarom zou dat dan niet gebeuren op de X1800?Geloof je zelf echt dat de performance van de XT 36~70% toeneemt als je HDR van 7 naar 2 zet?? Come on now... Zelfs voor een die-hard optimist is dat wel erg onrealistisch.

Je trekt nogal scheve vergelijkingen, voor mij is HDR nog steeds geen AA. Je vergelijkt appels met peren, we praten hier over HDR en niet over AA. Hence the question waarom je dit er dan bijhaalt?Verder zie ik dit ook als een uitvlucht: "Als je HDR een stuk minder zet dan is die sneller". Tjsa, we kunnen zo ook gaan roepen dat GTX512 (en meestal ook GTX TOP) het op 2xAA (en AA uitgeschakeld) altijd beter doet dan de X1800XT...
En leuk dat je ook even vermeld waarom je dit vind... Heb je niet gedaan en daarom beschouw ik dit als een ordinaire troll van categorie -3 op de schaal van Flamebait. Is goed voor dit topic, ga zo doorAnoniem: 79835 schreef op maandag 14 november 2005 @ 23:45:
Driverheaven is wel de laatste site die ik als betrouwbaar zou bestempelen. Die komen nog na de Inquirer.

Met andere woorden, omdat Zardon je bant vanwege een persoonlijke situatie die in de grakamarkt uitermáte gevoelig lag (en dat weet je donders goed, want het ging om vertrouwelijke informatie a.k.a. NDA die nog niet bestemd was om gelekt te worden.), degradeer je meteen maar de hele site + reviews + keiharde resultaten naar niveau Pulpfiction/Onwaardig, want naar jouw mening staat Zardon gelijk aan DriverHeaven? Lijkt me niet, er werken een hoop mensen hard om ons dagelijkse portie nieuws op Internet te zetten. Mijn haren rezen ten berge toen ik dit las, dit slaat alles, je lijkt er maar geen genoegen van te krijgen om er telkens nog een schepje boven op te doenZardon? In ATi kwesties? Na mijn hoogst eigen persoonlijke ervaringen met Zardon neem ik THG (en elke andere malloot) anytime boven Zardon... ik kreeg van mr Zardon himself een IP ban omdat ik het indertijd in mijn dolle kop haalde het op te nemen voor Sander Sassen (die compleet werd afgeflamed op de DH forums)... waarbij meneer Z het ook nog eens presteerde mijn terechte kritiek weg te moffelen en ban te rechtvaardigen door zijn forumleden voor te liegen dat Sander en ik vanaf hetzelfde IP postten en dus dezelfde persoon waren
Wat overigens ondanks protesten van mij per email (en van Sander op het forum) nooit gerectificeerd is. Trek zelf je conclusies maar over hoe betrouwbaar dat op jou overkomt...

Overigens: leuk zo'n heldenactie, maar toch geef ik Zardon geen ongelijk. Want elke persoon die zich daar registreert (ja, de postteller stond op 1 Firefox) om speciaal heel DH ervan te overtuigen dat Sander gelijk had, dat komt over alsof die persoon gelinkt is aan DriverHeaven, en is daarom een gevaar voor zijn voortbestaan. Doemdenken? Nee, want als hij je niet gebanned had, en de discussie was doorgaan en ATi was erachter gekomen (dat lijkt me wel realistisch), wat denk je dan dat dat voor consequenties had gehad voor DH? Dan waren ze bestempeld als 'verklikkers', nooit meer serieus genomen, en hadden ze (iig van ATi) geen hardware meer gekregen om te testen. Dat zorgt niet voor hopen goodwill... Heb je daar wel eens bij stil gestaan Firefox?
Maar let wel: als het IP niet hetzelfde was, dan had hij geen recht om het goed te praten tegenover eigen leden! Daar ben ik volledig niet mee eens, want dat is matennaaierij imo.
Je zegt het zelf al, met andere woorden... dit issue bestaat dus nog steeds. En dus vind ik dat men (en dat wil zeggen: iedereen) het grootste recht heeft om Nvidia daarop aan te spreken. Zolang dat shimmeringgedoe niet volléedig uitgeroeid is met een driver en er mensen last van hebben, is het gewoon een issue. Punt. En datzelfde geldt voor ATi. Gisteren nog, veel users hebben geen beeld behalve radar in de DTM RaceDriver3-demo. Zolang dat niet is gefixed door ATi in nieuwe drivers, is het gewoon een issue. Punt. Trust me, dit vind ik ook knap stom dat het niet gefixed is, maar hierbij bekijk ik de zaak objectief.FirefoxAG schreef op dinsdag 15 november 2005 @ 03:51:
Dat gezeur over shimmering begint ook al behoorlijk oud te worden gezien er tevens al vaker is gezegd dat dit in verreweg het grootste deel van de games geen rol speelt. En in de games waarin het wel speelt is het over het algemeen meer uitzondering dan regel dat je ergens shimmering ziet...
Zoals CJ al zei... komt lichtelijk trollerig op mij over, zou je die toon aub aan willen passen Firefox? Dit soort dingen werken bij mensen op hun zenuwen, dus ook bij mij. Bvd.As if ever
Als je een GTX512 kado zou krijgen verkoop je 'm volgens mij alsnog om een X1800XT te kopen
Ik heb net maar weer eens een rondje gebeld in de hoop zo'n vervloekte XT te bemachtigen, maar dit is nog een erger debacle dan de X800XT, de X1800XT is nog steeds nergens op voorraad en het ziet er niet dat daar op korte termijn verandering inkomt. Degene die er 1 te pakken hebben kunnen er zo 1500 voor vragen op Ebay en kunnen vergeleken worden met de winnaaars van een loterij. Komplett bv. net gebeld, de datum van 15-11?, een illusie.....ik wordt hier op z'n zachts gezegd gestoord van.
[Voor 6% gewijzigd door edward2 op 15-11-2005 12:44]
Niet op voorraad.
Dit slaat inderdaad helemaal nergens op. Ze moeten dan gewoon de release date naar achteren zetten. Ze kunnen veel maken, maar oneerlijkheid vind ik gewoon niet tof. Het is toch simpel.
Zeg gewoon hij is nu overal leverbaar of hij is gewoon NIET leverbaar op die dag.
Zeg gewoon hij is nu overal leverbaar of hij is gewoon NIET leverbaar op die dag.
Ze moeten de releasedatum niet naar achteren zetten, want in de US/UK is-ie gewoon te krijgen. Wat mij betreft mogen ze verschillende releasedata gebruiken. Een voor de US, een voor Canada, een voor EU, een voor UK etc.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat mij betreft mogen ze ophouden met de EU altijd fucken, ook hier wonen gamers met geld.CJ schreef op dinsdag 15 november 2005 @ 13:21:
Ze moeten de releasedatum niet naar achteren zetten, want in de US/UK is-ie gewoon te krijgen. Wat mij betreft mogen ze verschillende releasedata gebruiken. Een voor de US, een voor Canada, een voor EU, een voor UK etc.

Het is gewoon buiten alle proporties wat hier in dit landje aan die smerige Noordzee gebeurt mbt ATI, blijkbaar gelden voor deze vendor hier nog de normen van klompen en tulpen.
Het ziet er echt erg slecht uit, geen enkele zaak verwacht een goede levering. Ik schei er mee uit, had ik de POV gisteren maar besteld, de X1800XT is Vaporware in de hoogste orde.
Het ziet er echt erg slecht uit, geen enkele zaak verwacht een goede levering. Ik schei er mee uit, had ik de POV gisteren maar besteld, de X1800XT is Vaporware in de hoogste orde.
Niet op voorraad.
Straks een NL-only actie, bij elke X1800XT 512MB een gratis Phantom game consoleedward2 schreef op dinsdag 15 november 2005 @ 13:46:
Het is gewoon buiten alle proporties wat hier in dit landje aan die smerige Noordzee gebeurt mbt ATI, blijkbaar gelden voor deze vendor hier nog de normen van klompen en tulpen.
Het ziet er echt erg slecht uit, geen enkele zaak verwacht een goede levering. Ik schei er mee uit, had ik de POV gisteren maar besteld, de X1800XT is Vaporware in de hoogste orde.

Maar het is inderdaad in en in triest, het is haast alsof ATi wil dat men hier of nVidia koopt of gewoon afstapt van de echte high-end.
nVidia heeft daar alles mee te maken.Anoniem: 107308 schreef op dinsdag 15 november 2005 @ 00:23:
[...]
Ik zal je even helpen(die open deur moet je me vergeven), de MSRP van deze kaart is $650 ofwel 550 euro, dat de kaart duurder wordt aangeboden door komplett heeft nVidia niets mee te maken.
Een winkelprijs die hoger ligt dan de MSRP prijs heeft vrijwel altijd als oorzaak dat de fabrikant niet voldoende kaarten gemaakt heeft waardoor aanbod bij vraag achterblijft en winkels dus absurde prijzen kunnen vragen.
MSRP prijzen zeggen weinig tot niets als de produktie/aanbod daar niet op afgestemd is.
Bovendien: In juni 2005 lagen de GTX’en binnen 1 a 2 weken voor een prijs van 520 a 550 in de winkel waarbij deze kaart niet alleen een vergelijkbare snelheidswinst liet zien maar ook nieuwe (IQ) functies toevoegde.
Anyway, Consument hebben obv prijzen die zij in het recente verleden voor vergelijkbare innovaties betaalden een beeld van wat een redelijke prijs zou zijn.
In mijn ogen is dat dus geen EUR 705 noch EUR 670. Ik denk dat velen er zo over denken. nVidia heeft invloed op deze prijs door een voldoende aanbod te verzekeren, iets waar zij afgelopen half jaar behoorlijk voor op de borst hebben geklopt.
De goedkoopste XT512 staat bij 3 winkels voor EUR 512,-- te koop.Vergelijking van de gemiddelde XT @ 512MB prijs laat duidelijk zien dat er geen 200 euro prijsverschil is. Dus zou je me je cijfers kunnen laten zien?
De goedkoopste GTX 512 stond gisteren ten tijde van mijn post voor ongeveer EUR 705,-- in de PW wat grosso modo op EUR 200 uitkomt.
De GTX512 staat inmiddels op EUR 672 wat het verschil inmiddels op EUR 160,- brengt.
Ik bergijp niet wat je hiemee bedoelt danwel naar welk deel in mijn post verwijs je?Ik weet niet hoe jij op de hoogte bent wanneer nVidia wist wat voor kaarten ATi op de markt ging zetten en hoe ze zouden presteren maar bronvermelding bij zulke aantijgingen zou ik waarderen. Dit zou namelijk ook enige vorm van discussie bevorderen. Helemaal aangezien ATi's meerwaarde voornamelijk in IQ zit en dit al heel moeilijk te duiden is in dollars en zekers ook in kristallen bol prestatie voorspellingen
Als ik de performance stijgingen bekijk(vergelijk oude met nieuwe reviews) die er geboekt worden met de X1800 onder de nieuwe drivers dan zie ik geen enorme vooruitgang(algemeen bekeken). Hiernaast zou ik eens naar het lijstje kijken wat Firefox gepost heeft:
[rml]FirefoxAG in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml].
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat de GTX512 bij Komplett in de pre-order staat voor 700 Euri zegt nogal weinig. De X1800XT stond niet zo lang geleden ook bij oc.co.uk in de pre-order voor 775 Euro remember?CJ schreef op dinsdag 15 november 2005 @ 04:33:
Stokpaardje of niet. Als je meer dan €700 betaald voor een kaart dan mag je verwachten dat je HQ aan kan zetten. Misschien dat jij weinig last hebt van shimmering, maar het feit dat dit uberhaupt optreedt op high end kaarten bij nVidia is gewoon een kwalijke zaak.
Verder is inschakelen van HQ+TSS-AA op de GTX512 over het algemeen geen probleem toch?
http://www.digit-life.com/articles2/video/g70-7.html
Wat er verder zo moeilijk te begrijpen is aan "in verreweg de meeste games geen last van shimmering" snap ik niet echt

En in de paar games waar het wel speelt kun je nog altijd besluiten de HQ mode aan te zetten...

Zoals we allemaal weten is de performancehit van de XT bij Q-AF marginaal, slechts enkele procenten. Deze paar procenten gaan de XT dus niet helpen het gat met de GTX dicht te lopen, zelfs niet op de HQ mode... kunnen we nog uitgebreid de discussie aan of je de ATi Q mode moet vergelijken met de GTX HQ mode, maar laten we dat maar achterwege laten vandaag.Overigens als ik naar Digit Life kijk in de grafieken dan zie ik daar een HQ modus voor nVidia, terwijl er ook een HQ modus voor ATi wordt gebruikt. Alleen jammer dat dit ook weer niet 'eerlijk' is, aangezien bij ATi dan non-angle dependent AF wordt gebruikt en dit bij de G70 niet mogelijk is.
Ik dacht in deze context eerder aan +1 grappig-1 Troll/Overbodig, ondanks de

Duidelijk niet veel verschil? De GTX512 nV HQ mode is regelmatig sneller dan de ATi standaardmode, laat staan de ATi HQ mode...SI4live schreef op dinsdag 15 november 2005 @ 11:02:
Hier wordt er wel HQ setting gebruikt met daarnaast de default:
http://www.ixbt.com/video2/g70-7-d.shtml#p17
(gele is HQ, oranje is HQ overclocked)
Dan is er duidelijk niet veel verschil tussen de X1800XT en de GTX512

Helaas hebben we dit keer geen 2,5 jaar (tenminste, kweet niet van jou, maar ik niet)Jejking schreef op dinsdag 15 november 2005 @ 11:08:
Duh... logisch. De R520 is een nieuwe architectuur, remember? Logisch dat er dan nog bakken met werk te doen zijn voordat de R5x0 uit is gemolken... Bij de R300-architectuur duurde dat ook meer dan 2,5 jaar. O ja...

Verder zijn er al zo'n 3 maanden "goede" samples van de X1800XT beschikbaar - en dan hebben we het nog niet eens gehad over de softgroundperiode, waarin er ondanks de kaarten het niet 100% deden echt wel aan de drivers gewerkt kon worden. Ik denk namelijk niet dat de ATi driverdevelopmentsectie in die periode uit hun neus heeft lopen eten.
Zou je toch wel denken dat een aantal cruciale issues zo langzamerhand verholpen zouden moeten zijn...
Dat nV gamedeveloppers betaald om hun logo te promoten doet verder niet af van dat de games gewoon "DirectX9.0" en "OpenGL" compliant zijn... daar heb je standaarden voor. De games waarin zeer specifiek nV patented technologie gebruikt is zijn op de vingers van een hand te tellen.Vind ik eerlijk gezegd niet eens zo gek dat ze dat denken, tegenwoordig is het meer regel dan uitzondering dat er bij een demo/game in de intro staat: Nvidia, The Way It's Meant To Be Played...
-Devmode is een zeer bekende switchoptie van FarCry, en ik heb hem echt niet zelf uitgevonden. Verder deed HDR het ook op de XT voor de patch, alleen moest je dan zelf een beetje aan de config rommelen (op DH hadden ze het werkend voor de patch uitkwam).Met een vluchtig gebouwde patch die een command introduceert waar ik in al die talloze topics over Far Cry nog nooit wat van gehoord, geroken en gezien heb: Devmode, wtfAlleen het standaardcommand is op die fora bekend om het HDR-level zélf in te stellen...
De HDR problemen van de XT worden nu dus afgeschoven op de FarCry patch die zogenaamd niet goed is. Is gewoon OpenEXR FP blending HDR wat in FarCry gedaan word hoor... had geen enkel probleem moeten zijn. Verder hebben we het wel constant over FarCry, maar what about al die andere HDR games waarin de stock GTX de XT voorbijloopt (op soms vrij dramatische manieren)?
Tsja, en ik weet ook dat de performance gaat toenemen als we 2xAA i.p.v. 4xAA gebruiken. Zullen we vanaf nu dan de GTX op 2xAA vergelijken met de XT op 4xAA?70% is inderdaad niet realistisch. Maar ik weet wél zeker dat de performance gaat toenemen bij mindere waarden, als dat gebeurt bij 6x00-owners, waarom zou dat dan niet gebeuren op de X1800?

Ik denk dat de analogie volkomen duidelijk is voor iedereen, behalve hen die hem niet willen begrijpen. Ik ga er zodoende ook geen verdere woorden aan vuil maken.Je trekt nogal scheve vergelijkingen, voor mij is HDR nog steeds geen AA. Je vergelijkt appels met peren, we praten hier over HDR en niet over AA. Hence the question waarom je dit er dan bijhaalt?
Heb ik ergens Zardon gelijk gesteld aan Driverheaven? Ik stel voor dat we het houden bij wat ik heb gezegd, en niet bij jouw interpretaties van wat ik misschien zou kunnen bedoelen.Met andere woorden, omdat Zardon je bant vanwege een persoonlijke situatie die in de grakamarkt uitermáte gevoelig lag (en dat weet je donders goed, want het ging om vertrouwelijke informatie a.k.a. NDA die nog niet bestemd was om gelekt te worden.), degradeer je meteen maar de hele site + reviews + keiharde resultaten naar niveau Pulpfiction/Onwaardig, want naar jouw mening staat Zardon gelijk aan DriverHeaven? Lijkt me niet, er werken een hoop mensen hard om ons dagelijkse portie nieuws op Internet te zetten. Mijn haren rezen ten berge toen ik dit las, dit slaat alles, je lijkt er maar geen genoegen van te krijgen om er telkens nog een schepje boven op te doen
Verder stond Sander Sassen niet onder NDA, en had mijn ban totaal niets van doen met gevoelige informatie, maar gewoon met absolute intollerantie van enige andere mening - vooral als die wel eens ietsiepietsie negatief voor ATi zou kunnen worden uitgelegd.
Ik heb nog nooit zo'n <flamerig overkomend woord verwijderd> rechtvaardiging voor totale intollerantie, de kop indrukken van kritiek, totale lak aan vrijheid van meningsuiting en klinkklare leugens gehoord.Overigens: leuk zo'n heldenactie, maar toch geef ik Zardon geen ongelijk. Want elke persoon die zich daar registreert (ja, de postteller stond op 1 Firefox) om speciaal heel DH ervan te overtuigen dat Sander gelijk had, dat komt over alsof die persoon gelinkt is aan DriverHeaven, en is daarom een gevaar voor zijn voortbestaan. Doemdenken? Nee, want als hij je niet gebanned had, en de discussie was doorgaan en ATi was erachter gekomen (dat lijkt me wel realistisch), wat denk je dan dat dat voor consequenties had gehad voor DH? Dan waren ze bestempeld als 'verklikkers', nooit meer serieus genomen, en hadden ze (iig van ATi) geen hardware meer gekregen om te testen. Dat zorgt niet voor hopen goodwill... Heb je daar wel eens bij stil gestaan Firefox?
Ik heb trouwens nergens beweerd dat Sander gelijk had, ik heb alleen aangegeven dat zijn resultaten tenminste in oveweging genomen konden worden, en dat ik het bijster verkeerd vind iemand op persoonlijke termen volledig af te flamen (inclusief zware dreigementen) omdat hij een set benchmarks post die een aantal fanboys kwetst in hun undying-ati-love.
Ik snap helemaal dat Zardon jouw crowd is (als het aan bepaalde mensen hier had gelegen mocht ik ook niet meer in dit topic komen), alleen ik heb het - met reden - niet zo op hem... sorrie.
No, really? Sander en ik wonen niet eens in dezelfde stad, plus ik heb een Static IP.Maar let wel: als het IP niet hetzelfde was, dan had hij geen recht om het goed te praten tegenover eigen leden! Daar ben ik volledig niet mee eens, want dat is matennaaierij imo.
Dat "shimmeringgedoe" is i.m.o. heel wat minder kwalijk dan die HDR issue met de XT (of ATi's OpenGL issues), want zoals al 100x gezegd speelt het in verreweg de meeste games niet. Die HDR issue speelt in verreweg de meeste games wel, en OGL is nog steeds niet bepaald volledig gefixed.Je zegt het zelf al, met andere woorden... dit issue bestaat dus nog steeds. En dus vind ik dat men (en dat wil zeggen: iedereen) het grootste recht heeft om Nvidia daarop aan te spreken. Zolang dat shimmeringgedoe niet volléedig uitgeroeid is met een driver en er mensen last van hebben, is het gewoon een issue. Punt. En datzelfde geldt voor ATi. Gisteren nog, veel users hebben geen beeld behalve radar in de DTM RaceDriver3-demo. Zolang dat niet is gefixed door ATi in nieuwe drivers, is het gewoon een issue. Punt. Trust me, dit vind ik ook knap stom dat het niet gefixed is, maar hierbij bekijk ik de zaak objectief.
Het laatste word gebaggetalliseerd en nV mag wel worden afgefikt op het eerste. Hoezo voorkeuren?
Dan moeten een aantal mensen hier mss iets aan hun zenuwen doen, want die zijn volgens mij een beetje overgevoeligZoals CJ al zei... komt lichtelijk trollerig op mij over, zou je die toon aub aan willen passen Firefox? Dit soort dingen werken bij mensen op hun zenuwen, dus ook bij mij. Bvd.

[Voor 3% gewijzigd door Cheetah op 15-11-2005 15:01]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Gebeurt het weer.. come on people.. be happy..
(alle bij de "kanten" btw)

[Voor 22% gewijzigd door jimbojansen op 15-11-2005 15:12]
Nou gewoon is ook maar heel relatief. Ook de UK en de VS kampen met grote tekorten. Bij OC.uk is er bv geen XT te bekennen, waar blijven toch als die massa's? XT'sCJ schreef op dinsdag 15 november 2005 @ 13:21:
, want in de US/UK is-ie gewoon te krijgen.
Ik heb nog een aantal Aces achet de hand in de vorm van VS etailer die naar Europa shippen, maar vergeet het maar geen XT.
Niet op voorraad.
Vaak bestond dit ook dat nvidia test systemen leverde aan de gamesproducent (vroeger was dit iig zo, en zodoende was er bij een leuk populair spel altijd een patch van de óf de gamedevver óf ATi nodig om de game goed te laten lopen op een Radeon. Eerlijk? Nou uh nee. Maar gelukkig is het nog wel meegavellen, en vooral leuk omdat (was vorig jaar) een test aan toonde dat ATi in 70-80% van de TWIMTBP games gemiddeld sneller was dan een vergelijkbaar nv-kaart (qua prijs) Ik kan de link ff zo 123 niet meer vinden.FirefoxAG schreef op dinsdag 15 november 2005 @ 14:49:
[...]
Dat nV gamedeveloppers betaald om hun logo te promoten doet verder niet af van dat de games gewoon "DirectX9.0" en "OpenGL" compliant zijn... daar heb je standaarden voor. De games waarin zeer specifiek nV patented technologie gebruikt is zijn op de vingers van een hand te tellen.
Tja, hoeveel HDR games zijn er? Denk dat dit nog wel minder is dan het aantal games waarin de shimmershizzle optreed, verder geen ervaring mee, (sinds 7 brakke GeForce's (GF256 t/m GF3ti200, problemen uiteenlopend van dode fan, dode kaart, rotte 2d, rotte tv-out) in ruim een jaar heb alleen maar ATi gehad (8500/9700/9800PRO/X800PRO/X700M, die nu nog allemaal ergens funktioneren) Maar dus zelf geen ervaring hoe vervelend dit is en hoe het optreed. Net als dat ATi beloofde de perf. van de X1800 in OGL aan te pakken (hoppa, in AF en AF+AA modes tot 30/40% winst) heb ik ook wel vertrouwen dat ze de HDR bug opgelost krijgen) En ik denk niet ATi er nu echt wakker van ligt dat de peformance in non AA/AF modes nog wat lager is dan de concurrent, aangezien je met een X1800 toch wel met AA/AF kunt spelen in Q4/D3, waar je dus al bijna geen perf. hit meer hebt.Dat "shimmeringgedoe" is i.m.o. heel wat minder kwalijk dan die HDR issue met de XT (of ATi's OpenGL issues), want zoals al 100x gezegd speelt het in verreweg de meeste games niet. Die HDR issue speelt in verreweg de meeste games wel, en OGL is nog steeds niet bepaald volledig gefixed.
Het laatste word gebaggetalliseerd en nV mag wel worden afgefikt op het eerste. Hoezo voorkeuren?
Want wat heb je eraan om 140 of 110 fps te hebben in 1024x768 zonder AA/AF? Maar zou wel leuk zijn als die perf. nog omhoog ging, maar liever dat ze hun tijd steken in het fixxen van de HDR bug.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
het is geen kwestie van willen, maar kúnnenshuogg schreef op dinsdag 15 november 2005 @ 14:15:
[...]
het is haast alsof ATi wil dat men hier of nVidia koopt of gewoon afstapt van de echte high-end.

''échte highend'' ?.....

ik vind het wel grappig hoe ati in dit topic ''verheven'' wordt (maar dat mag...is tenslotte het ati discussie topic)...wat me wel opvalt is dat er heel veel mensen zijn (mischien wel te veel) die pér definitie ati beter vinden....op het nvidia discussie topic, is dit niet zo...die mensen kopen gewoon de snelste kaart op 't moment...als dat nou ati is, of nvidia, maakt ze niet uit (en mij ook niet)....
ook al blijken de cyfers achteraf een beetje tegenvallen (laten we eerlijk zijn ivm 4 maanden geleden)...men blijft gewoon stug volhouden

btw...20.000 3dmarks is in zicht.... http://www.xtremesystems.org/forums/showthread.php?t=80080 maar dan met échte echte highend

[Voor 73% gewijzigd door Mr. Detonator op 15-11-2005 16:30]
Je leest mijn post verkeerd, ik zeg 'of'Mr. Detonator schreef op dinsdag 15 november 2005 @ 16:09:
[...]
het is geen kwestie van willen, maar kúnnen![]()
''échte highend'' ?.....
ik vind het wel grappig hoe ati in dit topic ''verheven'' wordt (maar dat mag...is tenslotte het ati discussie topic)...wat me wel opvalt is dat er heel veel mensen zijn (mischien wel te veel) die pér definitie ati beter vinden....op het nvidia discussie topic, is dit niet zo...die mensen kopen gewoon de snelste kaart op 't moment...als dat nou ati is, of nvidia, maakt ze niet uit (en mij ook niet)....
ook al blijken de cyfers achteraf een beetje tegenvallen (laten we eerlijk zijn ivm 4 maanden geleden)...men blijft gewoon stug volhouden
btw...20.000 3dmarks is in zicht.... http://www.xtremesystems.org/forums/showthread.php?t=80080 maar dan met échte echte highend


Dat blijkt maar weer hoeveel je van HDR af weet... je er eerst een beetje meer in verdiepen en je zult zien dat 'gewoon OpenEXR' niets zegt. Far Cry maakt gebruik van specifieke nV calls en dit geldt ook voor de meeste andere games. Die zijn ontwikkeled op nV kaarten. Het uiteindelijke resultaat mag er dan hetzelfde uitzien, maar hoe het intern werkt is heel verschillend en de games zijn op dit moment gefinetuned voor de NV manier.FirefoxAG schreef op dinsdag 15 november 2005 @ 14:49:
[...]
De HDR problemen van de XT worden nu dus afgeschoven op de FarCry patch die zogenaamd niet goed is. Is gewoon OpenEXR FP blending HDR wat in FarCry gedaan word hoor... had geen enkel probleem moeten zijn. Verder hebben we het wel constant over FarCry, maar what about al die andere HDR games waarin de stock GTX de XT voorbijloopt (op soms vrij dramatische manieren)?
Maar ik meende me te herinneren dat ik een paar posts geleden dit al uitgebreid uitgelegd heb hoe dit werkte...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zullen we even niet gaan sneren?CJ schreef op dinsdag 15 november 2005 @ 17:03:
Dat blijkt maar weer hoeveel je van HDR af weet...

Even een analogie tussendoor: als ik nou ga roepen dat de GeforceFX serie een geweldige serie was, maar niet performde doordat gamedeveloppers "de ATi manier" van Dx9 hanteerden word ik hier terecht voor gek verklaard. Waarom? Omdat de "ATi manier" gewoon de DirectX9 standaard was.je er eerst een beetje meer in verdiepen en je zult zien dat 'gewoon OpenEXR' niets zegt. Far Cry maakt gebruik van specifieke nV calls en dit geldt ook voor de meeste andere games. Die zijn ontwikkeled op nV kaarten. Het uiteindelijke resultaat mag er dan hetzelfde uitzien, maar hoe het intern werkt is heel verschillend en de games zijn op dit moment gefinetuned voor de NV manier.
Zo is er ook een OpenEXR standaard, en die is volledig open. Roepen dat ATi niet performt in OpenEXR omdat dit op "de nV manier" word gedaan is i.m.o. net zo kansloos als bovenstaand voorbeeld. HDR - ook FP blending HDR zoals OpenEXR - gebeurd met DirectX9.0 calls, niet met directe calls aan nV hardware.
Als hier "specifieke nV calls" voor werden gebruikt zou het uberhaupt niet werken op ATi hardware (en zelfs dan nog zou je je kunnen afvragen of dit aan de calls zelf of aan het oppakken daarvan door ATi ligt).
Ik mag toch wel hopen dat de tijd dat specifieke renderpaths werden gecode voor de verschillende 3D Card fabrikanten ondertussen ver achter ons ligt. Daar zijn standaarden voor waar alle partijen zich aan dienen te conformeren.
En ik meen dat ik een paar posts geleden ook al uitgebreid heb uitgelegd hoe ik er over dachtMaar ik meende me te herinneren dat ik een paar posts geleden dit al uitgebreid uitgelegd heb hoe dit werkte...

[Voor 11% gewijzigd door Cheetah op 15-11-2005 18:28]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Anoniem: 107308
Klopt wat je zegt maar ATi had al lang en breed kunnen en moeten voldoen aan dezelfde snelheden. Als je een kaart uitbrengt en alle IQ opties promoot als een fallus ter grote van de toren van Pisa dan verwacht ik dat ze ook werken of er dus nVidia calls of niet zijn, pomp je maar wat US $ in de developers om een fix voor je uit te brengen.CJ schreef op dinsdag 15 november 2005 @ 17:03:
[...]
Dat blijkt maar weer hoeveel je van HDR af weet... je er eerst een beetje meer in verdiepen en je zult zien dat 'gewoon OpenEXR' niets zegt. Far Cry maakt gebruik van specifieke nV calls en dit geldt ook voor de meeste andere games. Die zijn ontwikkeled op nV kaarten. Het uiteindelijke resultaat mag er dan hetzelfde uitzien, maar hoe het intern werkt is heel verschillend en de games zijn op dit moment gefinetuned voor de NV manier.
Ja, tuurlijk.Help!!!! schreef op dinsdag 15 november 2005 @ 14:33:
[...]
nVidia heeft daar alles mee te maken.
Een winkelprijs die hoger ligt dan de MSRP prijs heeft vrijwel altijd als oorzaak dat de fabrikant niet voldoende kaarten gemaakt heeft waardoor aanbod bij vraag achterblijft en winkels dus absurde prijzen kunnen vragen.
MSRP prijzen zeggen weinig tot niets als de produktie/aanbod daar niet op afgestemd is.
Bovendien: In juni 2005 lagen de GTX'en binnen 1 a 2 weken voor een prijs van 520 a 550 in de winkel waarbij deze kaart niet alleen een vergelijkbare snelheidswinst liet zien maar ook nieuwe (IQ) functies toevoegde.

Dit zou ik graag zwart op wit zien want ik heb namelijk iets geheel anders geleerd.Anyway, Consument hebben obv prijzen die zij in het recente verleden voor vergelijkbare innovaties betaalden een beeld van wat een redelijke prijs zou zijn.
Tuurlijk de goedkoopste min goedkoopste. Ik zeg ten eerste duidelijk gemiddelde prijs ten tweede zou je dan ook nog eens komplett van komplett moeten afhalen. Eerlijk vergelijken heet dat, is wel zo netjes en verkomt een hoop nodeloos gezever.De goedkoopste XT512 staat bij 3 winkels voor EUR 512,-- te koop.
De goedkoopste GTX 512 stond gisteren ten tijde van mijn post voor ongeveer EUR 705,-- in de PW wat grosso modo op EUR 200 uitkomt.
De GTX512 staat inmiddels op EUR 672 wat het verschil inmiddels op EUR 160,- brengt.
Trouwens, de GTX 512 Mb is beter leverbaar dan de XT(welke smaak dan ook), vraag maar aan de distributeurs. Doch ik geef toe dat ik de GTX ook in iets grotere supplies verwacht had, maar ik kan niet inschatten wat de vraag naar de GTX is terwijl de vraag naar XT's al duidelijk was uit preorders.
Jah die leverbaarheid van die X1800 XT is om te huilen. JE zou toch denken dat ATi er iets van geleerd zou hebben. NIET DUS....
. Nja ATI DOE HET BIJ DE R580 en RV560 EENS GOED !!!
Sorry dat moest ik er even over kwijt. En over dat geblaat hier over Nvidia ATi. Je moet idd toegeven dat op dit moment de ATi kaarten gewoon onder de maat presteren. Idd wat ik zij over die drivers mag dan wel zo zijn maar dat kan ATi kennende lang duuren. Dus dat mag je nu niet mee krekenen. Alleen wel als het op de korte termijn zou zijn. Maar ik sluit ook niet uit dat de nieuwere games en mischien far cry en zo met patches toch erg goed op ATi kaarten gaan lopen.


Sorry dat moest ik er even over kwijt. En over dat geblaat hier over Nvidia ATi. Je moet idd toegeven dat op dit moment de ATi kaarten gewoon onder de maat presteren. Idd wat ik zij over die drivers mag dan wel zo zijn maar dat kan ATi kennende lang duuren. Dus dat mag je nu niet mee krekenen. Alleen wel als het op de korte termijn zou zijn. Maar ik sluit ook niet uit dat de nieuwere games en mischien far cry en zo met patches toch erg goed op ATi kaarten gaan lopen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik sneer niet. Als dat zo overkomt, dan bij deze m'n excuus. Ik wijs je alleen maar even op een bepaalde kortzichtigheid zoals bepaalde punten als feiten presenteren terwijl er meer aan de hand is dan jezelf klaarblijkelijk weet, terwijl ditzelfde punt hier al meerdere keren voorbij is gevlogen. Wacht maar even af tot bepaalde games gepatched zijn. Waarom denk je dat SS2 zo'n corruptie kan geven op ATi kaarten met HDR? Waarom denk je dat SC:CT gebruik maakt van het SM2.0 path op ATi X1K kaarten, terwijl dit bij lange na niet optimaal is voor die serie (aangegeven door Ubi zelf)? Bepaalde games die nu under development zijn, hebben inmiddels ondersteuning voor de X1K serie en HDR toegevoegd aan hun arsenaal... Je bent gewoon te vroeg met het trekken van conclusies over HDR performance.
OpenEXR een "standaard" noemen is één ding, maar er dan meteen van uit gaan dat iedereen dit zo maar ondersteund is iets anders. nVidia volgt OpenEXR vrij nauwkeurig en dat is hun keuze. Als ATi op een andere manier HDR ondersteunt dan is dat hun keuze, als het resultaat er maar hetzelfde uit ziet. Er zijn meerdere wegen die naar (HDR) Rome leiden. OpenEXR is er een van en is een bepaald FP16 formaat wat bepaalde calls vereist die nV tot bijna in de puntjes hardwarematig volgt. Het is niet "HET FP16 formaat". "Open standaard" wil niet zeggen dat iedereen verplicht is dit te volgen.
Je schijnt te denken (correct me if I'm wrong) dat OpenEXR HDR echt een vorm van HDR is, terwijl dit niet meer is dan een bepaald FP16 formaat HDR. Het is dus absoluut niet gek dat games aangepast moeten worden aan andersoortige hardware, wanneer er tot voor kort alleen maar NV kaarten waren die hardwarematige HDR deden (en dit dus voornamelijk doen volgens het OpenEXR standaard).
3Dc is ook een open standaard. Ondersteunt nVidia dit hardwarematig? Nee. Ze doen dit via een driverhack waardoor er 2x zo veel geheugen nodig is om hetzelfde effect te bereiken.
De FX in deze vergelijking roepen is het vergelijken van appels met peren. DX9 was DE standaard die Microsoft had opgelegd. Was dit een OPEN standaard? Nee. Dit was puur en alleen door Microsoft op de markt gezet en wil je dat je games het goed doen onder Windows, dan moet je er voor zorgen dat je je hardware conform hieraan maakt. Dit geldt niet voor HDR. nVidia maakte de fout door uit het developersforum te stappen en maakte hun hardware op hun eigen manier. Het gevolg was een brakke DX9 implementatie. DX => niet een open standaard, dus fabrikanten zijn min of meer verplicht om alles tot op de letter te volgen wil je dat iets goed werkt. OpenEXR => open standaard, dus fabrikanten hoeven het niet te volgen. Er is een wereld van verschil tussen EEN standaard en DE standaard.
De vergelijking gaat dus absoluut niet op met ATi's manier van HDR implementatie, aangezien die vrij correct is uitgevoerd (en nog wel in meerdere vormen + AA). Als ATi had geadverteerd met "Our hardware supports fast OpenEXR HDR", dan had ik je gelijk gegeven. Feit is dat ATi dit niet ondersteunt, maar wel andere vormen van FP16 blending heeft voor HDR en dit op andere manieren kan gebruiken.
Games die HDR hebben zullen tot voor kort alleen op NV hardware gemaakt zijn en hebben dus grote kans dat die getuned zijn voor de specifieke OpenEXR calls en dit misschien wel via omwegen moeten doen (zo is SM2.0 hardware ook in staat om aan de OpenEXR eisen te voldoen, maar moet FP blending via de shaders gaan en zal daardoor zo'n 20-30% trager zijn).
Patches komen er dus ook aan voor Far Cry (1.4), SC:CT, Serious Sam 2 etc. Het is niet veel werk, en het activeren van AA in combinatie met HDR zou als het goed is, niet veel aan performance moeten inboeten. Hoe ingewikkelder de shading is, des te minder performance impact zal AA krijgen op HDR op ATi kaarten. Als na de patches en driverupdates de boel nog een brakke performance geeft, dan mag je wat mij betreft de hele X1K serie de grond in boren. Maar imo ben je nu te voorbarig bezig.
OpenEXR een "standaard" noemen is één ding, maar er dan meteen van uit gaan dat iedereen dit zo maar ondersteund is iets anders. nVidia volgt OpenEXR vrij nauwkeurig en dat is hun keuze. Als ATi op een andere manier HDR ondersteunt dan is dat hun keuze, als het resultaat er maar hetzelfde uit ziet. Er zijn meerdere wegen die naar (HDR) Rome leiden. OpenEXR is er een van en is een bepaald FP16 formaat wat bepaalde calls vereist die nV tot bijna in de puntjes hardwarematig volgt. Het is niet "HET FP16 formaat". "Open standaard" wil niet zeggen dat iedereen verplicht is dit te volgen.
Je schijnt te denken (correct me if I'm wrong) dat OpenEXR HDR echt een vorm van HDR is, terwijl dit niet meer is dan een bepaald FP16 formaat HDR. Het is dus absoluut niet gek dat games aangepast moeten worden aan andersoortige hardware, wanneer er tot voor kort alleen maar NV kaarten waren die hardwarematige HDR deden (en dit dus voornamelijk doen volgens het OpenEXR standaard).
3Dc is ook een open standaard. Ondersteunt nVidia dit hardwarematig? Nee. Ze doen dit via een driverhack waardoor er 2x zo veel geheugen nodig is om hetzelfde effect te bereiken.
De FX in deze vergelijking roepen is het vergelijken van appels met peren. DX9 was DE standaard die Microsoft had opgelegd. Was dit een OPEN standaard? Nee. Dit was puur en alleen door Microsoft op de markt gezet en wil je dat je games het goed doen onder Windows, dan moet je er voor zorgen dat je je hardware conform hieraan maakt. Dit geldt niet voor HDR. nVidia maakte de fout door uit het developersforum te stappen en maakte hun hardware op hun eigen manier. Het gevolg was een brakke DX9 implementatie. DX => niet een open standaard, dus fabrikanten zijn min of meer verplicht om alles tot op de letter te volgen wil je dat iets goed werkt. OpenEXR => open standaard, dus fabrikanten hoeven het niet te volgen. Er is een wereld van verschil tussen EEN standaard en DE standaard.
De vergelijking gaat dus absoluut niet op met ATi's manier van HDR implementatie, aangezien die vrij correct is uitgevoerd (en nog wel in meerdere vormen + AA). Als ATi had geadverteerd met "Our hardware supports fast OpenEXR HDR", dan had ik je gelijk gegeven. Feit is dat ATi dit niet ondersteunt, maar wel andere vormen van FP16 blending heeft voor HDR en dit op andere manieren kan gebruiken.
Games die HDR hebben zullen tot voor kort alleen op NV hardware gemaakt zijn en hebben dus grote kans dat die getuned zijn voor de specifieke OpenEXR calls en dit misschien wel via omwegen moeten doen (zo is SM2.0 hardware ook in staat om aan de OpenEXR eisen te voldoen, maar moet FP blending via de shaders gaan en zal daardoor zo'n 20-30% trager zijn).
Patches komen er dus ook aan voor Far Cry (1.4), SC:CT, Serious Sam 2 etc. Het is niet veel werk, en het activeren van AA in combinatie met HDR zou als het goed is, niet veel aan performance moeten inboeten. Hoe ingewikkelder de shading is, des te minder performance impact zal AA krijgen op HDR op ATi kaarten. Als na de patches en driverupdates de boel nog een brakke performance geeft, dan mag je wat mij betreft de hele X1K serie de grond in boren. Maar imo ben je nu te voorbarig bezig.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Let op:
Er worden teveel basic vraagjes gesteld in grote topics als dit. De GoT Huisregels gelden ook in grote topics. Als je vraag te simpel is voor in een aparte topic, is hij ook te simpel voor hier.
POST DUS GEEN 'SIMPELE VRAAGJES' MAAR DOE EVEN ZELF DE MOEITE IETS UIT TE ZOEKEN.
Doe je dat niet en post je hier alsnog, dan riskeer je sancties :o
Er worden teveel basic vraagjes gesteld in grote topics als dit. De GoT Huisregels gelden ook in grote topics. Als je vraag te simpel is voor in een aparte topic, is hij ook te simpel voor hier.
POST DUS GEEN 'SIMPELE VRAAGJES' MAAR DOE EVEN ZELF DE MOEITE IETS UIT TE ZOEKEN.
Doe je dat niet en post je hier alsnog, dan riskeer je sancties :o