Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Nee. Da's de 9.5" 1GB versie.Joepi schreef op woensdag 04 juli 2007 @ 15:45:
Zou dat nou die extra lange OEM-2900 zijn, waar je - btw - niks meer van hoort...
En dat je weinig hoort over de 12" versie is niet vreemd. Alleen bepaalde systembuilders hebben 'm.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Of misschien wel, maar dan heel bescheiden, want ik heb er nog nooit wat over gezien/gehoord...
Ook opmerkelijk is dat het 2e systeem met Core 2 Quad @ 3.7Ghz lagere 3Dmark scoort dan de dell met Core 2 Quad @ 3.2GhzCheetah schreef op woensdag 04 juli 2007 @ 16:19:
[...]
Verder haal ik met een Core2 Duo @3.2 Ghz en 1 enkele 8800GTX stock 11.500 punten in 3DM06.
Zij halen met een Core2 Quad @3.7 Ghz en 2x 8800GTX'en in SLI dus 12.250 punten. Slechts 750 meer dan mijn config... alleen het verschil in CPU zou al meer dan die 750 punten moeten uitmaken
..knip..
Of dat plaatje is verkeerd of het is gewoon een slechte review....
De XT 1GB's in CF doet het wel lekker moet ik zeggen (al is de vraag of die gegevens wel kloppen).
WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream
De review is volgens mij wel goed hoor... Het is alleen een Vista vergelijking en daarin doet nV het gewoon slecht:psychoclown schreef op woensdag 04 juli 2007 @ 18:25:
[...]
Ook opmerkelijk is dat het 2e systeem met Core 2 Quad @ 3.7Ghz lagere 3Dmark scoort dan de dell met Core 2 Quad @ 3.2Ghz
Of dat plaatje is verkeerd of het is gewoon een slechte review....
De XT 1GB's in CF doet het wel lekker moet ik zeggen (al is de vraag of die gegevens wel kloppen).
PC Magazine’s benchmarks show how two similar Falcon machines did with dual card setups under Vista. And the Crossfire setup easily beat the SLI setup. It’s no secret Nvidia has had huge Vista driver issues, despite being first to market with a Vista-ready DX10 card by 5 months. Under XP, where both Nvidia and ATI have established and polished drivers, Nvidia’s faster hardware wins. For any of our customers running Windows XP, I’d recommend Nvidia’s cards over any of the new Radeons. When you move to Vista, scores start to even out. And when you move to dual card setups under Vista, SLI encounters significant scaling problems. Crossfire scales up performance well. The end result is what you see on that benchmark chart.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://www.hardwareschott...D+2900XT+1GB+21108-02-10R
cassiekai schreef op woensdag 04 juli 2007 @ 21:06:
Misschien oud nieuws maar hier de 1gb met prijs (geen directe link naar een zaak):
http://www.hardwareschott...D+2900XT+1GB+21108-02-10R
Dan denk ik dat een 8800 GTX toch interessanter is..
Fudzilla komt met een heel interessant nieuwtje... Twee jaar geleden vertrokken ATI PR hotshots Jon Carvill en Ian McNaughton naar AMD. AMD stuurt deze twee heren nu terug naar de ATi Division om de boel op marketinggebied op orde te krijgen.
Na augustus gaan de heren aan de slag op hun voormalige werkplek. Dus de volgende serie kaarten zullen wel onder hun hoede vallen.Now its time to get Canadians back home and Ian will become Senior Marketing manager for GPU business while Jon will be a PR for Graphics and integrated products back in Canada.
Bron: http://www.fudzilla.com/i...ask=view&id=1775&Itemid=1
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Later komt er nog eentje naast als mijn voeding er is.
Die hotfix (cat 7.7) is nog niet voor Vista 64 uitgekomen geloof ik?
Niet op voorraad.
[ Voor 5% gewijzigd door Mr. Detonator op 05-07-2007 19:39 ]
Ala, als je off-road wielen/banden op een Fiat Panda plakt (kwestie van origineel te zijn in de metaforen), gaat hij daarom ook niet zomaar perfect off-road kunnen blijven
edit: laten we nu nog zeggen dat ze zelfs de motor aanpassen. Dat ding zal binnen de kortste keren plooien/breken. Letterlijk.
[ Voor 13% gewijzigd door mieJas op 05-07-2007 19:58 ]
Yes, but no.
Verwijderd
Plus het feit dat het slechts demo's zijn, in Crysis heb ik veel meer vertrouwen.mieJas schreef op donderdag 05 juli 2007 @ 19:56:
Wat er fout gaat? Die spellen zijn gemaakt voor DX9. Daarop hebben ze in de vlugte een codepath geplakt dat min of meer DX10 compatible is, maar daarbij hebben ze waarschijnlijk niet gekeken hoe ze de rest van de code kunnen optimaliseren.
Verwijderd
hoop dat je gelijk hebt, ik hoop gewoon dat crysis (waar ze toch langer aan het werken zijn voor DX10? beter zal presteren. ze testte het op een 8800GTS en het ging vlotjes,mieJas schreef op donderdag 05 juli 2007 @ 19:56:
Wat er fout gaat? Die spellen zijn gemaakt voor DX9. Daarop hebben ze in de vlugte een codepath geplakt dat min of meer DX10 compatible is, maar daarbij hebben ze waarschijnlijk niet gekeken hoe ze de rest van de code kunnen optimaliseren.
Maar heb al meerdere benches gezien die tot nu toe wel positief waren
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Aan company of heroes is niets demo aan. Ik speel dat op 1920 * 1200. Alle instellingen op high of ultra echter geen AA in DX10. En eerlijk gezegd mis ik dit niet in dit spel,Verwijderd schreef op donderdag 05 juli 2007 @ 20:22:
[...]
Plus het feit dat het slechts demo's zijn, in Crysis heb ik veel meer vertrouwen.
Even gauw de ingame test gedaan en haal min, av, max 16.9, 31.9, 55.8 fps uit. Dit komt wel overeen met mijn spelervaring; het loopt gewoon soepel. Alleen jammer van dat groene logo in het begin
[ Voor 4% gewijzigd door winwiz op 05-07-2007 21:01 ]
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
om eerlijk te zijn testen ze met een 8800GTX (van leveldesigner gehoord, dus kan ook betekenen dat hij een 8800GTX erin heeft zitten..)Verwijderd schreef op donderdag 05 juli 2007 @ 20:26:
[...]
hoop dat je gelijk hebt, ik hoop gewoon dat crysis (waar ze toch langer aan het werken zijn voor DX10? beter zal presteren. ze testte het op een 8800GTS en het ging vlotjes,
De drivers worden heus nog wel verbeterd. Volgens mij, wordt er nog heel veel onbenut. De 7.6 driver, is volgens mij pas de 3e driver voor de HD2900XT. Als je ziet wat het verschil tussen 7.5 & 7.6 heb ik wel goede hoop.
[ Voor 7% gewijzigd door Splinter Cell op 05-07-2007 21:43 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Als straks echte games uit komen die gewoon vanaf de grond op DX10 gebouwd zijn (zoals Crysis) dan zul je zien dat alle dx10 kaarten (behalve low end en mid-end tot op zekere hoogte) gewoon prima presteren.
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
http://ghostrecon.us.ubi.com/graw2/
FF posten hoe de 2900 zo presteert, aub!
Wat mij opvalt is dat nV met de laatste beta's de performancekroon in CoJ weer teruggepakt heeft van ATi... en dat dus zelfs zonder van hun hardware MSAA resolve gebruik te kunnen maken.Mr. Detonator schreef op donderdag 05 juli 2007 @ 19:39:
op de frontpage staat een dx10 vergelijking van anandtech
Blijkbaar was Anand - gezien zijn commentaar - er trouwens ook niet van op de hoogte dat ATi de rechten van die benchmark in handen heeft.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ligt het dan toch aan de drivers?Cheetah schreef op vrijdag 06 juli 2007 @ 00:36:
[...]
Wat mij opvalt is dat nV met de laatste beta's de performancekroon in CoJ weer teruggepakt heeft van ATi... en dat dus zelfs zonder van hun hardware MSAA resolve gebruik te kunnen maken.
MSAA Shader Resolve AA = DX10. G80 = DX10. Dus G80 kan Shader Resolve AA. Alleen kan de midrange en lowend er minder goed mee overweg dan die van AMD. Die heeft meer beschikbare streamprocessors om er voor te zorgen dat de performancehit kleiner is bij CoJ dan bij de directe tegenhangers.
Opvallende quote van Anandtech is echter het volgende:
Dus als je dit leest dan het lijkt er op dat nV het alleen maar ingebouwd heeft omdat het in de specs stond. Liever hebben ze dat devs gebruik maken van hardwarematige MSAA Resolve. Maar de laatste beta-drivers laten duidelijk verbetering zien voor nV.Ben benieuwd hoe dit straks gaat uit pakken in al die games die uit komen die o.a. gebruik maken van deferred shading.AMD's parts are designed to always handle AA in this manner, but NVIDIA's parts only support the feature inasmuch as DX10 requires it.
Ik denk trouwens wel dat Anandtech op de hoogte was van het feit dat alleen AMD de eerste benchmark mocht distribueren. Hij noemt het namelijk zelfs nog dat AMD een benchmark verspreide waar nVidia niet blij mee was. En hij was ook een van de vele sites die de benchmark aangeboden kreeg.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Shader MSAA resolve soupeert veel meer performance op dan hardware MSAA resolve.CJ schreef op vrijdag 06 juli 2007 @ 01:29:
Ligt het dan toch aan de drivers?Als ze nou gezegd hadden "dit ligt aan de drivers en we komen straks met verbeterde drivers" dan was nVidia nu niet als een verwend arrogant kind overgekomen dat z'n zin niet heeft gekregen. Dus was alle gezeur over "boehoe het is zo oneerlijk dat er gebruik wordt gemaakt van AA Shader Resolve" van nVidia eigenlijk voor niks geweest...
MSAA Shader Resolve AA = DX10. G80 = DX10. Dus G80 kan Shader Resolve AA.
De performance van de 2900XT met AA heeft dit al duidelijk gedemonstreerd. Zeker in titels die basaal al veel performance vreten (w.o. CoJ DX10) denk ik dat je gewoon alle performance moet pakken die je kunt krijgen, tenzij er duidelijk aantoonbare (dus niet: betheortetiseerbare) redenen zijn om dit niet te doen. nV heeft i.m.o. gewoon gelijk. Niet omdat ATi's hardware het niet kan moet de hunne ook dezelfde handicap meekrijgen.
Anand zegt er het volgende over:
In extreme cases... in theorie... Persoonlijk kom ik liever eens in het blauwe jaar - met 'risico' op nooit - een artifact tegen, terwijl ik wel op wat hogere reso's AA kan gebruiken, dan dat ik op diezelfde reso's helemaal geen AA kan gebruiken, omdat shader AA teveel performance vreet.Using a straight average or even a "gamma corrected" blend of MSAA samples can result in artifacts in extreme cases when paired with HDR.
[...]NVIDIA's MSAA hardware, on the other hand, is bypassed. The ability of DX10 to allow individual MSAA samples to be read back is used to perform the custom AA resolve work. This incurs quite a large performance hit for what NVIDIA says is little to no image quality gain. Unfortunately, we are unable to compare the two methods ourselves, as we don't have the version of the benchmark that actually ran using NVIDIA's MSAA hardware.
De gamer hoort die keuze wat mij betreft gewoon zelf te kunnen maken... en kon dat ook totdat Techland/AMD hw MSAA uit de benchmark besloot te verwijderen. Ook Anand geeft aan dat ze zelf willen vergelijken, maar zij kunnen dat dus niet (gezien ATi de rechten heeft op de bench en ze zodoende de versie waarin nV's hardware MSAA werkt niet kunnen/mogen krijgen ter vergelijk).
Ik denk het niet:Ik denk trouwens wel dat Anandtech op de hoogte was van het feit dat alleen AMD de eerste benchmark mocht distribueren.
Actually... it is AMD's code now, and they can do what they want with itSome publications were able to get an updated build of the game from Techland which included NVIDIA's fixes. When we requested the same from them, they declined to provide us with this updated code. They cited the fact that they would be releasing a finalized benchmark in the near future. Again, this was fine with us and nothing out of the ordinary. We would have liked to get our hands on the NVIDIA update, but it's Techland's code and they can do what they want with it.
Ik betwijfel dat Anand het zo had opgeschreven als ze ervan op de hoogte waren dat AMD de exclusieve rechten heeft.
[ Voor 53% gewijzigd door Cheetah op 06-07-2007 08:48 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
zoveel games zijn dat niet....killzone2 gebruikt het wel...maar dat duurt nog even voor die uitkomt..CJ schreef op vrijdag 06 juli 2007 @ 01:29:
[...]
. Maar de laatste beta-drivers laten duidelijk verbetering zien voor nV.Ben benieuwd hoe dit straks gaat uit pakken in al die games die uit komen die o.a. gebruik maken van deferred shading.
welke games nog meer ?
De demo, 1440x900, alles max, geen fraps erbij aan gehad, maar oogde wel soepeltjesJoepi schreef op vrijdag 06 juli 2007 @ 00:33:
Voer voor de nieuwe kaartjes:
http://ghostrecon.us.ubi.com/graw2/
FF posten hoe de 2900 zo presteert, aub!
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Tja ik had ook liever een R600 gezien met Hardware AA resolve zodat ik op hogere reso's zou kunnen spelen. Het is gewoon duidelijk dat AMD voor DX 10 is gegaan.Cheetah schreef op vrijdag 06 juli 2007 @ 07:56:
[...]
Shader MSAA resolve soupeert veel meer performance op dan hardware MSAA resolve.
De performance van de 2900XT met AA heeft dit al duidelijk gedemonstreerd. Zeker in titels die basaal al veel performance vreten (w.o. CoJ DX10) denk ik dat je gewoon alle performance moet pakken die je kunt krijgen, tenzij er duidelijk aantoonbare (dus niet: betheortetiseerbare) redenen zijn om dit niet te doen. nV heeft i.m.o. gewoon gelijk. Niet omdat ATi's hardware het niet kan moet de hunne ook dezelfde handicap meekrijgen.
Anand zegt er het volgende over:
[...]
In extreme cases... in theorie... Persoonlijk kom ik liever eens in het blauwe jaar - met 'risico' op nooit - een artifact tegen, terwijl ik wel op wat hogere reso's AA kan gebruiken, dan dat ik op diezelfde reso's helemaal geen AA kan gebruiken, omdat shader AA teveel performance vreet.
De gamer hoort die keuze wat mij betreft gewoon zelf te kunnen maken... en kon dat ook totdat Techland/AMD hw MSAA uit de benchmark besloot te verwijderen. Ook Anand geeft aan dat ze zelf willen vergelijken, maar zij kunnen dat dus niet (gezien ATi de rechten heeft op de bench en ze zodoende de versie waarin nV's hardware MSAA werkt niet kunnen/mogen krijgen ter vergelijk).
[...]
Ik denk het niet:
[...]
Actually... it is AMD's code now, and they can do what they want with it
Ik betwijfel dat Anand het zo had opgeschreven als ze ervan op de hoogte waren dat AMD de exclusieve rechten heeft.
Mijn voorlopige conclussie komt wel overeen met die van anandtech. Aan DX10 heb je voorlopig niets. Zelfs de 8800 Ultra is te traag om op hoge resoluties met AA en AF aan voor mij een speelbare FPS neer te zetten. 30 Gemiddelt is gewoon veel te weinig. Een min FPS van 25 is wat ik wil en zelfs dat is laag. Dus voorlopig blijf ik bij XP en DX9. DX10 is wel mooier meer de performance hit is zo groot dat het niet de moeite waard is + je moet onder vista gaan werken en dat vind ik persoonlijk ook nog eens een ramp.
AMD heeft IMO een fout gemaakt door nu al zo erg op DX 10 gefocust te zijn. Want anandtech ook al zegt. De Mid range kaarten van dit jaar zijn zwak in DX9 en DX10 is nog zwaarder en en de performance daar is niet acceptabel. Als in het is onspeelbaar dus totaal nutteloos.
nVidia is echt slim geweest door toch nog hardware AA te ondersteun in de toekomst heb je het niet nodig maar op dit moment is het vooral voor DX9 games nuttig. Ik snap dat HDR + Hardware AA problemen kan geven. En er is gewoon vraag naar shaderbased AA dus dat is ook de toekomst. Alleen de hardware is nu gewoon nog niet snel genoeg. Wel jammer dat de HD2900 XT ook niet geweldig is in DX9 door dat hij geen Hardware AA heeft. Ik denk dat ik het komende half jaar / Jaar nog geen DX10 games speel omdat de performance te slecht is en ik vista moet draaien. Ik draai dan liever XP op max details en hoge resolutie en een hele goede FPS. Dan dat het iets mooier is en totaal brak loopt.
Ik ben benieuwdedward2 schreef op donderdag 05 juli 2007 @ 18:29:
X2900Xt 1 GB GDDR4 is binnenvanavond eens even testen.
Later komt er nog eentje naast als mijn voeding er is.
Die hotfix (cat 7.7) is nog niet voor Vista 64 uitgekomen geloof ik?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Jouw 9800 Pro was even snel dan je X1950 PRO?Ted56 schreef op vrijdag 06 juli 2007 @ 09:23:
Ik weet dus wel heel zeker dat ik binnenkort een nieuwe pc ga bestellen.. Kan nog geen eens Overlord op high spelen met een X1950PRO ...... begin me echt te ergeren aan die kaart, had er VEEEL meer van verwacht, m'n oude die nu stuk is 9800PRO was bijna even snel....
Dan doe je echt iets helemaal fout. Ik heb hier een X800 Pro in de PC van me vader en die is al 2x zo snel als een 9800 Pro. de X1950 Pro is weer 2x zo snel als niet 3x zo snel als de X800 Pro.Ted56 schreef op vrijdag 06 juli 2007 @ 09:23:
Ik weet dus wel heel zeker dat ik binnenkort een nieuwe pc ga bestellen.. Kan nog geen eens Overlord op high spelen met een X1950PRO ...... begin me echt te ergeren aan die kaart, had er VEEEL meer van verwacht, m'n oude die nu stuk is 9800PRO was bijna even snel....
Dus met een 9800 Pro zou je misschien 10 FPS hebben en met de X1950 Pro 55-65 FPS. Dus je doet iets helemaal verkeerd. Misschien is je PC gewoon te sloom. Te trage cpu of te weinig geheugen. Of een combinatie van dat alles. Want de X1950 Pro is een goede snelle kaart. Ik weet niet op welke settings je speeld maar je gaat mij niet vertellen dat een 9800 Pro bijna even snel is als een X1950 Pro. Het verschil in prestatie zou echt minimaal 4-5x moeten zijn.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Our friends from Japan informed us that Sapphire has started shipping its HD 2900 XT cards in this big island.
The card is known as Sapphire HD 2900 XT 1GB GDDR4 PCI-E DUAL DVI/VIVO. The confusing part is the frequency as some stores claims that the card works at 825MHz core and 2100 MHz memory, other version works at default 740MHz core and 2,200MH GDDR4 memory and the last shop claims 740MHz core and 2,050MHz GDDR4 memory.
It will cost 78,800.000 JP Yens or about 470.755 EUR which is not that bad for a card in Japan and 1 GB of DDR4 memory.
Last time we checked the GDDR4 memory on these cards were suppose to work at 2200 MHz. in case you are in Japan and your Japanese is still good you can read more about it here.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
de 2600 XT presteerd toch wel beter, en is ook nog goedkoper ook
http://www.mexhardware.co...8600-gt-y-mas-t660.0.html
Hebben we wel gezien maar een beetje brakke vergelijking. Ik zou dan eerder even naar de reviews van Anandtech of andere sites gaan kijken.jens17 schreef op vrijdag 06 juli 2007 @ 11:03:
ik weet niet of het al bekend was, maar vond toevallig een vergelijking tussen de 2600 XT en de 8600 GT
de 2600 XT presteerd toch wel beter, en is ook nog goedkoper ook![]()
http://www.mexhardware.co...8600-gt-y-mas-t660.0.html
Daar kwam uit dat je met DX9 beter een 8600 GTS kan hebben en met DX 10 beter een HD2600 XT. Zelf vind ik dat je beter voor een X1950 Pro kan gaan want de huidige DX10 kaarten zijn allemaal te traag voor DX10. En de mid range kaartjes al helemaal. Dus je gaat toch DX 9 gebruiken en dan is de X1950 Pro veel sneller dan de 8600 GTS. De 7900 GTO is ook een betere optie van de 8600 GTS.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ja dat klopt helemaal, tis alleen jammer dat mn 9800PRO stuk is gegaan anders had ik geen X1950PRO gekocht,Astennu schreef op vrijdag 06 juli 2007 @ 10:24:
[...]
Dan doe je echt iets helemaal fout. Ik heb hier een X800 Pro in de PC van me vader en die is al 2x zo snel als een 9800 Pro. de X1950 Pro is weer 2x zo snel als niet 3x zo snel als de X800 Pro.
Dus met een 9800 Pro zou je misschien 10 FPS hebben en met de X1950 Pro 55-65 FPS. Dus je doet iets helemaal verkeerd. Misschien is je PC gewoon te sloom. Te trage cpu of te weinig geheugen. Of een combinatie van dat alles. Want de X1950 Pro is een goede snelle kaart. Ik weet niet op welke settings je speeld maar je gaat mij niet vertellen dat een 9800 Pro bijna even snel is als een X1950 Pro. Het verschil in prestatie zou echt minimaal 4-5x moeten zijn.
P4 @ 3.3Ghz en 1GB RAM is dus gewoooon veelste weinig daarom ga ik de kaart denk binnenkort verkopen want nu loopt ie gewoon te slapen volgens mij..
Ik wil wel ruilen + bij betalen tegen de X800 Pro (met artic silencer 5) van me vader. Die heeft namelijk een X2 3800+ op 2500 MHz dus snel zat. En een X1950 Pro is daar een leuke upgrade.Ted56 schreef op vrijdag 06 juli 2007 @ 11:23:
[...]
Ja dat klopt helemaal, tis alleen jammer dat mn 9800PRO stuk is gegaan anders had ik geen X1950PRO gekocht,
P4 @ 3.3Ghz en 1GB RAM is dus gewoooon veelste weinig daarom ga ik de kaart denk binnenkort verkopen want nu loopt ie gewoon te slapen volgens mij..
Mocht je interesse hebben mail me dan ff op astennu91(AT)hotmail(punt)com.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
het is dramatisch wat voor framerates de high end kaarten neerzetten in DX10. Òp 1280x1024 halen de HD2900 en 8800GTX/ Ultra soms maar 30 FPS. En dat zonder AA.
Op deze generatie kaarten zijn de DX10 games niet fatsoenlijk speelbaar. Eigenlijk hebben we dan ook niks aan DX10 kaarten op dit moment. Het is leuk dat ze het aankunnen, maar het draait voor geen meter.
Doet me denken aan de 6800 serie; wel SM3, maar te traag om het daadwerkelijk te benutten/ daaien.
Ik moet nog zien hoe Crysis draait op deze kaarten...
[ Voor 11% gewijzigd door Format-C op 06-07-2007 11:34 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Mja zo gaat het eigenlijk altijd. De 9700 Pro kon ook DX9 ging redelijk goed maar echt super zijn was hij niet. De X800 kaarten waren daar aanzienlijk beter in. Maar nu is het wel heel erg. Ik denk dat dat ook mede komt door Vista. En het nieuwe driver model. Alles moet nu anders. En misschien is de hardware in verhouding ook minder krachtig geworden.RappieRappie schreef op vrijdag 06 juli 2007 @ 11:29:
Mijn algemene indruk van de benchmarks van Anandtech;
het is dramatisch wat voor framerates de high end kaarten neerzetten in DX10. Òp 1280x1024 halen de HD2900 en 8800GTX/ Ultra soms maar 30 FPS. En dat zonder AA.
Op deze generatie kaarten zijn de DX10 games niet fatsoenlijk speelbaar. Eigenlijk hebben we dan ook niks aan DX10 kaarten op dit moment. Het is leuk dat ze het aankunnen, maar het draait voor geen meter.
Doet me denken aan de 6800 serie; wel SM3, maar te traag om het daadwerkelijk te benutten/ daaien.Ik denk dat we pas fatsoenlijk kunnen gamen op DX10 als wel weer een jaar verder zijn.
Maar goed DX10 is nu nutteloos. Bij mijn volgende VGA kaart ga ik toch veel meer naar DX9 kijken want ik denk niet dat die updates zoals G92 en R650 twee keer zo snel zijn. Ik gok dat we voor echt goed speelbare framerates bij DX10 games toch naar de R700 en G100 moeten kijken. En dan heb ik het over goede FPS met hogere resoluties dus 1600-1200 en dan met AA en AF. Anders kun je gewoon beter DX 9.0 pakken met AA en AF en dan iets minder andere effecten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Tja met zulk gedrag kan je wel wat backfire verwachten.CJ schreef op vrijdag 06 juli 2007 @ 01:29:
[...]
Ligt het dan toch aan de drivers?Als ze nou gezegd hadden "dit ligt aan de drivers en we komen straks met verbeterde drivers" dan was nVidia nu niet als een verwend arrogant kind overgekomen dat z'n zin niet heeft gekregen. Dus was alle gezeur over "boehoe het is zo oneerlijk dat er gebruik wordt gemaakt van AA Shader Resolve" van nVidia eigenlijk voor niks geweest...
Lees jezelf in beetje in het materiaal dat op het web aanwezig is. Volgens mij is in de vorige discussie aardig wat aangedragen. Shader resolve zit niet voor niets in DX10...Cheetah schreef op vrijdag 06 juli 2007 @ 07:56:
Shader MSAA resolve soupeert veel meer performance op dan hardware MSAA resolve.
De performance van de 2900XT met AA heeft dit al duidelijk gedemonstreerd. Zeker in titels die basaal al veel performance vreten (w.o. CoJ DX10) denk ik dat je gewoon alle performance moet pakken die je kunt krijgen, tenzij er duidelijk aantoonbare (dus niet: betheortetiseerbare) redenen zijn om dit niet te doen. nV heeft i.m.o. gewoon gelijk. Niet omdat ATi's hardware het niet kan moet de hunne ook dezelfde handicap meekrijgen.
Verwijderd
DX9:

DX10:
[ Voor 53% gewijzigd door Verwijderd op 06-07-2007 12:26 ]
Huidige games:Mr. Detonator schreef op vrijdag 06 juli 2007 @ 08:35:
[...]
zoveel games zijn dat niet....killzone2 gebruikt het wel...maar dat duurt nog even voor die uitkomt..
welke games nog meer ?
- Tom Clancy's Rainbow Six: Vegas — (2006) Ubisoft
- S.T.A.L.K.E.R.
Toekomstige games o.a.:
- Aliens — (2009) Gearbox Software
- America's Army 3.0 — (2008) US Army
- Black Powder Red Earth - (2007) Echelon Studios
- Brothers In Arms: Hell's Highway — (2007) Gearbox Software
- BioShock - (2007) Irrational Games
- DC Comics MMO — (TBA) Sony Online Entertainment
- Earth No More — (2009) Recoil Games / 3D Realms
- Elveon — (2007) 10tacle Studios[34]
- Frontlines: Fuel of War — (2008) Kaos Studios
- Gears of War PC — (TBA) Epic Games
- Halo Wars — (TBA) Ensemble Studios
- Huxley — (2007) Webzen Games
- The Last Remnant — (2008) Square Enix
- Lineage III — (TBA) NCsoft
- Mass Effect — (2007) BioWare
- Medal of Honor: Airborne — (2007) Electronic Arts
- Rogue Warrior: Black Razor - (2007) Bethesda Softworks
- Stargate Worlds — (2007) Cheyenne Mountain Entertainment
- Unreal Tournament 3 — (2007) Epic Games
M.a.w. bijna alle games die gebruik maken van de Unreal Engine 3. Daar zitten toch een aantal grote namen tussen. Er zijn een aantal games die niet gebruik maken van de deferred rendering methode van de UE3, maar die zijn er niet veel aangezien deferred shading de beste IQ bezorgd.
Over Killzone2 trouwens de volgende quote van de devs over Deferred Shading + MSAA:
Daarnaast kan je de presentatie van Microsoft "The Future Of DirectX" bekijken. Daarin zeggen ze min of meer dat ze de developer meer controle willen geven over AA en dat ze dat gaan doen vanaf DX10.1. Het punt is dat MSAA eigenlijk maar op 1 manier van renderen goed werkt en dat is min of meer de manier die tot op heden gebruikt is, de straightforward manier van renderen. Er zijn echter vele andere manieren van renderen die tot op heden niet gebruikt zijn, omdat bv de hardware niet snel genoeg was of de API het niet toestond, waar MSAA niet goed functioneert, maar die wel een beter beeld geven. Deferred rendering is er een van.Question: So if I use only a GeForce 8800, I can program the resolve function, that's it ? Then I can have an antialiased resolve function for the color buffer and no anti-aliasing for the position and normals ... Is it correct ?
Can I do it just now ? what function to call (on XP/OpenGL) ? Or you mean that I have to render to a 4X buffer (for 4X AA) then code AA myself ?
Answer: Custom resolves are supported on G80 and R600 (they are required for D3D10). In D3D10 you can load the different elements in an MSAAed buffer using the "Load" shader function with an extra integer parameter for which color index. Note that *all* of your attribute buffers should technically be multisampled (this is also supported on G80/R600).
Maar goed, voor een hele discussie hierover kan je hier terecht. Heel interessant en leerzaam, maar wel veel nerd-talk.
Op basis van 3 games een conclusie trekken over de uiteindelijke DX10 performance is natuurlijk wel voorbarig. Zeker als je bv weet dat Capcom gezegd had dat DX10 alleen maar voor snelheidswinst zou zorgen. Yeah right, dat zien we in de grafieken...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ik durf wel om een krat bier of fles drank te wedden dat de huidige generatie kaarten de nieuwste DX10 titels niet (goed) trekken.CJ schreef op vrijdag 06 juli 2007 @ 12:47:
Op basis van 3 games een conclusie trekken over de uiteindelijke DX10 performance is natuurlijk wel voorbarig.
Snelheidswinst my ass...
Het is gewoon klote; games zijn ALTIJD te zwaar vor huidige hardware. De nieuwste (toffe) games zijn meestal zo zwaar dat een kaartengeneratie later er pas echt van genoten kan worden. Of je moet al een SLi of CF setup hebben/ kopen.
[ Voor 26% gewijzigd door Format-C op 06-07-2007 13:35 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dramatische performance? Nee. in de lijn der verwachting? ja. nog geen goede drivers, of programmeurs die dx10 goed onder de knie hebben. resultaat? precies wat je hier ziet.
Laten we eens over een maandje of 5 / 6 kijken.
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
De drivers van Nvidia & Ati zijn op DX10 niveau natuurlijk ook nog niet 100%
Ik denk dat we met spellen zoals Crysis en Unreal3 pas echt de DX10 power gaan zien.
http://www.image-shared.com Fast and most reliable Image Hosting
Zelfs als dat plaatje er zou zijn, dan nog zegt dit niets over:CJ schreef op vrijdag 06 juli 2007 @ 12:47:
Anandtech laat een plaatje zien van "HDR Correct Anti-Aliasing". Als ik het goed heb is er ook nog een ander plaatje dat HDR Incorrect Anti-Aliasing laat zien waar gebruik wordt gemaakt van Hardware Resolve AA. Jammer dat ze die er niet bij hebben gesloten ter vergelijking. Had weer wat discussie gescheeld omdat er dan 'eindelijk' wat "hard evidence" was.
1. hoe vaak het voorkomt
2. of er ook gevallen zijn waarin hardware AA een beter resultaat geeft, en
3. - daaruit afgeleid - in hoeverre de performancegain bij hw AA te prefereren is boven 'HDR corr. AA'
Niemand betwist wat de toekomst wordt... alleen leven we voorlopig niet in die toekomst, en bovendien zullen we het nog een tijd moeten stellen met wat in het verleden en heden gemaakt is.Daarnaast kan je de presentatie van Microsoft "The Future Of DirectX" bekijken. Daarin zeggen ze min of meer dat ze de developer meer controle willen geven over AA en dat ze dat gaan doen vanaf DX10.1. Het punt is dat MSAA eigenlijk maar op 1 manier van renderen goed werkt en dat is min of meer de manier die tot op heden gebruikt is, de straightforward manier van renderen. Er zijn echter vele andere manieren van renderen die tot op heden niet gebruikt zijn, omdat bv de hardware niet snel genoeg was of de API het niet toestond, waar MSAA niet goed functioneert, maar die wel een beter beeld geven. Deferred rendering is er een van.
Verder lijkt het dat shaderbased resolve van DX10.0 kaarten geen lang leven beschoren zal zijn vanwege de extensies in DX10.1, die ongetwijfeld ook de performance zullen aanpakken.
Als je kijkt naar de native DX9 voorganger van Crysis - FarCry - dan bied dit niet superveel hoop. Het heeft enige tijd geduurd voordat DX9 hardware FarCry vol kon draaien op wat hogere resoluties met speelbare framerates. Met HDR+AA kan FarCry het zelfs huidige DX9 kaarten - 3 jaar na release van de game - moeilijk maken.Visgek24 schreef op vrijdag 06 juli 2007 @ 13:41:
Ik denk dat het verstandig is als we gewoon even wachten tot er echte native dx10 games zijn.
Het ligt zodoende gewoon in de lijn der verwachting dat het dus enige tijd zal duren voordat grafisch sterke native DX10 games voluit gespeeld kunnen worden op hogere reso's. Ik verwacht eerlijkgezegd niet dat de huidige hardware dat aan zal kunnen.
[ Voor 18% gewijzigd door Cheetah op 06-07-2007 15:00 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Verwijderd
Ik kon met mijn R9800 Pro zonder problemen Far Cry en Half Life 2 draaien met maximale settings (@1280x1024, 4AA, 4AF). Die kaart bood geen support voor alle effecten (DX 9.x), maar dat vond ik slechts een marginale meerwaarde.Cheetah schreef op vrijdag 06 juli 2007 @ 14:34:
Als je kijkt naar de native DX9 voorganger van Crysis - FarCry - dan bied dit niet superveel hoop. Het heeft enige tijd geduurd voordat DX9 hardware FarCry vol kon draaien op wat hogere resoluties met speelbare framerates.
Waarom wordt alles toch constant afgeschoven op de softwaresupport? Het verbaasd mij steeds weer dat iedereen er vanuit gaat dat de kaart goed is en de software afkraakt.Ik denk dat Assasins Creed, UnrealTournament 3 en Crysis wel normalere DX10 Support krijgen, zoals het hoort! Want deze gepatchte DX9 schieten natuurlijk niet op
.
Is er nou bijna niemand die ziet dat een 1e generatie kaarten nooit optimaal performed? Ik bedoel wat verwacht je nou, D3D10 was nog niet compleet uit of er lag al een nVidia in de schappen en Ati probeerde het toen al af te hebben.
De kaarten kunnen nooit volledig geoptimaliseerd zijn voor D3D10, ze ondersteunen het en daar is naar mijn idee vrijwel alles mee gezegd, de feitelijke DX10 performance zal moeten komen van de 2e of misschien zelfs pas de 3e generatie hardware.
Tuurlijk ze zijn er wel mee bezig geweest, maar bij de 1e generatie D3D9 kaarten ging het ook allemaal niet soepel en liepen games ook niet met 100 fps met alles op High/Ultra+++. Naar mijn mening kan je dat ook niet verwachten bij een nieuw iets. Er zitten altijd fouten in een nieuw product, hoe vaak er ook getest en gekeken wordt.
Mijn excuses trouwens voor de toon van het bericht, lees het zelf na voor ik post maar weinig zin om de post vriendelijker te schrijven, stukje schuif het op iets af en kijk niet naar het andere deel wat het ook kan zijn frustratie
Ook niet teveel aangesproken voelen want het is niet op 1 persoon gericht maar een beetje van wat ik tot nu toe heb gelezen over de performance in het algemeen.
Ik weet niet of je uberhaupt gelezen hebt wat er bv in dat topic op B3D geschreven wordt of op andere fora bv van Epic, maar er zijn geen gevallen waarin hardware matige AA resolve een beter resultaat geeft... Alles wat hardware matige AA resolve kan, kan shader based AA resolve ook en nog veel meer.... wat eigenlijk de hele crux is van deze discussie. Als je het hebt over "sneller" resultaat als in betere performance, dan kan het kloppen. Maar er komen nu veel meer situaties waar de hardware AA resolve niet voldoende is, wat ook op B3D door verschillende devs wordt aangegeven.Cheetah schreef op vrijdag 06 juli 2007 @ 14:34:
[...]
2. of er ook gevallen zijn waarin hardware AA een beter resultaat geeft, en
Hardwarematige AA resolve is eigenlijk een soort "hack" die alleen op de straightforward manier van renderen werkt. Op vele andere manieren van renderen, zoals bv dus deferred rendering, werkt het niet goed. Maar tot op heden werkte het goed genoeg. Tijden veranderen echter. Eisen worden hoger en dan voldoet hardwarematige AA resolve niet meer.
Ik kan me voorstellen dat in games die nog de "ouderwetse manier" van renderen gebruiken, je wel degelijk support voor hardware AA resolve inbouwt, gewoonweg omdat dit sneller is/kan zijn en je geen problemen krijgt met artefacts of het ontbreken van AA op bepaalde plekken. Komt er een DX9 game uit die het niet ondersteunt, ja... dan zou ik me ook afvragen wat de reden is geweest om het niet in te bakken. Maar ja, uiteindelijk is het toch de beslissing van de developer. En of er dan geld aan te pas is gekomen om ze over te halen of niet... daar doe je niet veel aan. Zo gaat het al jaren toch?3. - daaruit afgeleid - in hoeverre de performancegain bij hw AA te prefereren is boven 'HDR corr. AA'
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nu maak jij je excuus wel, maar je hebt wel een goed punt te pakken.Suicyder schreef op vrijdag 06 juli 2007 @ 16:16:
[...]
Waarom wordt alles toch constant afgeschoven op de softwaresupport? Het verbaasd mij steeds weer dat iedereen er vanuit gaat dat de kaart goed is en de software afkraakt.
Is er nou bijna niemand die ziet dat een 1e generatie kaarten nooit optimaal performed? Ik bedoel wat verwacht je nou, D3D10 was nog niet compleet uit of er lag al een nVidia in de schappen en Ati probeerde het toen al af te hebben.
De kaarten kunnen nooit volledig geoptimaliseerd zijn voor D3D10, ze ondersteunen het en daar is naar mijn idee vrijwel alles mee gezegd, de feitelijke DX10 performance zal moeten komen van de 2e of misschien zelfs pas de 3e generatie hardware.
Tuurlijk ze zijn er wel mee bezig geweest, maar bij de 1e generatie D3D9 kaarten ging het ook allemaal niet soepel en liepen games ook niet met 100 fps met alles op High/Ultra+++. Naar mijn mening kan je dat ook niet verwachten bij een nieuw iets. Er zitten altijd fouten in een nieuw product, hoe vaak er ook getest en gekeken wordt.
Mijn excuses trouwens voor de toon van het bericht, lees het zelf na voor ik post maar weinig zin om de post vriendelijker te schrijven, stukje schuif het op iets af en kijk niet naar het andere deel wat het ook kan zijn frustratie
Ook niet teveel aangesproken voelen want het is niet op 1 persoon gericht maar een beetje van wat ik tot nu toe heb gelezen over de performance in het algemeen.
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Nja... de excuses waren voornamelijk voor de geirriteerde toon van het bericht en naar de poster van die quote, dat ik niet een aanval opende._Dune_ schreef op vrijdag 06 juli 2007 @ 16:23:
[...]
Nu maak jij je excuus wel, maar je hebt wel een goed punt te pakken.de eerste generatie van iets nieuws performed nooit zo goed als de laatste generatie van het oude principe. De oude architectuur is volledig uitgemolken, geoptimaliseerd en benut, dat is bij de eerste generatie van een nieuwe architektuur niet echt mogelijk.
En dat nieuwe kaarten niet optimaal zijn bij nieuwe technieken lijkt mij meer een logisch iets dan verbazingswekkend.
Vroeger was hardware aa perfect omdat je colorspace altijd lineair was, gewoon een gemiddelde nemen van alle samples. Dit is echter niet meer correct als je hdr gebruikt, dat impliceert dat je colorspace niet lineair is en een aangepast aa algorithme is nodig voor elke implementatie.CJ schreef op vrijdag 06 juli 2007 @ 16:20:
[...]
Hardwarematige AA resolve is eigenlijk een soort "hack" die alleen op de straightforward manier van renderen werkt. Op vele andere manieren van renderen, zoals bv dus deferred rendering, werkt het niet goed. Maar tot op heden werkte het goed genoeg. Tijden veranderen echter. Eisen worden hoger en dan voldoet hardwarematige AA resolve niet meer.
De GTX is meestal 1,5 maal sneller en heeft een mooier IQ. De X2900XT laat met CAT AI op Standard en Advanced duidelijk meer aliasing/shimmering zien dan de GTX. Dit is pas weg te krijgen door AI uit te zetten, wat met een behoorlijk perf. decrease gepaard gaat. Dit heeft me toch wel verbaasd...
Stalker presteert niet best met de X2900XT, zowel in IQ als perf, het laatste is deels op te lossen door app AF te gebruiken, maar zelfs dan is het gat met de GTX groot.
Verder vind ik de drivers in mijn gamescollectie niet beter dan die van NV in Vista 64, simpele zaken zoals v-sync en AA werken niet in sommige games.
Let wel dit is zoals de zaken er nu voor staan.
[ Voor 7% gewijzigd door edward2 op 06-07-2007 18:03 ]
Niet op voorraad.
Verwijderd
Zoals de reveiwe zei DX10 is tot nu toe veels te compact als te zwaar voor hedense hardware en dat echte DX10 games pas over een aantal jaren verschijnen heh, zo lang toch niet?
Dat is wel erg lang, ben dus benieuwd hoe AMD met de R700 hier tegen over zal staan als NV met hun G90.
Wat wel bekend is dat de R600 maar 64 stream processors heeft en niet 320 als veel dat inzien en die R600 is net als de vorige minder successvolle R200 door het eastcoast team ontwikkeld de meest successvolle VPU's waren van R300 t/m R580+ die waren door het west coast team ontwikkeld te smaen met ArtX. ik ken toevalling een ex-ATi medewerker die de RMA's van ATi repareerde dat van als de R600 door het west coast team was ontwikkeld dat het een veel betere ontwerp had gekregen maar ja of dat dit nou ook zo zoude zijn weet ik niet.
Ik hoop iig dat R700 door Westcoast wordt gedaan dat zo wie zo, wegens de betere productie lijnen vanaf R300 t'm R580+
Verwijderd
Proficiat! Uw zinnen zijn genomineerd tot langste op GoT!Verwijderd schreef op vrijdag 06 juli 2007 @ 17:57:
Wat wel bekend is dat de R600 maar 64 stream processors heeft en niet 320 als veel dat inzien en die R600 is net als de vorige minder successvolle R200 door het eastcoast team ontwikkeld de meest successvolle VPU's waren van R300 t/m R580+ die waren door het west coast team ontwikkeld te smaen met ArtX. ik ken toevalling een ex-ATi medewerker die de RMA's van ATi repareerde dat van als de R600 door het west coast team was ontwikkeld dat het een veel betere ontwerp had gekregen maar ja of dat dit nou ook zo zoude zijn weet ik niet.
Verwijderd
hehe ja bedankt alvast maare was ook maar informeel bedoeld wat ik gehoord heb dan, wel erg jammer dat DX10 zo zwaar bevalt.Verwijderd schreef op vrijdag 06 juli 2007 @ 18:21:
[...]
Proficiat! Uw zinnen zijn genomineerd tot langste op GoT!
Baal je nu niet dat je je GTX hebt verkocht..? Of had je die toch nog liggen?edward2 schreef op vrijdag 06 juli 2007 @ 17:36:
Heb de X2900Xt nou een tijdje geprobeerd, maar kan voorlopig niet anders zeggen dat het idd (bij lange na) (nog?) geen match is voor de 8800GTX, zowel in IQ als in perf., al is dat laatste geen nieuws meer.
De GTX is meestal 1,5 maal sneller en heeft een mooier IQ.
@Obi-Wan:
Het is wellicht moeilijk, maar probeer in ieder geval a.j.b. A.B.N. te schrijven?
Ik heb zeer veel moeite met zelfs enig touw vastknopen aan je vorige post, en begrijpend lezen is nou niet een van mijn zwakkere kanten
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Ik heb gewoon de feiten verteld hoe de R600 in elkaar zit en waar die ontworpen is en hopelijk wordt de R700 ontworpen door het west coast team meer niet hoor en dat DX10 te zwaar is voor de kaarten van nu.Cheetah schreef op vrijdag 06 juli 2007 @ 19:04:
[...]
Baal je nu niet dat je je GTX hebt verkocht..? Of had je die toch nog liggen?
@Obi-Wan:
Het is wellicht moeilijk, maar probeer in ieder geval a.j.b. A.B.N. te schrijven?
Ik heb zeer veel moeite met zelfs enig touw vastknopen aan je vorige post, en begrijpend lezen is nou niet een van mijn zwakkere kanten
Dat jij dat niet kon dat kan ik niets aan doen, gewoon lezen wat er staat het is duidelijk genoeg iig.
[ Voor 15% gewijzigd door Verwijderd op 06-07-2007 19:25 ]
Momenteel nog wel, had eigenlijk wat minder Vista issues (v-sync, AA, slechte caching in enkele games wat haperingen veroorzaakt) verwacht en een beter IQ (met name de shimmering), dat kwam niet uit de reviews naar voren en moet jezelf ervaren.Cheetah schreef op vrijdag 06 juli 2007 @ 19:04:
[...]
Baal je nu niet dat je je GTX hebt verkocht..? Of had je die toch nog liggen?
@Obi-Wan:
Het is wellicht moeilijk, maar probeer in ieder geval a.j.b. A.B.N. te schrijven?
Ik heb zeer veel moeite met zelfs enig touw vastknopen aan je vorige post, en begrijpend lezen is nou niet een van mijn zwakkere kanten
Ik had ook m'n GTX nog kunnen houden, maar kan via m'n werk wel weer relatief goedkoop aan iets anders komen mocht ik besluiten toch maar weer naar NV terug te gaan.
Niet op voorraad.
Dit is echt offtopic, maar klopt je eigen zin wel? Volgens mij klopt er echt niks vanCheetah schreef op vrijdag 06 juli 2007 @ 19:04:
[...]
@Obi-Wan:
Het is wellicht moeilijk, maar probeer in ieder geval a.j.b. A.B.N. te schrijven?
Ik heb zeer veel moeite met zelfs enig touw vastknopen aan je vorige post, en begrijpend lezen is nou niet een van mijn zwakkere kanten
1. Persoon A typt een verhaal dat grammaticaal of qua zinsopbouw een beetje rammelt.
2. Persoon B wijst hem daarop en zegt dat hij netter/duidelijk moet schrijven.
3. Persoon C vervolgens (de held), wijst persoon B op een pietlullig taalfoutje dat hij maakt in zijn betoog tegen het slordige schrijven van persoon A.
Let er maar eens op, het is best dom
Goud is geen geld
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anticiperen noemt men dat toch?frankknopers schreef op vrijdag 06 juli 2007 @ 20:53:
We kunnen maar beter gelijk stoppen met het elkaar wijzen op taalslordigheden. Het gaat altijd hetzelfde:
1. Persoon A typt een verhaal dat grammaticaal of qua zinsopbouw een beetje rammelt.
2. Persoon B wijst hem daarop en zegt dat hij netter/duidelijk moet schrijven.
3. Persoon C vervolgens (de held), wijst persoon B op een pietlullig taalfoutje dat hij maakt in zijn betoog tegen het slordige schrijven van persoon A.
Let er maar eens op, het is best dom
Enne het is meer iets tussen Cheetah en Obi, verder zeg ik er niets over.
Ik lees gewoon de post`s van Obi niet meer zo simpel is dat, maar wel jammer!
Back on tapoic, sorry voor dit gelul moest ik echt ff kwijt!
Canon 40D, Canon EF 70-200mm F/4 L IS USM, 24-105mm F/4.0 L IS USM, SpeedLite 580EX, B+W UV 67 & 77 MRC, Velbon 640 pro + PHD61Q, Lowpro Slingshot 300AW
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Yes, but no.
Precies, zoals altijd zal een nieuwe dx weer 1 of 2 generaties videokaarten verder pas echt goed presteren. Ik heb nog niets gezien wat de perf - IQ verhouding rechtvaardigt met de huidige gen. Dat geldt dus ook voor NVidia.Cheetah schreef op vrijdag 06 juli 2007 @ 14:34:
[...]
Niemand betwist wat de toekomst wordt... alleen leven we voorlopig niet in die toekomst, en bovendien zullen we het nog een tijd moeten stellen met wat in het verleden en heden gemaakt is.
Verder lijkt het dat shaderbased resolve van DX10.0 kaarten geen lang leven beschoren zal zijn vanwege de extensies in DX10.1, die ongetwijfeld ook de performance zullen aanpakken.
[...]
Als je kijkt naar de native DX9 voorganger van Crysis - FarCry - dan bied dit niet superveel hoop. Het heeft enige tijd geduurd voordat DX9 hardware FarCry vol kon draaien op wat hogere resoluties met speelbare framerates. Met HDR+AA kan FarCry het zelfs huidige DX9 kaarten - 3 jaar na release van de game - moeilijk maken.
Het ligt zodoende gewoon in de lijn der verwachting dat het dus enige tijd zal duren voordat grafisch sterke native DX10 games voluit gespeeld kunnen worden op hogere reso's. Ik verwacht eerlijkgezegd niet dat de huidige hardware dat aan zal kunnen.
Ik ben wel van mening dat de R300 architectuur een hele goeie is geweest destijds met de introductie van de R9700Pro, één van de langst meegaande kaartjes.
De R600 heeft mi momenteel teveel tradeoffs, met name op het gebied van texturering. Ik heb weer dips gezien in bijna legacygames die ik daar aan wijd. Of het moet aan de drivers liggen. Ben natuurlijk helemaal geen engineer.
Crysis en UT3 zal ik zeer waarschijnlijk toch wel met een G92 of R650/700 spelen, dus voor mij maakt het niet uit. Ik mis zowieso de tijd om alles nog weg te spelen door een nieuwe vriendin, dus heb nog veel current gen. af te werken.
[ Voor 14% gewijzigd door edward2 op 07-07-2007 00:50 ]
Niet op voorraad.
Soms heb ik heel vaak dat hij even uitspringt en daarna weer aan, maar soms heb ik het weken niet
Ik gebruik ook Windows XP.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
ATi HD2600XT 256MB GDDR4 €131,29
ATi HD2600XT 512MB GDDR4 €179,-
en
ATi Radeon X1950XT 256MB GDDR3 €179,67
Ten eerste vraag ik mij af of de meerprijs voor de 512MB versie van de HD2600XT wel gerechtvaardigd is. Ondanks de 128bit bus kun je die 512MB wel goed benutten of kun je met een dergelijke kaart wel af met 256MB?
Ten tweede is DX10 voorlopig nog niet echt interessant, daarom zou een X1950XT volgens mij ook een zeer interessante optie kunnen zijn. Je mist alleen dan wel weer de hardware matige versnelling van HD content.
Een veel duurdere kaart of sneller ben ik volgens mij niet nodig, ik ben geen verkwend gamer. De Games die ik speel zijn voornamelijk World of Warcraft en Guild Wars. daar gaan waarschijnlijk C&C 3 en StarCraft II bij komen. Het zou mooi zijn als ik deze games zou kunnen draaien op 1600x1200 of 1680x1050 met de nodige eyecandy.
O ja, het systeem is gebaseerd op een AMD Athlon 64 X2 6000+ 2GB aan geheugen.
Wie kan mij een laatste setje geven.
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
apart, ik heb het net heel vaak gekregen, nadat ik windowblinds aanhad met transpirancy en alles heb ik het ongeveer 9 keer in 1 uur gekregen. Nu heb ik het uitgezet een een standaard theme aangezet. nog niet gehad. Ook werkt ccc niet in windows xp terwijl het wel gewoon werkte in vista.N0taFAma schreef op zaterdag 07 juli 2007 @ 01:04:
Yasinhm dat heb ik ook soms met mijn X800XL met Ati driver 8.13.
Soms heb ik heel vaak dat hij even uitspringt en daarna weer aan, maar soms heb ik het weken niet.
Ik gebruik ook Windows XP.
X1950 XT... zonder twijfel_Dune_ schreef op zaterdag 07 juli 2007 @ 01:05:
ATi HD2600XT 256MB GDDR4 €131,29
ATi HD2600XT 512MB GDDR4 €179,-
en
ATi Radeon X1950XT 256MB GDDR3 €179,67
[...] DX10 voorlopig nog niet echt interessant [...]
[...] games zou kunnen draaien op 1600x1200 of 1680x1050 met de nodige eyecandy.
[...] Wie kan mij een laatste setje geven.
Met je systeem (X2 6000+) heb je niet perse ondersteuning van de videokaart nodig bij 1080p (HD) decoding. Daarbij komt dat de X1950 met Avivo ook een handje helpt. Meer dan voldoende i.i.g.
De X1950 XT is een goede/snelle DX9 kaart. Daar heb je met jouw systeem, met oog op games veel meer aan dan een vrij matige (trage) DX9 kaart die als bonus ook 'slechte' DX10 performance kan leveren. In de 16x0*1xx0 range resoluties zal de 2600XT meestal niet voldoen 'met de nodige eye candy' (de X1950XT wel), en zoals aangegeven heb je UVD niet perse nodig.
Voor mij is de 2600XT interessant gezien ik een mediacenter met een 3500+ heb en dus UVD nodig heb. Daarnaast wordt er incidenteel een game gespeeld op 1366x768. Daarvoor is de 2600 uitstekend geschikt
[ Voor 5% gewijzigd door Cheetah op 07-07-2007 08:49 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Maar mijn beeld is nu veel donkerder
aahhh: er onder kon je kiezen tussen 2 levels, die omzetten hielp
[ Voor 9% gewijzigd door _ferry_ op 07-07-2007 10:48 ]
Dus zeker voor die X1950 XT gaan want als je de HD2600 XT of 8600 GTS pakt heb je in DX9 al geen lekkere performance laat staan in DX10. DX10 is op die kaarten al niet speelbaar. Dus eigenlijk niet nuttig dat ze het ondersteunen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
ik ken dat probleem...edward2 schreef op:
Ik mis zowieso de tijd om alles nog weg te spelen door een nieuwe vriendin, dus heb nog veel current gen. af te werken.
Juist! als we het even simpel vergelijken met de de eerste DX9 kaarten vind ik dat vanaf de 7800/7900 serie van NV en de X1800/X1900 serie van ati DX9 games pas een beetje goed te spelen zijn (op hogere reso's + high detail)Visgek24 schreef:
Ik denk dat het verstandig is als we gewoon even wachten tot er echte native dx10 games zijn.
haha dude je ziet toch die fan nauwelijks?Tsunami schreef:
Heeft er iemand ervaring met het verwijderen van de brand sticker op de fan van de (Jetway) 2900 XT? Ik zie liever de ATI-sticker
Probeer het is met een stenly-mesje...
Me 2Astennu schreef:
voorlopig blijf ik bij XP en DX9. DX10 is wel mooier meer de performance hit is zo groot dat het niet de moeite waard is + je moet onder vista gaan werken en dat vind ik persoonlijk ook nog eens een ramp.
(heb 2900XT en Vista draaiende gehad..) vond het niet echt geweldig..(had er meer van verwacht)
Nu gewoon weer XP en 1950XT
ps: is er al iets bekend omtrent de 2950XTX wanneer dat kaart"je" gaat komen ?
(kan er nog maar weinig van vinden op 't net)
[ Voor 20% gewijzigd door MauSS op 07-07-2007 11:52 ]
A world without gadgets is no world ;)
Uiteraard die X1950XT halen. X1950 kaarten zijn volop verkrijgbaar, had laatst nog mijn 6600GT SLI setup het raam uitgegooid (letterlijk) en vervangen door een X1950 Pro._Dune_ schreef op zaterdag 07 juli 2007 @ 01:05:
Ondanks dat er hier genoeg te lezen is waaruit ik zou moeten kunnen opmaken welke kaart voor mij interessant zou zijn twijfel ik toch nog erg tussen een paar kaarten, te weten:
ATi HD2600XT 256MB GDDR4 €131,29
ATi HD2600XT 512MB GDDR4 €179,-
en
ATi Radeon X1950XT 256MB GDDR3 €179,67
Ten eerste vraag ik mij af of de meerprijs voor de 512MB versie van de HD2600XT wel gerechtvaardigd is. Ondanks de 128bit bus kun je die 512MB wel goed benutten of kun je met een dergelijke kaart wel af met 256MB?
Ten tweede is DX10 voorlopig nog niet echt interessant, daarom zou een X1950XT volgens mij ook een zeer interessante optie kunnen zijn. Je mist alleen dan wel weer de hardware matige versnelling van HD content.
Een veel duurdere kaart of sneller ben ik volgens mij niet nodig, ik ben geen verkwend gamer. De Games die ik speel zijn voornamelijk World of Warcraft en Guild Wars. daar gaan waarschijnlijk C&C 3 en StarCraft II bij komen. Het zou mooi zijn als ik deze games zou kunnen draaien op 1600x1200 of 1680x1050 met de nodige eyecandy.
O ja, het systeem is gebaseerd op een AMD Athlon 64 X2 6000+ 2GB aan geheugen.
Wie kan mij een laatste setje geven.
Heel erg bedankt voor de link!
Hoe werkt dat bestellen qua dollars en euros?
Krijg je er wel alle extra's bij (Valve Coupon o.a.)?
[ Voor 16% gewijzigd door zzzzz op 07-07-2007 12:18 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
1950XT 256MB GDDR3 @ 1800Mhz en een 1950XT 512MB GDDR3 @ 1600Mhz.
Is nu het lager geclockte 512MB geheugen nu meer aan te raden of is 256MB @ 1800Mhz voldoende? Ik heb al even rond gekeken naar vergelijkings materiaal, maar tot nu toe nog niet echt veel gevonden waar beide kaarten in mee worden genomen.
Volgens mij zou tot een resolutie van 1600x1200 of 1680x1050 256MB voldoende moeten zijn?
Voor de extra 256MB betaal je namelijk wel weer €40 extra.
Ik zie nu ook in vraag en aanbod de volgende kaart staan: Sapphire Radeon X1950 XTX 512MB DDR4 (PCI-e, 2x DVI) voor €225...
[ Voor 46% gewijzigd door _Dune_ op 07-07-2007 13:14 ]
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Verwijderd
Ik vraag me af hoe dat zit met invoerbelasting. Ik had laatst wat CD'tjes van Amazon besteld voor ~ 40 dollar, kreeg ik bij ontvangst de vraag of ik nog 10 euro wilde bijleggen.N0taFAma schreef op zaterdag 07 juli 2007 @ 12:06:
BTownMadness, Ik wil er ook nog 2 en 425 euro is niet duur.
Heel erg bedankt voor de link!
Hoe werkt dat bestellen qua dollars en euros?
Krijg je er wel alle extra's bij (Valve Coupon o.a.)?
Verhoudingsgewijs toch wel veel
Wat betreft texturing is het niet vreemd dat er tradeoffs zijn. R600 heeft 16 texture units net als R580, G80 heeft 64 texture units. Outnumbered dus. Maar ze zitten wel een beetje anders in elkaar dus daardoor is het verschil niet 4x in het voordeel van de G80.edward2 schreef op zaterdag 07 juli 2007 @ 00:26:
[...]
De R600 heeft mi momenteel teveel tradeoffs, met name op het gebied van texturering. Ik heb weer dips gezien in bijna legacygames die ik daar aan wijd. Of het moet aan de drivers liggen. Ben natuurlijk helemaal geen engineer.
Het lijkt er op alsof R600 gebouwd is als architectuur die het nog wel een paar jaar moet uit houden, net zoals de R300 een architectuur was die het een jaar of 5 heeft uitgehouden. Men zal er dus nog veel verder op bouwen. Daar horen trade-offs bij en dan met name op 'legacy' games. Deze zijn voornamelijk texture limited en leunen veel op pixelshaders. We zien in veel theoretische benchmarks dat de R600 het niet slecht doet op het gebied van pixelshaders, maar wanneer je kijkt naar vertexshading en geometryshading, dan is de R600 in die gevallen daar resp bijna 2x en 50x zo snel. En hoeveel games zijn er die nu heftig gebruik maken van die laatste twee manieren van shading?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Credit Card Payment - Secure AuthorizeNet
Gift Certificate
Wat moet ik doen?
Ik heb nog nooit iets uit het buitenland besteld
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Verwijderd
Oftewel de core is duidelijk de bottleneck...

in de 3dview gaat hij ook van 700fps gemiddeld naar de 1100 fps gemiddeld.
[ Voor 10% gewijzigd door Nutral op 07-07-2007 13:19 ]
[ Voor 13% gewijzigd door Cyber. op 07-07-2007 13:42 ]
Verwijderd
Ik ben gestopt bij creditkaart... die heb ik niet dus.... Er zit voor mij niets anders op dan wachten tot de ati hd x2900 xt 1gb hier in de schappen ligt en daar baal ik wel van.N0taFAma schreef op zaterdag 07 juli 2007 @ 12:57:
voor betaling van die HD2900XT 1GB van Diamond kan ik kiezen uit:
Credit Card Payment - Secure AuthorizeNet
Gift Certificate
Wat moet ik doen?
Ik heb nog nooit iets uit het buitenland besteld.
Met creditkaart: If you wish to pay using your credit card, but would prefer not to pay on-line, then simply contact Diamond MultiMedia at 1-818-534-1414 to arrange for payment.
[ Voor 15% gewijzigd door Verwijderd op 07-07-2007 13:56 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
http://i19.tinypic.com/680q5wj.jpg
http://i14.tinypic.com/5y11xfm.jpg
PS, dat de kleuren gedraaid zijn hoort, daar graag geen commentaar over
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Mja heb ook al een 2e hands HD2900 XT gezien voor 280 euro_Dune_ schreef op zaterdag 07 juli 2007 @ 12:24:
Heren hartelijk dank voor jullie reacties, jullie bevestigen mijn eigen conclusies hiermee.Alleen nu zag ik dat de 1950XT er twee varianten er op na houdt:
1950XT 256MB GDDR3 @ 1800Mhz en een 1950XT 512MB GDDR3 @ 1600Mhz.
Is nu het lager geclockte 512MB geheugen nu meer aan te raden of is 256MB @ 1800Mhz voldoende? Ik heb al even rond gekeken naar vergelijkings materiaal, maar tot nu toe nog niet echt veel gevonden waar beide kaarten in mee worden genomen.
Volgens mij zou tot een resolutie van 1600x1200 of 1680x1050 256MB voldoende moeten zijn?
Voor de extra 256MB betaal je namelijk wel weer €40 extra.
Ik zie nu ook in vraag en aanbod de volgende kaart staan: Sapphire Radeon X1950 XTX 512MB DDR4 (PCI-e, 2x DVI) voor €225...
Even over het stroomverbruik van de HD2900 XT:
En een 2e HD2900 XT in het systeem zorgde voor 140 watt extra qua gebruik:
Extra heat is not the only toll we have to pay for having this huge amount of transistors, the power consumption increases quite a bit too. First talk of the R600 back in October 2006 had it pinned at 300W, let’s see if the rumors are through, in the chart below you can see the total system power usage at idle/load:
Madshrimps (c)
With a total system usage of ~360 Watt we are still using far less then the 500W PSU's ATI recommended us. Adding a second card does require more popular, but nowhere near unreasonable limits. 498-359= 139Watt added for one HD 2900 XT; less than half of the rumored 300W number. No need for our own Nuclear Power Plant in the garden just yet.
[ Voor 31% gewijzigd door Astennu op 07-07-2007 14:33 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Supreme Commander heeft, op mijn X1950XT 256MiB, toch wel moeite hier met veel units en shields op t scherm, met twee monitoren: een op 1600x1200 en een op 1440x900. Ik heb wel eyecandy zut redelijk hoog staan, geen AA though. Mijn gok is dat meer VRAM de oplossing voor dit probleem is (rest van het systeem is ook niet echt een bottleneck, C2D E6600 @ 3.465GHz en 2x 1GiB PC2-6400)._Dune_ schreef op zaterdag 07 juli 2007 @ 12:24:
Heren hartelijk dank voor jullie reacties, jullie bevestigen mijn eigen conclusies hiermee.Alleen nu zag ik dat de 1950XT er twee varianten er op na houdt:
1950XT 256MB GDDR3 @ 1800Mhz en een 1950XT 512MB GDDR3 @ 1600Mhz.
Is nu het lager geclockte 512MB geheugen nu meer aan te raden of is 256MB @ 1800Mhz voldoende? Ik heb al even rond gekeken naar vergelijkings materiaal, maar tot nu toe nog niet echt veel gevonden waar beide kaarten in mee worden genomen.
Volgens mij zou tot een resolutie van 1600x1200 of 1680x1050 256MB voldoende moeten zijn?
Voor de extra 256MB betaal je namelijk wel weer €40 extra.
Ik zie nu ook in vraag en aanbod de volgende kaart staan: Sapphire Radeon X1950 XTX 512MB DDR4 (PCI-e, 2x DVI) voor €225...
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Dit topic is gesloten.
![]()