Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.pcgameshardwar...ative_screenshots/?page=3
Review Mirror's edge
X2 lower than low......
[ Voor 16% gewijzigd door Bullus op 14-01-2009 21:50 ]
|2600k|Asus 290|
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat kan niet kloppen, hij zou nog minstens ongeveer zo snel moeten zijn als 1 HD4870.Bullus schreef op woensdag 14 januari 2009 @ 21:50:
![]()
http://www.pcgameshardwar...ative_screenshots/?page=3
Review Mirror's edge
X2 lower than low......Geen crossfire profiel.
Staan ook geen drivers bij,misschien hebben ze ook cat.8.10 gebruikt

|2600k|Asus 290|
* Cassius gniffelt met 8800gtx, zou dat ding nou nooit echt slecht worden
De meeste mensen deugen!
Anoniem: 134818
Hehe, ik zei ook bijvoorbeeldCJ schreef op woensdag 14 januari 2009 @ 21:49:
Psst. Da's de Rage Fury Maxx. Die is nog ouder dan de 9800 Maxx.

GL laat idd een heleboel zien
[ Voor 11% gewijzigd door Anoniem: 134818 op 14-01-2009 22:12 ]
Anoniem: 134818
Begin
EindA additional option activates the PC exclusive GPU Physx acceleration on graphics cards of the Geforce 8 series and above. Radeon users get the same increased visual and physics quality but here the processor has to do the calculations.
Surprisingly GPU Physx doesn't deliver a noticeable benefit - but this is possibly a problem of our review version.
[ Voor 45% gewijzigd door Anoniem: 134818 op 14-01-2009 22:25 ]
En dat PhysX boeit wel. Je krijgt er een hoop extra effects mee.
CF geeft gewoon een probleem waardoor het niet werkt. Als je het uitzet haal je gewoon de performance van een enkele HD4870. Maar er zal op korte termijn wel een fix komen, of het profiel zit gewoon in Cat 9.1.spNk schreef op woensdag 14 januari 2009 @ 22:00:
[...]
Dat kan niet kloppen, hij zou nog minstens ongeveer zo snel moeten zijn als 1 HD4870.
Dat is BS. Als dat zo was dan had mijn CPU het ook moeten renderen als ik het zou uitzetten, en dat doet hij niet. Je hebt gewoon minder effects zonder PhysX.Anoniem: 134818 schreef op woensdag 14 januari 2009 @ 22:23:
Die staan aan, maar ze zeggen aan het eind dat physX niet (echt) uit maakt. Dat spoort niet met wat ik gehoord en gezien heb, maar na het stukje dat het niet uit maakt staat: Dat ze een Test versie gebruiken en geen release versie dus.
Begin
[...]
Eind
[...]
[ Voor 107% gewijzigd door Format-C op 14-01-2009 22:27 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 134818
Dit is wat ze zeggen. Dus de effecten staan aan, maar gaan op de CPU, maar ATI doet het zelfs met de extra CPU load niet slecht? Begrijp ik dat nu goed?Radeon users get the same increased visual and physics quality but here the processor has to do the calculations.
[ Voor 19% gewijzigd door Format-C op 14-01-2009 22:29 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 134818
. De vraag is dus. Hadden ze wel echt physX?but this is possibly a problem of our review version.
[ Voor 17% gewijzigd door Format-C op 14-01-2009 22:30 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Niet op voorraad.
Anoniem: 134818
Kan je physX niet aan zetten op een ATI systeem? Ik heb hem nog niet binnen, dus ik kan het je nog niet vertellen hoe en wat...
[ Voor 62% gewijzigd door Anoniem: 134818 op 14-01-2009 22:36 ]
Edit; als je PhysX alleen met de CPU doet (kan wel) dan haal je misschien 5FPS op stukken waar veel glas e.d. rondvliegt. Onspeelbaar. Met GPU PhysX haal je gewoon je normale framerate.
PhysX:

Geen Physx:

Dit is 1 kogel. Zonder PhysX zie je gewoon 1 klein sparkje/ nagenoeg geen effect. Of iig weinig.
Als er meerdere kogels om je heen inslaan op deze manier voelt dit realistischer aan, en het wordt intenser. En je wordt váák beschoten!
Zoals hier heb je een hal met rookeffecten op de vloeren:

Zonder PhysX heb je dat niet:

Edit: uit elkaar geschoten ramen zonder PhysX:

(Valt nagenoeg geen glas op de grond)
Met:

Nog 1 met:

Veel meer rondvliegend glas, kogels, en glas op de vloer.
Best grappig.
[ Voor 114% gewijzigd door Format-C op 14-01-2009 23:31 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 134818
Zouden zij geen stukken tegen zijn gekomen zoals dat? Lijkt me toch vreemd...Edit; als je PhysX alleen met de CPU doet (kan wel) dan haal je misschien 5FPS op stukken waar veel glas e.d. rondvliegt. Met GPU PhysX haal je gewoon je normale framerate.
[ Voor 55% gewijzigd door Format-C op 14-01-2009 23:12 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 134818
[ Voor 14% gewijzigd door Anoniem: 134818 op 14-01-2009 23:13 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Galaxy en Albatron gaan naast Nvidia-videokaarten ook kaarten aanbieden die gpu's van ATI aan boord hebben, aldus Taiwanese bronnen. Met die stap treden ze in de voetsporen van XFX, dat al eerder de beslissing nam om met ATI in zee te gaan.
ATI logo Berichtgeving dat Galaxy en Albatron ook videokaarten van ATI aan gaan bieden, is afkomstig van anonieme bronnen uit Taiwan, schrijft Fudzilla. Voor Albatron zou het een voor de hand liggende keuze zijn, omdat zij van Nvidia alleen in Azië videokaarten mogen verkopen. Ook voor Galaxy is de overstap naar ATI niet heel erg vergezocht, aangezien Galaxy onderdeel is van Palit, dat eveneens videokaarten van ATI verkoopt. Het aanbieden van ATI-kaarten door Galaxy en Albatron betekent dat het aantal fabrikanten dat exclusief Nvidia-videokaarten verkoopt, zoals EVGA, Zotac en BFG, nog verder in de minderheid komt te staan.
De twee videokaart-fabrikanten zijn niet de eersten die de overstap naar ATI maken: XFX ging ze als Nvidia-only partner reeds voor. XFX introduceerde onlangs zijn nieuwe ATI-kaarten, voorzien van een zogeheten double life-time warranty, wat eerst nog voorbehouden was aan de grafische kaarten van Nvidia. Bij XFX zat er drie weken tussen de officiële aankondiging en het daadwerkelijk uitbrengen van de HD 48x0-serie. Of het bij Galaxy en Albatron net zo vlot zal lopen valt nog te bezien, ervan uitgaande dat een officiële aankondiging niet lang op zich laat wachten.
Ofdat de 4850 en 4870 512 is of 1 gb maakt niet heel veel uit.
Ik vroeg me dit af omdat nu 4850 x 2 haast net zo duur is als een 4870 1gb.....
Greetz Rob
Anoniem: 134818
http://www.hardwarecanuck...e-performance-review.html
http://www.guru3d.com/art...-crossfirex-performance/6
[ Voor 34% gewijzigd door Anoniem: 134818 op 14-01-2009 23:30 ]
Een andere optie is om de prestaties van de kaart te vergelijken met die van SLI setups van voorgenomende single-gpu kaarten. Het is simpel, als de GTX295 gelijkwaardig presteert aan 2xGTX260-216, dan kunnen we het een dual GTX260-216 noemen. Als de GTX295 ongeveer zo snel is als twee GTX280 kaartjes in SLI, dan kunnen we het een dual GTX280 noemen. Wat zal het dus zijn?
Tegenover dit alles staat dat hoe je de GTX295 nu juist wilt noemen arbitrair is. Het enige dat uitmaakt is de prijs en hoeveel bang hij voor die bucks geeft. Of hoeveel bang tout court, voor de performancehoeren, natuurlijk.
Dus kunnen we gewoon voort met het nieuws? Dat Gold Leader loopt te prediken dat de GTX295 gehakt maakt van de HD4780X2 is zijn probleem, tenminste als hij die roddels niet verspreid naar welwillenden die zijn verhaal overnemen. O wee voor die anderen en hun toekomstige keuzes. Als je echter aanneemt dat ze elders even fris in het hoofd zijn als hier zullen ze snel genoeg door Gold Leader's groene mist kunnen turen en zullen ze zien dat het verhaal niet zo zwart-wit is als hij ze wil doen geloven. Dus heb vertrouwen in de medetweaker.
**SNIP**
[ Voor 8% gewijzigd door dion_b op 15-01-2009 23:58 ]
Anoniem: 134818
[ Voor 19% gewijzigd door Anoniem: 134818 op 14-01-2009 23:33 ]
Heisa? ik laat gewoon wat PhysX screenshots zien.Cassius schreef op woensdag 14 januari 2009 @ 23:33:
Ik snap niet dat mensen hierover zo'n heisa maken ... het zijn toch maar glas scherven?
Ik vind het leuk.
Maar goed. Gaan jullie het nog maar even over de GTX295 hebben. Ik ga nog wel ff "Edgen"
[ Voor 33% gewijzigd door Format-C op 14-01-2009 23:43 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Maar lees toch ongeveer overal hetzelfde, dat een 4870 ofwel single core kaart stabieler presteerd dan een cf setup van 2 lichtere kaarten. Ofwel de cf setup zal op sommige spellen beter presteren, maar de single kaart op de meeste spellen beter vanwege niet ondersteuning van cf setupje in veel spellen.
Thnx Btw
Anoniem: 134818
Geeft niet, googlen is een vakFlying_Dutchie schreef op woensdag 14 januari 2009 @ 23:43:
Srry reinman, ik las er totaal overheenik was gefocussed op de woordcombinatie 4850 maal/x 2...
Maar lees toch ongeveer overal hetzelfde, dat een 4870 ofwel single core kaart stabieler presteerd dan een cf setup van 2 lichtere kaarten. Ofwel de cf setup zal op sommige spellen beter presteren, maar de single kaart op de meeste spellen beter vanwege niet ondersteuning van cf setupje in veel spellen.
Thnx Btw
De meeste spellen pakt ie wel gewoon hoorvanwege niet ondersteuning van cf setupje in veeleen aantal spellen.
Ugh, kunnen we het niet over RV790 Speculaas hebben?RappieRappie schreef op woensdag 14 januari 2009 @ 23:35:
[...]
Maar goed. Gaan jullie het nog maar even over de GTX295 hebben. Ik ga nog wel ff "Edgen"
Anoniem: 134818 in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
Helemaal niemand over mijn onderbouwen voor een hoge core snelheid?
[ Voor 6% gewijzigd door Anoniem: 134818 op 14-01-2009 23:51 ]
Je moet gewoon even gaan kijken welke spellen je graag speelt, en dan wat reviews van de HD4870X2 of HD4850X2 zoeken, en kijken hoe die kaarten in die betreffende games het doen. Tegenwoordig werkt CF best in heel veel games hoor.Flying_Dutchie schreef op woensdag 14 januari 2009 @ 23:43:
Srry reinman, ik las er totaal overheenik was gefocussed op de woordcombinatie 4850 maal/x 2...
Maar lees toch ongeveer overal hetzelfde, dat een 4870 ofwel single core kaart stabieler presteerd dan een cf setup van 2 lichtere kaarten. Ofwel de cf setup zal op sommige spellen beter presteren, maar de single kaart op de meeste spellen beter vanwege niet ondersteuning van cf setupje in veel spellen.
Thnx Btw
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 134818
Umm, je wil geband worden? begrijp me niet verkeerd, maar is dit een van die 'buien' waar in je al je 3Dfx dingen verkoopt?Anoniem: 23009 schreef op woensdag 14 januari 2009 @ 23:53:
[...]
Offending me?
[afbeelding]
maargoed je hebt wel een punt, maardan nog, het is toch al te laat.....en ik **** me moeder geliever niet ga je eigen moeder maar pesten of dat andere... als je het zo wilt hebben
De admins of mods hebben nu een voordeel twee eigenlijk A ze kunnen me bannen en ten tweede ik wil het ook
dus ja betere voordelen dan dat is er toch niet


Anyway, back on topic. Hardware Infos meldt dat sinds een paar dagen de eerste RV790 samples draaiende zijn. Ze zouden op 750Mhz core en 900Mhz GDDR5 draaien. De RV740 draait al wat langer en is dus wat verder gevorderd. Die zou volgens hen op 700Mhz core draaien en 900Mhz GDDR5 mem.
Bron: http://www.hardware-infos.com/news.php?news=2658
Wat er waar van is? Binnenkort wordt er vast nog wel meer gelekt op andere plekken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 134818
Anoniem: 215257
Over die kaart, ik denk niet dat ATi het daarmee redt, ze moeten wel wat meer doen om nV te ownen. Het is weer precies zoals de vorige keer denk ik, dat ze ineens uit het niets met een goede kaart komen..
[ Voor 68% gewijzigd door Anoniem: 215257 op 15-01-2009 00:12 ]
Anoniem: 134818
960 Shaderprocessors(dus 192 Shader units)
48 TMU's
850+ core clock. (Laten we conservatief hem op 875 zetten)
40nm
vs
800 Shaderprocessors(160 Shader Units)
40 TMUs
750 core clock
55nm
Zou toch een pak(ie) sneller zijn dan de RV770. Met ongeveer dezelfde power requirements(kleinere procedee, maybe extra tweaks).
Edit:
Hey, als ik terug kijk hebben ze eerst de HD4850 op de markt gegooid. Dus misschien is dit de HD4950(960 shaders, 750Mhz, 3,6GHz GDDR5) eerst en is de HD4870 pas later(960 shaders, 900mhz, en 7 Ghz GDDR5).
Damn: 960 shaders, 900mhz en 7 Ghz GDDR5
* Anoniem: 134818 hoopt dat ie gelijk heeft.
[ Voor 42% gewijzigd door Anoniem: 134818 op 15-01-2009 00:37 ]
Idd je hebt gelijk, soooAnoniem: 134818 schreef op woensdag 14 januari 2009 @ 23:46:
De meeste spellen pakt ie wel gewoon hoor


Nu zit ik toch weer te twijfelen om 2 x die hd4850 te pakken... Hmzzz
Zou dit verschil hetzelfde zijn wanneer ze in de benches 4850 1gb 2 x gebruikt zouden hebben tegenover 1 x hd4870 1gb?
Greetz Dutchie
Owja en gaat mn Thermaltake Silent Purepower 560w dit wel trekken 2 x 4850? Denk het eik niet...
[ Voor 112% gewijzigd door Q_7 op 15-01-2009 01:10 ]
AMD 9950X3D - X670E-Hero - G.Skill Royal Neo 48GB 6400 CL26 1:1 - RTX 5090 TUF 32GB - 9100Pro 2TB - BeQuit 1500w - Corsair 6500D - LG 3440P 240Hz WOLED
Anoniem: 134818
Welke voeding heb ik nodig? Deel 21

De meeste mensen deugen!
Ik zou dan toch eens naar de HD4850 X2 kijken ipv 2x HD4850. Die zou toch ietsjes sneller moeten zijn.Flying_Dutchie schreef op donderdag 15 januari 2009 @ 00:48:
[...]
Idd je hebt gelijk, sooowist niet dat het verschil zo groot was
Vooral in die eerste link die je gaf is het goed te zien. Hij stoomt in haast alle benches ruim voorbij de 4870 single card, en zelfs de gtx 280 1gb! Vaak zit ie ook zelfs dichtbij 2 x hd4870. Dat had ik niet echt verwacht eerlijk gezegd.
Nu zit ik toch weer te twijfelen om 2 x die hd4850 te pakken... Hmzzz
Zou dit verschil hetzelfde zijn wanneer ze in de benches 4850 1gb 2 x gebruikt zouden hebben tegenover 1 x hd4870 1gb?
Greetz Dutchie
Owja en gaat mn Thermaltake Silent Purepower 560w dit wel trekken 2 x 4850? Denk het eik niet...
En over die RV790. Die extra shaders gaan wel helpen echter is een hogere clockspeed wel handig (800+ MHz.) Dan komen ze denk ik dicht bij de performance van de GTX285. Echter is nVidia ook met de GT212 chip bezig.
En dan is weer de vraag is die RV790 40nm? zo ja dan kunnen hebben ze weer een voordeel in de kostprijs per chip. Al verwacht ik dat die GT212 ook wel 40nm zal worden.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 126513
Want progressief is vooruitgang, verandering.
160 shaders extra vind ik niet veel. In CF dus maar 320 shaderengines extra. Ik hoop toch op wat meer. Voor high-end eerder 1200 shaders, mag wel op 750MHz lopen dan hoor. Ik zie liever architectuur verbeteringen dan klokspeeds verhoging. Want in klokspeeds zit altijd nog rek in.
En wat als nVidia op de zelfde klokspeeds zou lopen als ATi, Ze lopen al jaren op lagere speeds, zegt ook wat over hun architectuur.
ATi heeft lang het voordeel gehad van het snelste procedee maar dat lijkt nu langzamerhand wel afgelopen te zijn. Aan de andere kant heeft nVidia altijd een volledig getest en bewezen te werken procedee gehad wat dus meer zekerheid geeft. Ben benieuwd hoe dit gaat lopen.
En trouwens die Physics of PhyX, hoe het ook mag heten. Laat maar komen, hier ben ik al lang op aan het wachten. Ik zie liever alles om me heen in het rond vliegen met alle parabolische bwegingen dan dat ik het water elke keer zie verbeteren of de textures. De uitwerking van de omgeving op jou handelen is heilig voor mij. De natuur maakt het zo veel echter, soms kan ik me gruwelijk ergeren aan idote natuurwetten, zelfs met HAVOK.
Ik hoop dan ook echt dat ze dit met openCL eindelijk eens goed kunnen implementeren zodat de hardware dit ook echt kan gaan renderen met goede workloadverdeling.
Anoniem: 134818
Het is 'maar' een upgrade stap(vandaar ook RV790) en nog geen nieuwe RV870, die nog moet komen. Ik vind 160 shaders extra + een klokspeed bumb een hele verbetering.160 shaders extra vind ik niet veel. In CF dus maar 320 shaderengines extra. Ik hoop toch op wat meer. Voor high-end eerder 1200 shaders, mag wel op 750MHz lopen dan hoor. Ik zie liever architectuur verbeteringen dan klokspeeds verhoging. Want in klokspeeds zit altijd nog rek in.
En wat als nVidia op de zelfde klokspeeds zou lopen als ATi, Ze lopen al jaren op lagere speeds, zegt ook wat over hun architectuur.
Nvidia loopt helemaal niet op de zelfde clockspeeds. Hell die kan je niet eens met elkaar gaan vergelijken. Een shader van ATI loopt op de clocksnelheid(dus 750mhz) en die van nvidia verschilt de rest tenopzichte van de shaders(core 500mhz shaders 1500mhz). Dit betekend letterlijk dat als er 1 shader bewerking is, in een shaders unit(ATI min 1 ~ max 5 bewerkingen. Nvidia 1), dan is Nvidia gewoon sneller door die hogere core clock. Ik heb boven ook al neer gezet dat in een tik, een nvidia shader, tenopzichte van een ati shader 2 bewerkingen kan doen en in die klok tik ATI er minimaal 1 of maximaal 5. Dat ligt aan de shader bewerking
Waar komt het dus op neer:
160 shaderUnits die 5 bewerkingen kunnen doen op 750
240 shaderUnits die 1 bewerking kunnen doen op 1500
192 shaderUnits die 5 bewerkingen kunnen doen op 1000
Het verschil tussen 1 bewerking is bij 1500mhz betekend een halve bij 750. Bij 1000mhz is dit twee derde. Het verschil tussen een slechte geoptimaliseerde shader bewerking word dus kleiner.
[ Voor 38% gewijzigd door Anoniem: 134818 op 15-01-2009 11:42 ]
De core van nVidia kaarten loopt over het algemeen iets trager ja, dat klopt. De shaders daarentegen, zijn bij nVidia al jaren hoger geclocked dan bij ATI, aangezien nVidia een aparte clock heeft voor de shaders. Het zou interessant zijn om te weten of ATI ook een aparte clock voor de shaders kan toepassen in het RV770/RV790 ontwerp.Anoniem: 126513 schreef op donderdag 15 januari 2009 @ 11:00:
160 shaders extra vind ik niet veel. In CF dus maar 320 shaderengines extra. Ik hoop toch op wat meer. Voor high-end eerder 1200 shaders, mag wel op 750MHz lopen dan hoor. Ik zie liever architectuur verbeteringen dan klokspeeds verhoging. Want in klokspeeds zit altijd nog rek in.
En wat als nVidia op de zelfde klokspeeds zou lopen als ATi, Ze lopen al jaren op lagere speeds, zegt ook wat over hun architectuur.
Voor een high-end kaart 1200 shaders, ik zie het nog even niet gebeuren. Zeker niet als je ze vergelijkt met de 160 die een HD4870 momenteel heeft. Dat zou een factor 7.5 keer zoveel shaders zijn. Dit in het ontwerp van ATI, zou uitkomen op 6000 shaders... Waar zouden ze die moeten laten als ze een kleine chip willen hebben.
Als je bedoeld 1200 shaders, zoals de HD4870 momenteel 800 heeft, ja dan zou het iets meer realistisch klinken. Dat zou 240 normale shaders inhouden, gelijk aan de GTX280/285, alleen dan lager geclocked.
Gemiddelde verkoopprijs GTX295: ~ € 450,00
Goedkoopste HD4870X2: € 366,00
Goedkoopste GTX260 (55nm): € 257,00
Goedkoopste HD4850X2: € 215,00
Goedkoopste GTX260 (65nm): € 213,00
Goedkoopste HD4870 1GB: ~ € 200,00
Goedkoopste HD4870 512MB: € 170,00
Ik blijf het weliswaar erg vreemd vinden dat Sapphire de enige fabrikant is die de HD4850X2 produceert.
[ Voor 13% gewijzigd door Indy91 op 15-01-2009 12:21 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Ik heb dit mensen wel vaker zien zeggen, maar ik zie het hele punt niet zo. Een ontwerp als dat van NVIDIA is vanaf de grond ontworpen om op twee verschillende snelheden te draaien. Dat heeft ongetwijfeld weer z'n eigen nadelen gehad waar AMD dan weer geen last van heeft. Als het zo simpel te doen was had AMD het vast gedaan, maar het feit dat ze het niet doen geeft volgens mij wel aan dat het niet genoeg voordelen heeft.dahakon schreef op donderdag 15 januari 2009 @ 11:21:
[...]
De core van nVidia kaarten loopt over het algemeen iets trager ja, dat klopt. De shaders daarentegen, zijn bij nVidia al jaren hoger geclocked dan bij ATI, aangezien nVidia een aparte clock heeft voor de shaders. Het zou interessant zijn om te weten of ATI ook een aparte clock voor de shaders kan toepassen in het RV770/RV790 ontwerp.
(Mag ik mensen er trouwens op wijzen dat "shader" de naam is voor de code die wordt uitgevoerd door je GPU, en niet de naam voor de hardware die het uitvoert. Stream processor is al een vreselijke naam, maar kan er mee door omdat zowel AMD als NVIDIA het gebruiken. De SPs echter "shaders" noemen is analoog aan je CPU "code" noemen
Anoniem: 134818
Anoniem: 126513
Ik ging wel even uit van 800 streamprocs aangezien ATi hier ook mee adverteerd. Het is idd zoals reinman het uitlegt de echte shadersengines van ATi kunnen bijna 2,5x zoveel bewerkingen doen dan die van nVidia, daar tegenover kan de shaderklok van nVidia wel een stuk hoger. Volgens mij 5 operations per streamprocessor zodat ze idd op 800 uitkomen. Vandaar dat er ook genoeg power in lag voor shader based AA resolve, wat dus nog niet echt toegepast wordt.
Ik probeerde eigenlijk de vergelijking puur tussen cores te maken , dus rauwe snelheid. Aangezien nVidia een veel grotere core heeft zullen die gelijke kloks wel nooit kunnen. Maar het was puur theoretisch.
Ok, voor een RV790 zou het niet slecht zi9jn. 960 streamprocs + hogere kloks. Stiekem vind ik de RV740 technisch gezien toch een mooier kaartje.
edit:
Volgens mij klopt dat idd Reinie, CJ kon dat meestal mooi uitleggen, al vanaf Xenos begon het alle kanten op te gaan.
Ah shader is de code.. Maar zonder code heb je ook een dode CPU of niet soms. Kan ik er een alien code doorheen sturen, daar snapt die aardse CPU niks van. Net zoals een lichaam zonder lifespirit.
[ Voor 14% gewijzigd door Anoniem: 126513 op 15-01-2009 12:33 ]
En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.
[ Voor 14% gewijzigd door CJ op 15-01-2009 12:36 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat is dus ook de reden waarom ik het weer naar voren bracht. Het was een heet be-discussieerd onderwerp voorafgaande de launch van de HD4k series. Wie weet hoe ver ATI het heeft doorgevoerd. Het kan simpelweg niet energie-efficient beschouwd worden op de 55nm gpu's, maar misschien wel voor de 40nm gpu's. Dit alles is natuurlijk niets anders dan mogelijkheden bekijken, maar wie weet wat AMD met hun SPU's (streamprocessorunits, je hebt gelijk natuurlijk snoitkever) gaat doen voor de 40nm GPU'ss.CJ schreef op donderdag 15 januari 2009 @ 12:34:
nVidia deed het al eerder. De G70 in 2005 was de eerste GPU waar men met 3 verschillende shaderdomains werkte.
En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.
Anoniem: 134818
Nee, dat is het niet. Die werken gewoon op core snelheid.Anoniem: 134818 schreef op donderdag 15 januari 2009 @ 12:37:
Ik meende dat de Texture Units op half core speed werkten?
Wat betreft de texture units... deze zijn wel uitgekleed ten opzichte van de R600.
Hier kan je precies lezen wat er verandert is in de texture units: http://www.rage3d.com/rev...rchitecture/index.php?p=5An interesting tidbit we're is that 64-bit filtering capability has gone from one value per clock to half of that-which means 2 clocks per bilinear filtered 64-bit color value. This was done because having full rate 64-bit filtering consumed quite a chunk of silicon, and internal analysis showed that perf/W and perf/mm2 would increase if the filtering rate was reduced and thus transistors were saved, allowing for more TUs to be implemented overall. Going by the quoted performance numbers and what we've seen in practice in terms of 64-bit filtering, this was a correct engineering choice.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 23009
Was dat niet de NV40? Deze kan Shader Model 1.0, 1.1, 1.2, 1.3, 1.4, 2.0a, 2.0b en 3.0 oftewel Shader Model series 1, 2 en 3 die de 3 verschillende shaderdomains beschrijven.CJ schreef op donderdag 15 januari 2009 @ 12:34:
nVidia deed het al eerder. De G70 in 2005 was de eerste GPU waar men met 3 verschillende shaderdomains werkte.
En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.
Alleen net als G70/G71 die kon niet HDR + FSAA combineren iig G70 is niets anders dan een opgefokteNV45
ATi's R420 was s'wereld's eerste 4 in 1 Texture compression VPU
[ Voor 22% gewijzigd door Anoniem: 23009 op 15-01-2009 18:33 ]
Zoek en vindt.
Wikipedia weet alles: de techniek zat in de Savage 3, en 3DC is afgeleid van DXT5, welke ontwikkeld is door S3. ATI was wel de eerste met 3DC.
[ Voor 65% gewijzigd door Milmoor op 15-01-2009 18:43 ]
Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.
Nee. De verschillende shaderdomains of beter gezegd 'clockdomains' heeft absoluut niks met het shadermodel te maken.Anoniem: 23009 schreef op donderdag 15 januari 2009 @ 18:28:
[...]
Was dat niet de NV40? Deze kan Shader Model 1.0, 1.1, 1.2, 1.3, 1.4, 2.0a, 2.0b en 3.0 oftewel Shader Model series 1, 2 en 3 die de 3 verschillende shaderdomains beschrijven.
De G70 had 3 verschillende clockdomains:
- Core clock / Shader domain: 430Mhz
- Core clock / ROP domain: 430Mhz
- Core clock / Geometric domain: 470Mhz
In de latere uitvoering van de G70, de amper te verkrijgen 7800GTX512, werden alle drie de domeinen gelijk getrokken naar 550Mhz. Men kwam er achter dat er verschillende domeinen binnen de G70 zaten omdat overklokken vaak al vrij vroeg artefacts gaf... dit was terug te traceren naar de Geometry Domain die al 40Mhz overgeklokt was.
En nu heet het BC5 in DirectX10. Het is inmiddels een standaard formaat geworden, dus ook alle nVidia DirectX10 kaarten zoals de GTX285 en GTX295 ondersteunen het. En in veel games zit het nu standaard ook al verwerkt zoals Crysis.ATi's R420 was s'wereld's eerste 4 in 1 Texture compression VPUdat was weer zijn voordeel
Deze tech heet 3Dc Texture Compression.
Dus stiekem heeft ATI toch een succes geboekt met 3Dc daar waar toendertijd veel mensen twijfelden aan het nut er van dan wel de mogelijkheid van ATI om het te pushen bij developers.
Edit: ATI heeft de jaren terug de drie key-personen van S3 overgenomen die achter S3TC (nu DXTC in DirectX) zaten. 1x raden wie bij ATI verantwoordelijk waren voor de ontwikkeling van 3Dc?
[ Voor 6% gewijzigd door CJ op 15-01-2009 18:57 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ultimate GPGPU hacking application is here!
[ Voor 20% gewijzigd door The Source op 15-01-2009 18:59 ]
Wow, nice stukjeThe Source schreef op donderdag 15 januari 2009 @ 18:59:
http://theovalich.wordpre...king-application-is-here/
Ultimate GPGPU hacking application is here!
Zag net dit staan:
Review: ATI Avivo Video Converter Does Not Support Stream
http://en.expreview.com/2...based-on-cpu-not-gpu.html
[ Voor 26% gewijzigd door Apoca op 15-01-2009 20:03 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Avivo draait zelfs sneller op een nVidia kaart. Ik vraag me af wat de kwaliteit van de andere reviews is als dit blijkt te kloppen... hebben die dan zo zitten slapen. De screenshots daar zie je het kwaliteits verschil ook duidelijk.Apoca schreef op donderdag 15 januari 2009 @ 19:14:
[...]
Wow, nice stukje
Zag net dit staan:
Review: ATI Avivo Video Converter Does Not Support Stream
http://en.expreview.com/2...based-on-cpu-not-gpu.html
In het begin had ik rond de 60FPS.
Daarna kreeg ik een bsod,drivers is nog instabiel op windows 7.Heb ik ook last van met andere spellen.
|2600k|Asus 290|
Het lijkt me dat er iets is mis gegaan bij de test van de Chinezen.
http://www.computerbase.d...o_converter_benchmarks/3/
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik meen ook te hebben gelezen dat AVIVO slechts voor een klein maar zeer rekenintensief deel van het conversieproces gebruik maakt van de GPU en de rest zoals vanouds door de CPU laat afhandelen. Ongetwijfeld leunt Badaboom meer op de GPU.
Was nichts kostet, ist auch *NIX.
Binnenkort een betere vergelijking tussen twee applicaties waar je voor betaalt. Badaboom vs PowerDirector. Zie de press release van 10 januari 2009:
http://www.cyberlink.com/...-news-content.do?pid=1997CyberLink PowerDirector 7 Optimized for ATI Stream Technology from AMD
The First Consumer Video Editing Software Optimized for ATI Stream Encoder
Taipei, Taiwan—January 10, 2009—CyberLink Corp. (5203.TW), innovative solution provider for the connected media lifestyle, launches today the latest PowerDirector 7 optimized for ATI Stream technology with accelerated MPEG2 and H.264 video encoding performance.
ATI Stream technology allows applications to take advantage of a graphic processing unit’s massive compute capability for demanding algorithms such as video editing. CyberLink PowerDirector 7 leverages ATI Stream technology to maximize transcoding performance when rendering MPEG2 and H.264 video files that users can output and view on the iPod®. PowerDirector 7 supports Stream-enabled ATI Radeon™ HD 4800 and ATI Radeon™ HD 4600 series graphic card solutions.
“PowerDirector 7 is a prime example of how ATI Stream technology can accelerate and streamline processing intensive PC tasks to improve the experience for consumers,” said Matt Skynner, vice president of product marketing, Graphics Products Group, AMD. “We are excited about the impressive results PowerDirector 7 is yielding with our innovative GPU technology and we applaud CyberLink’s commitment to deliver great HD video editing performance for video enthusiasts.”
"CyberLink is happy to collaborate with AMD, optimizing PowerDirector 7 as the first consumer video editing software with ATI Stream technology,” said Alice H. Chang, CEO of CyberLink. “With the growing popularity of video editing and AMD’s focus on developing advanced graphic and computing solutions, we felt it was a natural step to deliver accelerated software performance to allow users to spend more time on creating and sharing HD videos and less time waiting."
Overigens ook interessant om te zien hoe PowerDirector het doet vs Badaboom op GeForces onderling aangezien het ook op GeForces geaccelereerd wordt.
[ Voor 4% gewijzigd door CJ op 15-01-2009 22:33 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 4% gewijzigd door dion_b op 15-01-2009 23:42 ]
Oslik blyat! Oslik!
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.
Wil ik vanmiddag wel ff proberen of het werkt.
|2600k|Asus 290|
Anoniem: 134818
In vista kan je het denk ik vergeten(die laat maar 1 display driver toe). In XP zou het mogelijk moeten zijn.Bullus schreef op vrijdag 16 januari 2009 @ 08:02:
Vraagje
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.
Wil ik vanmiddag wel ff proberen of het werkt.
[ Voor 3% gewijzigd door Anoniem: 134818 op 16-01-2009 10:06 ]
|2600k|Asus 290|
Anoniem: 134818
Ik vind mirrors edge eigenlijk niet zo leuk, ik word nog al gefrustreerd van het constant dood vallen.

[ Voor 88% gewijzigd door Anoniem: 134818 op 16-01-2009 10:38 ]
ATI+NVIDIA PhysxBullus schreef op vrijdag 16 januari 2009 @ 08:02:
Vraagje
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.
Wil ik vanmiddag wel ff proberen of het werkt.
"this cannot be done in vista. xp cant run vantage. so how? windows 7.
games are INSANELY smooth as well. anything with or without physx runs really well on my dell 30" at full res."
[ Voor 15% gewijzigd door Blastpe op 16-01-2009 11:05 ]
Ik ben benieuwd of het mij ook lukt.
|2600k|Asus 290|
Weer een goede reden om Vista over te slaan =) NV+ATI in combo... dromen komen uit
[ Voor 41% gewijzigd door Vandread op 16-01-2009 12:00 ]
Wat voorbeelden en vergelijken zouden interesant zijn wat betreft games.
Maar ik denk dat we veel meer van dit spul gaan zien in de komende tijd dus dat zal vanzelf kenbaar worden.
Ik geloof dat een 8400GS niet echt de power heeft om PhysX te trekken, maar ik heb daar geen bron van.Bullus schreef op vrijdag 16 januari 2009 @ 08:02:
Vraagje
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.
Wil ik vanmiddag wel ff proberen of het werkt.
Reinman, had jij laatst niet een stukje waar dat in stond?
Als het werkt, ga ik misschien een 2e handse 8800gt of zo halen.
|2600k|Asus 290|
Mocht je die tests willen zoeken. Het ging op SLI en Tri-SLI oplossingen waarbij er voor PhysX een 9600GT bij werd gezet.
Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S
Ben nu een ander programma(nurien-alpha) aan het dowloaden,kijken of het daar wat scheelt.
Maar het lukt wel om beide drivers te installeren en zie ze ook gewoon in windows7.
Physics software herkent ook een physics kaart,maar zie ik geen verschil met of zonder Physics.
Haal nu ook een lagere score met vantage

Wil iemand mij sponsoren?
[ Voor 3% gewijzigd door Bullus op 16-01-2009 17:30 ]
|2600k|Asus 290|
Een ander user had hetzelfde probleem wat ik nu ook heb,dat je een error krijgt als je vantage opstart.:(
http://forums.techpowerup...hread.php?t=72035&page=14
post #343+344
|2600k|Asus 290|
JaAnoniem: 134818 schreef op vrijdag 16 januari 2009 @ 17:31:
Kan je met GPU-Z zien of er ook load op de kaart komt?
Nukezone FTW
Die was denk ik voor mij bedoelt.
Ja en nee.
stappenplan
Bij stap 7;1. install all drivers and get everything working.
2. have both monitors up and running.
3. right click desktop and go to display properties and select display settings(adjust resolution).
4. make sure both vid cards have a desktop enabled, ONLY ONE.
5. select the nvidia card as your default/main desktop/monitor and hit APPLY(not ok, leave the window open)
6. open physx control panel and go to the physx card tab. it should now say physx is enabled. leave this open.
7. switch the default/main display back to the ati card(s) and hit apply.
8. in the physx control panel, click on ENABLE a few times so that APPLY becomes available once again. click apply and repeat this step again.
9. run your benchmark of physx enable games.
10. enjoy.
NOTE: the monitor on the physx card does not need to be left on at this point.
Als ik dus naar mijn main display ga, dan heb ik geen load meer op de Nv-card.
Als ik dit nie doet maar in extended mode ga,dan heeft ie wel load,maar dan krijg ik dus die error in vantage.
Bij het eerste geval doet vantage het wel.
|2600k|Asus 290|
Ben dan ook zwaar ontevreden. Dat een enkele game een keer niet werkt bij release kan ik inkomen. Maar dat nu ongeveer 9/10 spellen niet fatsoenlijk spelen (ik heb het dan over nieuwe releases) terwijl bij nvidia 9/10 spellen juist WEL goed functioneren dan is er iets goed mis bij ATI. Ook als je op andere fora kijkt zoals rage3d, guru3d, etc. dan zie je dat steeds meer mensen het wel zo'n beetje gehad hebben met crossfire. Het artikel op anandtech laatst, sloeg de spijker precies op z'n kop. Een techniek die voor geen meter werkt op het moment!
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z6II | iPhone 16 Pro Max | Tesla Model Y
Al vaak genoeg is hier (en elders!) gemeld dat het TWIMTBP programma erg sterk is en een titel als Mirror's Edge en Crysis is zo'n beetje door nV zelf ontwikkeld. Een beetje vooronderzoek doen voordat je een dure videokaart koopt kan geen kwaad en het had je veel ergernis en irritatie gescheeld.
AMD krijgt dankzij nV's programma soms erg laat toegang tot games waar nV heel erg veel geld in pompt. Dit heeft vaak tot gevolg dat bij release een videokaart vaak niet optimaal benut wordt bij release met als gevolg dat het driverteam van ATI overuren moet draaien om bepaalde dingen goed te laten werken.
Ik las dat de GTX295 het vrij goed doet in veel games. Misschien is dat iets voor jou?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb het al gemeld op het forum van rage3d en er zit een CF-profiel aan te komen.MazeWing schreef op zaterdag 17 januari 2009 @ 01:28:
Wat krijg ik toch de schijt van dat hele crossfire. De eerste en laatste keer dat ik iets koop wat op deze techniek gebasseerd is. Veel nieuwe games werken niet eens fatsoenlijk en nu ook weer bij mirrors edge. Heb ik voor meer dan €500 aan videokaarten haal ik nog niet eens de performance van een 9800gtx
Ben dan ook zwaar ontevreden. Dat een enkele game een keer niet werkt bij release kan ik inkomen. Maar dat nu ongeveer 9/10 spellen niet fatsoenlijk spelen (ik heb het dan over nieuwe releases) terwijl bij nvidia 9/10 spellen juist WEL goed functioneren dan is er iets goed mis bij ATI. Ook als je op andere fora kijkt zoals rage3d, guru3d, etc. dan zie je dat steeds meer mensen het wel zo'n beetje gehad hebben met crossfire. Het artikel op anandtech laatst, sloeg de spijker precies op z'n kop. Een techniek die voor geen meter werkt op het moment!
Ik vind het ook jammer dat dit nogal eens gebeurd, maar de GPU's zijn te goed om over te stappen op NV wat mij betreft.
Niet op voorraad.
Dus 2 in 1. 1 OS met 2 verschillende kaarten die je zo kan switchen. Jammergenoeg nog niet samen.
Ideaal om heel snel de 2 kaarten te benchen/vergelijken.Geen gedoe met computer uitzetten,deinstalleren/installeren.
[ Voor 13% gewijzigd door Bullus op 17-01-2009 11:30 ]
|2600k|Asus 290|
Volgens deze bron verbruikt de 9600GT inderdaad minder dan de 8800GT, dus die keuze zou inderdaad zeker niet lomp zijn.kalizec schreef op vrijdag 16 januari 2009 @ 13:23:
Ik denk dat je aan een 9600GT dan meer hebt, want ik heb verschillende tests gezien waarin een 9600GT meer dan voldoende bleek. En dan ook nog eens minder stroom gebruikte en dus ook minder warmte produceerde. Tot slot was de herrie van beide met een single-slot koeler ook nog eens minder.
Tesla Model 3 SR+ | 4425wp (Dak) - 1920wp (platdak) - 840wp (gevel 90gr) | Panasonic 5kW warmtepomp | Hewalex WPB 200L boiler
Windows 7 detects HD4000 as DX11 compliant card
Het is een beetje krom om te zeggen dat AMD laat toegang krijgt tot games waar NV veel geld in steekt. NV steekt er geld in, dus hebben ze eerder toegang. Als AMD hier ook hier ook geld in zou steken dan zouden ze ook eerder toegang krijgen. Dus nVidia heeft gewoon een team dat er beter voor zorgt dat game die net op de markt zijn optimaal werken. ATI had dit vroeger ook, maar AMD steekt er tegenwoordig zeer weinig werk in, met al die ontslagen binnen AMD zijn dit ook de extra's waarop het eerst bezuinigd zal worden.CJ schreef op zaterdag 17 januari 2009 @ 02:02:
AMD krijgt dankzij nV's programma soms erg laat toegang tot games waar nV heel erg veel geld in pompt. Dit heeft vaak tot gevolg dat bij release een videokaart vaak niet optimaal benut wordt bij release met als gevolg dat het driverteam van ATI overuren moet draaien om bepaalde dingen goed te laten werken.
Als nVidia ergens veel geld in steekt, zullen ze vast ook wel wat eisen stellen. Het lijkt mij niet geheel ondenkbaar of onlogisch als 1 van die eisen is dat AMD pas laat in de ontwikkelingsfase toegang krijgt tot het geheel om de drivers te optimaliseren.The Source schreef op zaterdag 17 januari 2009 @ 20:07:
Het is een beetje krom om te zeggen dat AMD laat toegang krijgt tot games waar NV veel geld in steekt. NV steekt er geld in, dus hebben ze eerder toegang. Als AMD hier ook hier ook geld in zou steken dan zouden ze ook eerder toegang krijgen. Dus nVidia heeft gewoon een team dat er beter voor zorgt dat game die net op de markt zijn optimaal werken. ATI had dit vroeger ook, maar AMD steekt er tegenwoordig zeer weinig werk in, met al die ontslagen binnen AMD zijn dit ook de extra's waarop het eerst bezuinigd zal worden.
Probleem is dus dat ofwel de ontwikkelaars 'gedwongen' moeten worden om niet met dergelijke praktijken mee te doen (zulke clausules niet accepteren) of een mededingingsonderzoek laten doen door hoge instanties om te zien of er ergens concurentievervalsing is.
Ondertussen, aangezien geen van die 2 opties erg waarschijnlijk toegepast gaan worden in welke nabije toekomst dan ook, is AMD dus gewoon bezig om zijn GITG programma langzaam aan uit te breiden. Als ze daarin goed genoeg slagen (lees: nVidia begint problemen te ondervinden met driverontwikkelingen voor nieuwe games onder het GITG programma, waardoor wat prestaties betreft ze ver achter de ATI hardware komen te liggen in die games) komt er wellicht ooit het moment dat AMD en nVidia een wederzijdse afspraak kunnen maken zodat beide fabrikanten beter voorbereidt hun drivers kunnen bakken voor alle games.
Volgens mij staat er toch echt "DDI version: 10.1" (DirectDrawInterface) in het 2de tabblad van dxdiag.exe. Op het eerste tabblad staat DX11 maar dat refereerd naar welke DX versie er geinstalleerd is (niet welke hardwarematig ondersteund wordt dacht ik).The Source schreef op zaterdag 17 januari 2009 @ 20:07:
http://my.ocworkbench.com/bbs/showthread.php?t=81953
Windows 7 detects HD4000 as DX11 compliant card
[...]
Het is een beetje krom om te zeggen dat AMD laat toegang krijgt tot games waar NV veel geld in steekt. NV steekt er geld in, dus hebben ze eerder toegang. Als AMD hier ook hier ook geld in zou steken dan zouden ze ook eerder toegang krijgen. Dus nVidia heeft gewoon een team dat er beter voor zorgt dat game die net op de markt zijn optimaal werken. ATI had dit vroeger ook, maar AMD steekt er tegenwoordig zeer weinig werk in, met al die ontslagen binnen AMD zijn dit ook de extra's waarop het eerst bezuinigd zal worden.
Dat kan kloppen, want als je kijkt naar DXdiag in Windows XP, dan geeft deze op de eerste pagina DX9 aan (ongeacht kaart) en op pagina 3 (display) staat 'DX9 (or higher)' bij DDI version. Het lijkt me inderdaad dat iemand overhaaste conclusies trok.Blastpe schreef op zaterdag 17 januari 2009 @ 20:20:
[...]
Volgens mij staat er toch echt "DDI version: 10.1" (DirectDrawInterface) in het 2de tabblad van dxdiag.exe. Op het eerste tabblad staat DX11 maar dat refereerd naar welke DX versie er geinstalleerd is (niet welke hardwarematig ondersteund wordt dacht ik).
De drivers die zijn vergeleken.
* Catalyst 8.7
* Catalyst 8.10
* Catalyst 8.11
* Catalyst 8.12
Linkje
Over het algemeen kan je wel een preformance boost zien, zo kan toch wel mooi zien dat nieuwe drivers ook wel helpen. Ook al heb ik zelf toch wel last van een paar irritante bugs met 8.12
[ Voor 21% gewijzigd door wwdtourkane op 17-01-2009 21:20 ]
Om nog even terug te komen op die shaderdomains.CJ schreef op donderdag 15 januari 2009 @ 12:34:
nVidia deed het al eerder. De G70 in 2005 was de eerste GPU waar men met 3 verschillende shaderdomains werkte.
En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.
Is het met de huidige generaties al mogelijk om 'als je weet hoe het moet' de shaders op te pompen?
RV870 single-core, R870 dual-core, R800 quad-core? Zou wel tof zijn als er die quadcore er ook echt komt
Wow, dan is mijn HD3870 dus ook een DX11 kaart, althans in Windows 7The Source schreef op zaterdag 17 januari 2009 @ 20:07:
http://my.ocworkbench.com/bbs/showthread.php?t=81953
Windows 7 detects HD4000 as DX11 compliant card
[...]
[...]
Wat een bull-shit

Advocatus ineptias | Free Speech Online
Normaal krijgen AMD, Nvidia in een beta stage (zeg maar RC candidate) toegang tot de game. Hierdoor kunnen zij optimalisaties in hun drivers doorvoeren. Echter heeft NV een team programmeurs die meehelpt bij de ontwikkeling, dus het optimaliseren van gameroutines voor NV VGA kaarten. Uiteraard wordt er dan gekeken wat het beste is voor NV VGA kaarten. Het zou een beetje dom zijn om moedwillig ATI kaarten te gaan vertragen. Ten eerste wordt dit makkelijk opgemerkt, ten tweede zou de game developer hier nooit aan meewerken, ten derde zou AMD dit kunnen verhelpen met driver optimalisaties.dahakon schreef op zaterdag 17 januari 2009 @ 20:13:
[...]
Als nVidia ergens veel geld in steekt, zullen ze vast ook wel wat eisen stellen. Het lijkt mij niet geheel ondenkbaar of onlogisch als 1 van die eisen is dat AMD pas laat in de ontwikkelingsfase toegang krijgt tot het geheel om de drivers te optimaliseren.
Probleem is dus dat ofwel de ontwikkelaars 'gedwongen' moeten worden om niet met dergelijke praktijken mee te doen (zulke clausules niet accepteren) of een mededingingsonderzoek laten doen door hoge instanties om te zien of er ergens concurentievervalsing is.
Ondertussen, aangezien geen van die 2 opties erg waarschijnlijk toegepast gaan worden in welke nabije toekomst dan ook, is AMD dus gewoon bezig om zijn GITG programma langzaam aan uit te breiden. Als ze daarin goed genoeg slagen (lees: nVidia begint problemen te ondervinden met driverontwikkelingen voor nieuwe games onder het GITG programma, waardoor wat prestaties betreft ze ver achter de ATI hardware komen te liggen in die games) komt er wellicht ooit het moment dat AMD en nVidia een wederzijdse afspraak kunnen maken zodat beide fabrikanten beter voorbereidt hun drivers kunnen bakken voor alle games.
Hoe je het ook went of keert, het is een super slimme zet van NV en het resultaat mag er ook naar zijn. AMD zou dit ook moeten doen echter staat dit programma op een zeer laag pitje ivm NV.
Wat ik dus zeg is dat AMD waarschijnlijk in deze gevallen langer moet wachten met het kunnen optimaliseren van de drivers van een dergelijk spel (tot de release candidates) en daardoor op het moment van release een slechtere prestatie neerzet. Mensen klagen hier graag over, omdat ze (terecht) goed willen kunnen gamen vanaf het begin, maar doordat nVidia een dikke vinger in de pap heeft, moeten mensen met ATI hardware soms een maandje, soms 2 wachten voordat de drivers gelijkwaardige prestaties neerzetten (omdat ze simpelweg die achterstand hebben op de toegang).
Wederom, ik heb het nergens gehad over een nVidia die moedwillig probeert games echt slechter te laten lopen op ATI hardware, ik had het over eventuele clausules die nVidia in staat stellen om eerder met goede drivers bezig te gaan. En ja, het is een goede zet, alhoewel niet in het belang van de gamer, nVidia vaart er wel bij.
The Source zei daarnet dat AMD en nVidia gelijktijdig toegang tot de RC van een game krijgenEr is een verschil tussen de code moedwillig vertragen op ATI-hardware (waar jij het nu over hebt) en het buiten de boot houden van AMD voor driver-optimalisaties tot op het punt dat de game bijna gold gaat (release candidates). nVidia zal ongetwijfeld erg veel goed bruikbare informatie van het spel in ontwikkeling doorsturen naar het driver-team, opdat de drivers zo snel mogelijk en zo goed mogelijk zijn geoptimaliseerd, bij voorkeur voor de release van een spel.
Anoniem: 126513
Die gene die het hoogste bied krijgt een plaatsje en dan komt er ook meestal nog een logo bij zodat je een extra keer op Esc mag drukken als je een spelletje gaat spelen.
Dit topic is gesloten.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!