[Algemeen] ATi Nieuwsdiscussie Topic - Deel 96 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 7 Laatste
Acties:
  • 46.992 views

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Psst. Da's de Rage Fury Maxx. Die is nog ouder dan de 9800 Maxx.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
8)7
http://www.pcgameshardwar...ative_screenshots/?page=3

Review Mirror's edge
X2 lower than low...... :'( Geen crossfire profiel.

[ Voor 16% gewijzigd door Bullus op 14-01-2009 21:50 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Zal wel een hotfix voor komen...

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 10-07 12:54
Bullus schreef op woensdag 14 januari 2009 @ 21:50:
8)7
http://www.pcgameshardwar...ative_screenshots/?page=3

Review Mirror's edge
X2 lower than low...... :'( Geen crossfire profiel.
Dat kan niet kloppen, hij zou nog minstens ongeveer zo snel moeten zijn als 1 HD4870.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Heb het spel niet,anders had ik wel ff getest.
Staan ook geen drivers bij,misschien hebben ze ook cat.8.10 gebruikt O-)

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

offtopic:
* Cassius gniffelt met 8800gtx, zou dat ding nou nooit echt slecht worden ;)

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Anoniem: 134818

CJ schreef op woensdag 14 januari 2009 @ 21:49:
Psst. Da's de Rage Fury Maxx. Die is nog ouder dan de 9800 Maxx.
Hehe, ik zei ook bijvoorbeeld :9 . Ik koos juist de ATI 9800 omdat de 9X00 series toch een ATI incoon is :). Het plaatje was gewoon bedoeld om een ouwe X2 kaart te laten zien... :z

GL laat idd een heleboel zien :P

[ Voor 11% gewijzigd door Anoniem: 134818 op 14-01-2009 22:12 ]


Acties:
  • 0 Henk 'm!

  • Goron
  • Registratie: Januari 2007
  • Laatst online: 05-07 13:01
Maar het hele Nvidia Physx verhaal boeit dus niks? De 4870 haalt even hoge frames als de gtx260! :? Of staan de extra physics uit bij ati kaarten?

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Die staan aan, maar ze zeggen aan het eind dat physX niet (echt) uit maakt. Dat spoort niet met wat ik gehoord en gezien heb, maar na het stukje dat het niet uit maakt staat: Dat ze een Test versie gebruiken en geen release versie dus.

Begin
A additional option activates the PC exclusive GPU Physx acceleration on graphics cards of the Geforce 8 series and above. Radeon users get the same increased visual and physics quality but here the processor has to do the calculations.
Eind
Surprisingly GPU Physx doesn't deliver a noticeable benefit - but this is possibly a problem of our review version.

[ Voor 45% gewijzigd door Anoniem: 134818 op 14-01-2009 22:25 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Ja. Dat staat uit idd.

En dat PhysX boeit wel. Je krijgt er een hoop extra effects mee.
spNk schreef op woensdag 14 januari 2009 @ 22:00:
[...]


Dat kan niet kloppen, hij zou nog minstens ongeveer zo snel moeten zijn als 1 HD4870.
CF geeft gewoon een probleem waardoor het niet werkt. Als je het uitzet haal je gewoon de performance van een enkele HD4870. Maar er zal op korte termijn wel een fix komen, of het profiel zit gewoon in Cat 9.1.
Anoniem: 134818 schreef op woensdag 14 januari 2009 @ 22:23:
Die staan aan, maar ze zeggen aan het eind dat physX niet (echt) uit maakt. Dat spoort niet met wat ik gehoord en gezien heb, maar na het stukje dat het niet uit maakt staat: Dat ze een Test versie gebruiken en geen release versie dus.

Begin

[...]


Eind

[...]
Dat is BS. Als dat zo was dan had mijn CPU het ook moeten renderen als ik het zou uitzetten, en dat doet hij niet. Je hebt gewoon minder effects zonder PhysX.

[ Voor 107% gewijzigd door Format-C op 14-01-2009 22:27 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Radeon users get the same increased visual and physics quality but here the processor has to do the calculations.
Dit is wat ze zeggen. Dus de effecten staan aan, maar gaan op de CPU, maar ATI doet het zelfs met de extra CPU load niet slecht? Begrijp ik dat nu goed?

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Die effecten staan niet aan. Anders had ik ze vandaag wel gezien na het uitzetten van PhysX. Een gedeelte van de effecten verdwijnt gewoon als PhysX uitstaat. En dus wordt de visual quality minder. Of iig de intensiteit van de effecten.

[ Voor 19% gewijzigd door Format-C op 14-01-2009 22:29 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Dat is niet wat zij zeggen, maar je moet ook ff kijken:
but this is possibly a problem of our review version.
. De vraag is dus. Hadden ze wel echt physX?

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Ze kunnen wel meer zeggen. Ik heb de hele dag de game gespeeld. Ik heb het met eigen ogen gezien. Volgens mij hadden ze gewoon geen PhysX.

[ Voor 17% gewijzigd door Format-C op 14-01-2009 22:30 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

UT3.exe voor CF?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik denk ook dat physX niet echt aanstond.

Kan je physX niet aan zetten op een ATI systeem? Ik heb hem nog niet binnen, dus ik kan het je nog niet vertellen hoe en wat...

[ Voor 62% gewijzigd door Anoniem: 134818 op 14-01-2009 22:36 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Ik zal eens een testje doen. Ik deinstalleer PhysX, en zal dan nog eens kijken. :)

Edit; als je PhysX alleen met de CPU doet (kan wel) dan haal je misschien 5FPS op stukken waar veel glas e.d. rondvliegt. Onspeelbaar. Met GPU PhysX haal je gewoon je normale framerate.

PhysX:

Afbeeldingslocatie: http://i43.tinypic.com/dm8xfo.jpg
Geen Physx:
Afbeeldingslocatie: http://i42.tinypic.com/30arz7t.jpg

Dit is 1 kogel. Zonder PhysX zie je gewoon 1 klein sparkje/ nagenoeg geen effect. Of iig weinig.

Als er meerdere kogels om je heen inslaan op deze manier voelt dit realistischer aan, en het wordt intenser. En je wordt váák beschoten! :)

Zoals hier heb je een hal met rookeffecten op de vloeren:

Afbeeldingslocatie: http://i42.tinypic.com/qz0kmu.jpg

Zonder PhysX heb je dat niet:
Afbeeldingslocatie: http://i41.tinypic.com/w2c1fp.jpg

Edit: uit elkaar geschoten ramen zonder PhysX:
Afbeeldingslocatie: http://i44.tinypic.com/23lbbsl.jpg
(Valt nagenoeg geen glas op de grond)

Met:
Afbeeldingslocatie: http://i44.tinypic.com/2yk13k2.jpg
Nog 1 met:
Afbeeldingslocatie: http://i42.tinypic.com/1056wwl.jpg

Veel meer rondvliegend glas, kogels, en glas op de vloer.


Best grappig. :) Het zal me trouwens een biet wezen hoe ze dit doen, en waarmee een gamedev dit doet, maar ik zou graag meer van dit soort dingen in games zien in de toekomst. Of het nu PhysX is of iets anders. Tis wel leuk. :)

[ Voor 114% gewijzigd door Format-C op 14-01-2009 23:31 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

@rappie
Edit; als je PhysX alleen met de CPU doet (kan wel) dan haal je misschien 5FPS op stukken waar veel glas e.d. rondvliegt. Met GPU PhysX haal je gewoon je normale framerate.
Zouden zij geen stukken tegen zijn gekomen zoals dat? Lijkt me toch vreemd... :S

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Lijk mij ook. Ik denk dat ze uit hadden staan.

[ Voor 55% gewijzigd door Format-C op 14-01-2009 23:12 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Of het was in hun test versie nog niet (goed) geïmplementeerd? Dus wat er op lijkt, maar niet helemaal? Kep de vraag daar ook neer gelegd, zien wel of er antwoord op komt :P.

[ Voor 14% gewijzigd door Anoniem: 134818 op 14-01-2009 23:13 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Als mijn Quad Core i7 @ 3780Mhz naar 5 of 10 FPS gaat, en hun E8500 @ 3,6 niet, denk ik dat ze het uit hadden staan. :P

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nog een paar vendors nemen ATI op in het gamma:
Galaxy en Albatron gaan naast Nvidia-videokaarten ook kaarten aanbieden die gpu's van ATI aan boord hebben, aldus Taiwanese bronnen. Met die stap treden ze in de voetsporen van XFX, dat al eerder de beslissing nam om met ATI in zee te gaan.

ATI logo Berichtgeving dat Galaxy en Albatron ook videokaarten van ATI aan gaan bieden, is afkomstig van anonieme bronnen uit Taiwan, schrijft Fudzilla. Voor Albatron zou het een voor de hand liggende keuze zijn, omdat zij van Nvidia alleen in Azië videokaarten mogen verkopen. Ook voor Galaxy is de overstap naar ATI niet heel erg vergezocht, aangezien Galaxy onderdeel is van Palit, dat eveneens videokaarten van ATI verkoopt. Het aanbieden van ATI-kaarten door Galaxy en Albatron betekent dat het aantal fabrikanten dat exclusief Nvidia-videokaarten verkoopt, zoals EVGA, Zotac en BFG, nog verder in de minderheid komt te staan.

De twee videokaart-fabrikanten zijn niet de eersten die de overstap naar ATI maken: XFX ging ze als Nvidia-only partner reeds voor. XFX introduceerde onlangs zijn nieuwe ATI-kaarten, voorzien van een zogeheten double life-time warranty, wat eerst nog voorbehouden was aan de grafische kaarten van Nvidia. Bij XFX zat er drie weken tussen de officiële aankondiging en het daadwerkelijk uitbrengen van de HD 48x0-serie. Of het bij Galaxy en Albatron net zo vlot zal lopen valt nog te bezien, ervan uitgaande dat een officiële aankondiging niet lang op zich laat wachten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Flying_Dutchie
  • Registratie: September 2005
  • Laatst online: 19-01-2022
Ik kan zo vlug nergens een review vinden van 2 x een 4850 in cf vs een 4870? Heeft iemand een link voor me, of weet iemand al welke er sneller uit de bus komt?

Ofdat de 4850 en 4870 512 is of 1 gb maakt niet heel veel uit.
Ik vroeg me dit af omdat nu 4850 x 2 haast net zo duur is als een 4870 1gb.....

Greetz Rob

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Meen je dat echt niets kan vinden? :| HD4850 crossfire review + google = 1e 2 hits....

http://www.hardwarecanuck...e-performance-review.html
http://www.guru3d.com/art...-crossfirex-performance/6

[ Voor 34% gewijzigd door Anoniem: 134818 op 14-01-2009 23:30 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 29-06 15:35

RuddyMysterious

a smorgasbord of waywardness

Wel, om de conclusie hier finaal te maken: de GTX295 heeft het aantal shaders en units van een GTX28x, maar het geheugen en alle clocks van de GTX260-216, ja? Je op cijfers baseren om te zeggen of de GTX295 nu een dual GTX280 of dual GTX260 is, zal dus niet gaan, aangezien hij van beide wel iets overgeërfd heeft.

Een andere optie is om de prestaties van de kaart te vergelijken met die van SLI setups van voorgenomende single-gpu kaarten. Het is simpel, als de GTX295 gelijkwaardig presteert aan 2xGTX260-216, dan kunnen we het een dual GTX260-216 noemen. Als de GTX295 ongeveer zo snel is als twee GTX280 kaartjes in SLI, dan kunnen we het een dual GTX280 noemen. Wat zal het dus zijn?

Tegenover dit alles staat dat hoe je de GTX295 nu juist wilt noemen arbitrair is. Het enige dat uitmaakt is de prijs en hoeveel bang hij voor die bucks geeft. Of hoeveel bang tout court, voor de performancehoeren, natuurlijk. :p

Dus kunnen we gewoon voort met het nieuws? Dat Gold Leader loopt te prediken dat de GTX295 gehakt maakt van de HD4780X2 is zijn probleem, tenminste als hij die roddels niet verspreid naar welwillenden die zijn verhaal overnemen. O wee voor die anderen en hun toekomstige keuzes. Als je echter aanneemt dat ze elders even fris in het hoofd zijn als hier zullen ze snel genoeg door Gold Leader's groene mist kunnen turen en zullen ze zien dat het verhaal niet zo zwart-wit is als hij ze wil doen geloven. Dus heb vertrouwen in de medetweaker. ;)

**SNIP**

[ Voor 8% gewijzigd door dion_b op 15-01-2009 23:58 ]


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik vond mijn Dual GTX 260 core 240 eigenlijk wel goed gevonden :P.

_/-\o_ Pulp Fiction _/-\o_

[ Voor 19% gewijzigd door Anoniem: 134818 op 14-01-2009 23:33 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Cassius schreef op woensdag 14 januari 2009 @ 23:33:
Ik snap niet dat mensen hierover zo'n heisa maken ... het zijn toch maar glas scherven :/ ?
Heisa? ik laat gewoon wat PhysX screenshots zien. :+ In-game voelt het toch een stuk drukker aan, er gebeurt meer... Hectischer. Alleen kan je dat op een paar screenshots niet zien. Je moet het geheel zien. Het is iig leuker met dan zonder PhysX.

Ik vind het leuk. :)

Maar goed. Gaan jullie het nog maar even over de GTX295 hebben. Ik ga nog wel ff "Edgen" :P

[ Voor 33% gewijzigd door Format-C op 14-01-2009 23:43 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Flying_Dutchie
  • Registratie: September 2005
  • Laatst online: 19-01-2022
Srry reinman, ik las er totaal overheen :$ ik was gefocussed op de woordcombinatie 4850 maal/x 2...

Maar lees toch ongeveer overal hetzelfde, dat een 4870 ofwel single core kaart stabieler presteerd dan een cf setup van 2 lichtere kaarten. Ofwel de cf setup zal op sommige spellen beter presteren, maar de single kaart op de meeste spellen beter vanwege niet ondersteuning van cf setupje in veel spellen.

Thnx Btw

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Flying_Dutchie schreef op woensdag 14 januari 2009 @ 23:43:
Srry reinman, ik las er totaal overheen :$ ik was gefocussed op de woordcombinatie 4850 maal/x 2...

Maar lees toch ongeveer overal hetzelfde, dat een 4870 ofwel single core kaart stabieler presteerd dan een cf setup van 2 lichtere kaarten. Ofwel de cf setup zal op sommige spellen beter presteren, maar de single kaart op de meeste spellen beter vanwege niet ondersteuning van cf setupje in veel spellen.

Thnx Btw
Geeft niet, googlen is een vak ;) ( echt ik heb les gehad in hoe je zoek termen moet toe passen :'( ) . Ik zou alleen dit veranderen naar:
vanwege niet ondersteuning van cf setupje in veeleen aantal spellen.
De meeste spellen pakt ie wel gewoon hoor :)
RappieRappie schreef op woensdag 14 januari 2009 @ 23:35:
[...]


Maar goed. Gaan jullie het nog maar even over de GTX295 hebben. Ik ga nog wel ff "Edgen" :P
Ugh, kunnen we het niet over RV790 Speculaas hebben? :9.
Anoniem: 134818 in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
Helemaal niemand over mijn onderbouwen voor een hoge core snelheid? :> 8)

[ Voor 6% gewijzigd door Anoniem: 134818 op 14-01-2009 23:51 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 13:51

Format-C

Tracing Rays

Flying_Dutchie schreef op woensdag 14 januari 2009 @ 23:43:
Srry reinman, ik las er totaal overheen :$ ik was gefocussed op de woordcombinatie 4850 maal/x 2...

Maar lees toch ongeveer overal hetzelfde, dat een 4870 ofwel single core kaart stabieler presteerd dan een cf setup van 2 lichtere kaarten. Ofwel de cf setup zal op sommige spellen beter presteren, maar de single kaart op de meeste spellen beter vanwege niet ondersteuning van cf setupje in veel spellen.

Thnx Btw
Je moet gewoon even gaan kijken welke spellen je graag speelt, en dan wat reviews van de HD4870X2 of HD4850X2 zoeken, en kijken hoe die kaarten in die betreffende games het doen. Tegenwoordig werkt CF best in heel veel games hoor. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 23009 schreef op woensdag 14 januari 2009 @ 23:53:
[...]

Offending me?
[afbeelding]

maargoed je hebt wel een punt, maardan nog, het is toch al te laat.....en ik **** me moeder geliever niet ga je eigen moeder maar pesten of dat andere... als je het zo wilt hebben ;)

De admins of mods hebben nu een voordeel twee eigenlijk A ze kunnen me bannen en ten tweede ik wil het ook ;)

dus ja betere voordelen dan dat is er toch niet ;)
Umm, je wil geband worden? begrijp me niet verkeerd, maar is dit een van die 'buien' waar in je al je 3Dfx dingen verkoopt? :| . Ik meende dat je dat gedaan had. Sorry als ik dat verkeerd had begrepen :X .

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Jongens kappen met die kinderachtige zooi. Hoe oud zijn jullie nou eigenlijk? Maak een nieuw topic aan om elkaar af te zeiken alsjeblieft zeg. Spreek gewoon Nederlands zodat iedereen het begrijpt. En het weg edit-en van lelijke opmerkingen tegen anderen helpt niks, want de mods kunnen toch zien wat er stond.

-O-

Anyway, back on topic. Hardware Infos meldt dat sinds een paar dagen de eerste RV790 samples draaiende zijn. Ze zouden op 750Mhz core en 900Mhz GDDR5 draaien. De RV740 draait al wat langer en is dus wat verder gevorderd. Die zou volgens hen op 700Mhz core draaien en 900Mhz GDDR5 mem.

Bron: http://www.hardware-infos.com/news.php?news=2658

Wat er waar van is? Binnenkort wordt er vast nog wel meer gelekt op andere plekken. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Die 750mhz core gaat hem echt niet worden. Die gaat echt omhoog. Gegarandeerd(door mij :9)

Acties:
  • 0 Henk 'm!

Anoniem: 215257

Laten we nou gewoon allemaal even rustig doen...

Over die kaart, ik denk niet dat ATi het daarmee redt, ze moeten wel wat meer doen om nV te ownen. Het is weer precies zoals de vorige keer denk ik, dat ze ineens uit het niets met een goede kaart komen..

[ Voor 68% gewijzigd door Anoniem: 215257 op 15-01-2009 00:12 ]


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Sja, als je terug kijkt op de 'rumor' dan zou dat toch moeten kunnen.

960 Shaderprocessors(dus 192 Shader units)
48 TMU's
850+ core clock. (Laten we conservatief hem op 875 zetten)
40nm

vs

800 Shaderprocessors(160 Shader Units)
40 TMUs
750 core clock
55nm

Zou toch een pak(ie) sneller zijn dan de RV770. Met ongeveer dezelfde power requirements(kleinere procedee, maybe extra tweaks).

Edit:
Hey, als ik terug kijk hebben ze eerst de HD4850 op de markt gegooid. Dus misschien is dit de HD4950(960 shaders, 750Mhz, 3,6GHz GDDR5) eerst en is de HD4870 pas later(960 shaders, 900mhz, en 7 Ghz GDDR5). :D :P :9 :P

Damn: 960 shaders, 900mhz en 7 Ghz GDDR5 :| Dat zou uber zijn. Daarna nog een X2 voor 1920 shaders :|

* Anoniem: 134818 hoopt dat ie gelijk heeft.

[ Voor 42% gewijzigd door Anoniem: 134818 op 15-01-2009 00:37 ]


Acties:
  • 0 Henk 'm!

  • Flying_Dutchie
  • Registratie: September 2005
  • Laatst online: 19-01-2022
Anoniem: 134818 schreef op woensdag 14 januari 2009 @ 23:46:

De meeste spellen pakt ie wel gewoon hoor :)
Idd je hebt gelijk, sooo :O wist niet dat het verschil zo groot was :O Vooral in die eerste link die je gaf is het goed te zien. Hij stoomt in haast alle benches ruim voorbij de 4870 single card, en zelfs de gtx 280 1gb! Vaak zit ie ook zelfs dichtbij 2 x hd4870. Dat had ik niet echt verwacht eerlijk gezegd.

Nu zit ik toch weer te twijfelen om 2 x die hd4850 te pakken... Hmzzz

Zou dit verschil hetzelfde zijn wanneer ze in de benches 4850 1gb 2 x gebruikt zouden hebben tegenover 1 x hd4870 1gb?

Greetz Dutchie

Owja en gaat mn Thermaltake Silent Purepower 560w dit wel trekken 2 x 4850? Denk het eik niet...

Acties:
  • 0 Henk 'm!

  • Q_7
  • Registratie: December 2006
  • Niet online

Q_7

Hier stond onzin..

[ Voor 112% gewijzigd door Q_7 op 15-01-2009 01:10 ]

AMD 9950X3D - X670E-Hero - G.Skill Royal Neo 48GB 6400 CL26 1:1 - RTX 5090 TUF 32GB - 9100Pro 2TB - BeQuit 1500w - Corsair 6500D - LG 3440P 240Hz WOLED


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik denk dat het effect wel kleiner is. Het ligt ook een beetje aan je resolutie. De core moet nog wel snel genoeg zijn om er echt goed gebruik van te maken. Zoek anders naar de reviews van de HD4850X2 vs HD4850 CF. Zal vast wel een te vinden zijn met goed zoeken.

Welke voeding heb ik nodig? Deel 21

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Reinman ik snap niet waarom je 875MHz voor de core conservatief vind :X ... dat gaan ze stock echt niet op dat tempo uitleveren volgens mij. Ik houd het nog even op een core clock van rond de 780-820MHz als ik zo kijk naar het landschap.

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Flying_Dutchie schreef op donderdag 15 januari 2009 @ 00:48:
[...]


Idd je hebt gelijk, sooo :O wist niet dat het verschil zo groot was :O Vooral in die eerste link die je gaf is het goed te zien. Hij stoomt in haast alle benches ruim voorbij de 4870 single card, en zelfs de gtx 280 1gb! Vaak zit ie ook zelfs dichtbij 2 x hd4870. Dat had ik niet echt verwacht eerlijk gezegd.

Nu zit ik toch weer te twijfelen om 2 x die hd4850 te pakken... Hmzzz

Zou dit verschil hetzelfde zijn wanneer ze in de benches 4850 1gb 2 x gebruikt zouden hebben tegenover 1 x hd4870 1gb?

Greetz Dutchie

Owja en gaat mn Thermaltake Silent Purepower 560w dit wel trekken 2 x 4850? Denk het eik niet...
Ik zou dan toch eens naar de HD4850 X2 kijken ipv 2x HD4850. Die zou toch ietsjes sneller moeten zijn.


En over die RV790. Die extra shaders gaan wel helpen echter is een hogere clockspeed wel handig (800+ MHz.) Dan komen ze denk ik dicht bij de performance van de GTX285. Echter is nVidia ook met de GT212 chip bezig.

En dan is weer de vraag is die RV790 40nm? zo ja dan kunnen hebben ze weer een voordeel in de kostprijs per chip. Al verwacht ik dat die GT212 ook wel 40nm zal worden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 126513

Conservatief is behoudend, niet veranderen, dan zeg je eerder laten we conservatief blijven en dus de kloks iets lager houden ipv voortuitgang.
Want progressief is vooruitgang, verandering.

160 shaders extra vind ik niet veel. In CF dus maar 320 shaderengines extra. Ik hoop toch op wat meer. Voor high-end eerder 1200 shaders, mag wel op 750MHz lopen dan hoor. Ik zie liever architectuur verbeteringen dan klokspeeds verhoging. Want in klokspeeds zit altijd nog rek in.
En wat als nVidia op de zelfde klokspeeds zou lopen als ATi, Ze lopen al jaren op lagere speeds, zegt ook wat over hun architectuur.

ATi heeft lang het voordeel gehad van het snelste procedee maar dat lijkt nu langzamerhand wel afgelopen te zijn. Aan de andere kant heeft nVidia altijd een volledig getest en bewezen te werken procedee gehad wat dus meer zekerheid geeft. Ben benieuwd hoe dit gaat lopen.

En trouwens die Physics of PhyX, hoe het ook mag heten. Laat maar komen, hier ben ik al lang op aan het wachten. Ik zie liever alles om me heen in het rond vliegen met alle parabolische bwegingen dan dat ik het water elke keer zie verbeteren of de textures. De uitwerking van de omgeving op jou handelen is heilig voor mij. De natuur maakt het zo veel echter, soms kan ik me gruwelijk ergeren aan idote natuurwetten, zelfs met HAVOK.
Ik hoop dan ook echt dat ze dit met openCL eindelijk eens goed kunnen implementeren zodat de hardware dit ook echt kan gaan renderen met goede workloadverdeling.

Acties:
  • 0 Henk 'm!

Anoniem: 134818

160 shaders extra vind ik niet veel. In CF dus maar 320 shaderengines extra. Ik hoop toch op wat meer. Voor high-end eerder 1200 shaders, mag wel op 750MHz lopen dan hoor. Ik zie liever architectuur verbeteringen dan klokspeeds verhoging. Want in klokspeeds zit altijd nog rek in.
En wat als nVidia op de zelfde klokspeeds zou lopen als ATi, Ze lopen al jaren op lagere speeds, zegt ook wat over hun architectuur.
Het is 'maar' een upgrade stap(vandaar ook RV790) en nog geen nieuwe RV870, die nog moet komen. Ik vind 160 shaders extra + een klokspeed bumb een hele verbetering.
Nvidia loopt helemaal niet op de zelfde clockspeeds. Hell die kan je niet eens met elkaar gaan vergelijken. Een shader van ATI loopt op de clocksnelheid(dus 750mhz) en die van nvidia verschilt de rest tenopzichte van de shaders(core 500mhz shaders 1500mhz). Dit betekend letterlijk dat als er 1 shader bewerking is, in een shaders unit(ATI min 1 ~ max 5 bewerkingen. Nvidia 1), dan is Nvidia gewoon sneller door die hogere core clock. Ik heb boven ook al neer gezet dat in een tik, een nvidia shader, tenopzichte van een ati shader 2 bewerkingen kan doen en in die klok tik ATI er minimaal 1 of maximaal 5. Dat ligt aan de shader bewerking
Waar komt het dus op neer:

160 shaderUnits die 5 bewerkingen kunnen doen op 750
240 shaderUnits die 1 bewerking kunnen doen op 1500
192 shaderUnits die 5 bewerkingen kunnen doen op 1000

Het verschil tussen 1 bewerking is bij 1500mhz betekend een halve bij 750. Bij 1000mhz is dit twee derde. Het verschil tussen een slechte geoptimaliseerde shader bewerking word dus kleiner.

[ Voor 38% gewijzigd door Anoniem: 134818 op 15-01-2009 11:42 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 126513 schreef op donderdag 15 januari 2009 @ 11:00:
160 shaders extra vind ik niet veel. In CF dus maar 320 shaderengines extra. Ik hoop toch op wat meer. Voor high-end eerder 1200 shaders, mag wel op 750MHz lopen dan hoor. Ik zie liever architectuur verbeteringen dan klokspeeds verhoging. Want in klokspeeds zit altijd nog rek in.
En wat als nVidia op de zelfde klokspeeds zou lopen als ATi, Ze lopen al jaren op lagere speeds, zegt ook wat over hun architectuur.
De core van nVidia kaarten loopt over het algemeen iets trager ja, dat klopt. De shaders daarentegen, zijn bij nVidia al jaren hoger geclocked dan bij ATI, aangezien nVidia een aparte clock heeft voor de shaders. Het zou interessant zijn om te weten of ATI ook een aparte clock voor de shaders kan toepassen in het RV770/RV790 ontwerp.

Voor een high-end kaart 1200 shaders, ik zie het nog even niet gebeuren. Zeker niet als je ze vergelijkt met de 160 die een HD4870 momenteel heeft. Dat zou een factor 7.5 keer zoveel shaders zijn. Dit in het ontwerp van ATI, zou uitkomen op 6000 shaders... Waar zouden ze die moeten laten als ze een kleine chip willen hebben.
Als je bedoeld 1200 shaders, zoals de HD4870 momenteel 800 heeft, ja dan zou het iets meer realistisch klinken. Dat zou 240 normale shaders inhouden, gelijk aan de GTX280/285, alleen dan lager geclocked.

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Fudzilla komt met bericht de Radeon HD48xx nog steeds goed verkopen, mede dankzij de onlangs doorgevoerde prijsverlagingen. Fudzilla komt met de volgende verkoopprijzen:

Gemiddelde verkoopprijs GTX295: ~ € 450,00
Goedkoopste HD4870X2: € 366,00
Goedkoopste GTX260 (55nm): € 257,00
Goedkoopste HD4850X2: € 215,00
Goedkoopste GTX260 (65nm): € 213,00
Goedkoopste HD4870 1GB: ~ € 200,00
Goedkoopste HD4870 512MB: € 170,00

Ik blijf het weliswaar erg vreemd vinden dat Sapphire de enige fabrikant is die de HD4850X2 produceert. :S

[ Voor 13% gewijzigd door Indy91 op 15-01-2009 12:21 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
dahakon schreef op donderdag 15 januari 2009 @ 11:21:
[...]

De core van nVidia kaarten loopt over het algemeen iets trager ja, dat klopt. De shaders daarentegen, zijn bij nVidia al jaren hoger geclocked dan bij ATI, aangezien nVidia een aparte clock heeft voor de shaders. Het zou interessant zijn om te weten of ATI ook een aparte clock voor de shaders kan toepassen in het RV770/RV790 ontwerp.
Ik heb dit mensen wel vaker zien zeggen, maar ik zie het hele punt niet zo. Een ontwerp als dat van NVIDIA is vanaf de grond ontworpen om op twee verschillende snelheden te draaien. Dat heeft ongetwijfeld weer z'n eigen nadelen gehad waar AMD dan weer geen last van heeft. Als het zo simpel te doen was had AMD het vast gedaan, maar het feit dat ze het niet doen geeft volgens mij wel aan dat het niet genoeg voordelen heeft.

(Mag ik mensen er trouwens op wijzen dat "shader" de naam is voor de code die wordt uitgevoerd door je GPU, en niet de naam voor de hardware die het uitvoert. Stream processor is al een vreselijke naam, maar kan er mee door omdat zowel AMD als NVIDIA het gebruiken. De SPs echter "shaders" noemen is analoog aan je CPU "code" noemen :P)

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Om het echt goed te zeggen zijn het bij ATI StreamprocessingUnits welke elk 5 streamprocessors bevat :)

Acties:
  • 0 Henk 'm!

Anoniem: 126513

Vanaf de G80 hebben ze idd de shaderklok en de core klok gescheiden. Het is dan nog geen jaren maar wel al een tijdje. En ze hebben dit idd nog verder verbeterd zoals reinman aangeeeft
Ik ging wel even uit van 800 streamprocs aangezien ATi hier ook mee adverteerd. Het is idd zoals reinman het uitlegt de echte shadersengines van ATi kunnen bijna 2,5x zoveel bewerkingen doen dan die van nVidia, daar tegenover kan de shaderklok van nVidia wel een stuk hoger. Volgens mij 5 operations per streamprocessor zodat ze idd op 800 uitkomen. Vandaar dat er ook genoeg power in lag voor shader based AA resolve, wat dus nog niet echt toegepast wordt.
Ik probeerde eigenlijk de vergelijking puur tussen cores te maken , dus rauwe snelheid. Aangezien nVidia een veel grotere core heeft zullen die gelijke kloks wel nooit kunnen. Maar het was puur theoretisch.

Ok, voor een RV790 zou het niet slecht zi9jn. 960 streamprocs + hogere kloks. Stiekem vind ik de RV740 technisch gezien toch een mooier kaartje.

edit:
Volgens mij klopt dat idd Reinie, CJ kon dat meestal mooi uitleggen, al vanaf Xenos begon het alle kanten op te gaan.
Ah shader is de code.. Maar zonder code heb je ook een dode CPU of niet soms. Kan ik er een alien code doorheen sturen, daar snapt die aardse CPU niks van. Net zoals een lichaam zonder lifespirit.

[ Voor 14% gewijzigd door Anoniem: 126513 op 15-01-2009 12:33 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
nVidia deed het al eerder. De G70 in 2005 was de eerste GPU waar men met 3 verschillende shaderdomains werkte. ;)

En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.

[ Voor 14% gewijzigd door CJ op 15-01-2009 12:36 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik meende dat de Texture Units op half core speed werkten?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
CJ schreef op donderdag 15 januari 2009 @ 12:34:
nVidia deed het al eerder. De G70 in 2005 was de eerste GPU waar men met 3 verschillende shaderdomains werkte. ;)

En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.
Dat is dus ook de reden waarom ik het weer naar voren bracht. Het was een heet be-discussieerd onderwerp voorafgaande de launch van de HD4k series. Wie weet hoe ver ATI het heeft doorgevoerd. Het kan simpelweg niet energie-efficient beschouwd worden op de 55nm gpu's, maar misschien wel voor de 40nm gpu's. Dit alles is natuurlijk niets anders dan mogelijkheden bekijken, maar wie weet wat AMD met hun SPU's (streamprocessorunits, je hebt gelijk natuurlijk snoitkever) gaat doen voor de 40nm GPU'ss.

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik denk dat ze voor de RV790 het niet doen. Het is logischer dat het gewoon een lichte upgrade van de RV770 is. Dan lijkt me een aparte shaderunit klok wel in eens heel radicaal.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 134818 schreef op donderdag 15 januari 2009 @ 12:37:
Ik meende dat de Texture Units op half core speed werkten?
Nee, dat is het niet. Die werken gewoon op core snelheid.

Wat betreft de texture units... deze zijn wel uitgekleed ten opzichte van de R600.
An interesting tidbit we're is that 64-bit filtering capability has gone from one value per clock to half of that-which means 2 clocks per bilinear filtered 64-bit color value. This was done because having full rate 64-bit filtering consumed quite a chunk of silicon, and internal analysis showed that perf/W and perf/mm2 would increase if the filtering rate was reduced and thus transistors were saved, allowing for more TUs to be implemented overall. Going by the quoted performance numbers and what we've seen in practice in terms of 64-bit filtering, this was a correct engineering choice.
Hier kan je precies lezen wat er verandert is in de texture units: http://www.rage3d.com/rev...rchitecture/index.php?p=5

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 23009

CJ schreef op donderdag 15 januari 2009 @ 12:34:
nVidia deed het al eerder. De G70 in 2005 was de eerste GPU waar men met 3 verschillende shaderdomains werkte. ;)

En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.
Was dat niet de NV40? Deze kan Shader Model 1.0, 1.1, 1.2, 1.3, 1.4, 2.0a, 2.0b en 3.0 oftewel Shader Model series 1, 2 en 3 die de 3 verschillende shaderdomains beschrijven. ;)

Alleen net als G70/G71 die kon niet HDR + FSAA combineren iig G70 is niets anders dan een opgefokteNV45 ;) de NV 45 is de NV40 voor de PCI-E bus voor de gene die dit niet wisten.

ATi's R420 was s'wereld's eerste 4 in 1 Texture compression VPU :) dat was weer zijn voordeel :) Deze tech heet 3Dc Texture Compression.

[ Voor 22% gewijzigd door Anoniem: 23009 op 15-01-2009 18:33 ]


Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 12-07 21:10

Milmoor

Footsteps and pictures.

Was die techniek niet afkomstig van de Savage 3? Volgens mij heeft ATI indertijd de texture compression van S3 overgenomen. Dat was toen een van de sterke punten van S3.
edit:
Zoek en vindt.

Wikipedia weet alles: de techniek zat in de Savage 3, en 3DC is afgeleid van DXT5, welke ontwikkeld is door S3. ATI was wel de eerste met 3DC.

[ Voor 65% gewijzigd door Milmoor op 15-01-2009 18:43 ]

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 23009 schreef op donderdag 15 januari 2009 @ 18:28:
[...]

Was dat niet de NV40? Deze kan Shader Model 1.0, 1.1, 1.2, 1.3, 1.4, 2.0a, 2.0b en 3.0 oftewel Shader Model series 1, 2 en 3 die de 3 verschillende shaderdomains beschrijven. ;)
Nee. De verschillende shaderdomains of beter gezegd 'clockdomains' heeft absoluut niks met het shadermodel te maken.

De G70 had 3 verschillende clockdomains:
- Core clock / Shader domain: 430Mhz
- Core clock / ROP domain: 430Mhz
- Core clock / Geometric domain: 470Mhz

In de latere uitvoering van de G70, de amper te verkrijgen 7800GTX512, werden alle drie de domeinen gelijk getrokken naar 550Mhz. Men kwam er achter dat er verschillende domeinen binnen de G70 zaten omdat overklokken vaak al vrij vroeg artefacts gaf... dit was terug te traceren naar de Geometry Domain die al 40Mhz overgeklokt was.
ATi's R420 was s'wereld's eerste 4 in 1 Texture compression VPU :) dat was weer zijn voordeel :) Deze tech heet 3Dc Texture Compression.
En nu heet het BC5 in DirectX10. Het is inmiddels een standaard formaat geworden, dus ook alle nVidia DirectX10 kaarten zoals de GTX285 en GTX295 ondersteunen het. En in veel games zit het nu standaard ook al verwerkt zoals Crysis.

Dus stiekem heeft ATI toch een succes geboekt met 3Dc daar waar toendertijd veel mensen twijfelden aan het nut er van dan wel de mogelijkheid van ATI om het te pushen bij developers.

Edit: ATI heeft de jaren terug de drie key-personen van S3 overgenomen die achter S3TC (nu DXTC in DirectX) zaten. 1x raden wie bij ATI verantwoordelijk waren voor de ontwikkeling van 3Dc?

[ Voor 6% gewijzigd door CJ op 15-01-2009 18:57 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-07 08:52
http://theovalich.wordpre...king-application-is-here/
Ultimate GPGPU hacking application is here!

[ Voor 20% gewijzigd door The Source op 15-01-2009 18:59 ]


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 18:53

Apoca

Array Technology Industry

Wow, nice stukje :)



Zag net dit staan:

Review: ATI Avivo Video Converter Does Not Support Stream

http://en.expreview.com/2...based-on-cpu-not-gpu.html

[ Voor 26% gewijzigd door Apoca op 15-01-2009 20:03 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-07 08:52
Apoca schreef op donderdag 15 januari 2009 @ 19:14:
[...]


Wow, nice stukje :)



Zag net dit staan:

Review: ATI Avivo Video Converter Does Not Support Stream

http://en.expreview.com/2...based-on-cpu-not-gpu.html
Avivo draait zelfs sneller op een nVidia kaart. Ik vraag me af wat de kwaliteit van de andere reviews is als dit blijkt te kloppen... hebben die dan zo zitten slapen. De screenshots daar zie je het kwaliteits verschil ook duidelijk.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Heb ff snel Mirror's edge getest op 1680x1050 alles max/ 8xAA op Windows 7.
In het begin had ik rond de 60FPS.
Daarna kreeg ik een bsod,drivers is nog instabiel op windows 7.Heb ik ook last van met andere spellen.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Computerbase had begin december ook een review van de Avivo Video Converter en die zagen daar wel degelijk een verschil tussen de HD4870 en HD4670. Het was zelfs zo dat een HD4850 niet veel onder deed voor een HD4870, maar dat kwam omdat de HD4870 in 2D modus draaide en dus op een lagere kloksnelheid werkt bij het coderen. En de HD4830 lag nog iets verder achter vanwege gedisablede quads.

Het lijkt me dat er iets is mis gegaan bij de test van de Chinezen.

http://www.computerbase.d...o_converter_benchmarks/3/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Balkz
  • Registratie: Oktober 2002
  • Laatst online: 05-06-2023
Dat de converter meer CPU gebruik vertoont neemt natuurlijk niet weg dat er geen gebruik wordt gemaakt van de GPU. Het artikel is nogal krom in zijn conclusies.

Ik meen ook te hebben gelezen dat AVIVO slechts voor een klein maar zeer rekenintensief deel van het conversieproces gebruik maakt van de GPU en de rest zoals vanouds door de CPU laat afhandelen. Ongetwijfeld leunt Badaboom meer op de GPU.

Was nichts kostet, ist auch *NIX.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Vergeet niet... de Avivo Video Transcoder is gratis en door ATI zelf ontwikkeld. Je betaalt nog altijd $30 voor Badaboom en die is ook door een third party developer ontwikkeld.

Binnenkort een betere vergelijking tussen twee applicaties waar je voor betaalt. Badaboom vs PowerDirector. Zie de press release van 10 januari 2009:
CyberLink PowerDirector 7 Optimized for ATI Stream Technology from AMD

The First Consumer Video Editing Software Optimized for ATI Stream Encoder

Taipei, Taiwan—January 10, 2009—CyberLink Corp. (5203.TW), innovative solution provider for the connected media lifestyle, launches today the latest PowerDirector 7 optimized for ATI Stream technology with accelerated MPEG2 and H.264 video encoding performance.

ATI Stream technology allows applications to take advantage of a graphic processing unit’s massive compute capability for demanding algorithms such as video editing. CyberLink PowerDirector 7 leverages ATI Stream technology to maximize transcoding performance when rendering MPEG2 and H.264 video files that users can output and view on the iPod®. PowerDirector 7 supports Stream-enabled ATI Radeon™ HD 4800 and ATI Radeon™ HD 4600 series graphic card solutions.

“PowerDirector 7 is a prime example of how ATI Stream technology can accelerate and streamline processing intensive PC tasks to improve the experience for consumers,” said Matt Skynner, vice president of product marketing, Graphics Products Group, AMD. “We are excited about the impressive results PowerDirector 7 is yielding with our innovative GPU technology and we applaud CyberLink’s commitment to deliver great HD video editing performance for video enthusiasts.”

"CyberLink is happy to collaborate with AMD, optimizing PowerDirector 7 as the first consumer video editing software with ATI Stream technology,” said Alice H. Chang, CEO of CyberLink. “With the growing popularity of video editing and AMD’s focus on developing advanced graphic and computing solutions, we felt it was a natural step to deliver accelerated software performance to allow users to spend more time on creating and sharing HD videos and less time waiting."
http://www.cyberlink.com/...-news-content.do?pid=1997

Overigens ook interessant om te zien hoe PowerDirector het doet vs Badaboom op GeForces onderling aangezien het ook op GeForces geaccelereerd wordt.

[ Voor 4% gewijzigd door CJ op 15-01-2009 22:33 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 13:41

dion_b

Moderator Harde Waren

say Baah

Modbreak:Gisteren had Gold Leader duidelijk een wat mindere dag. Ik heb de betroffen posts en reacties verwijderd, aangezien ze niets inhoudelijks (onderbouwd) toevoegen aan het topic.

Dat een aantal mensen zich flink geergerd hebben aan wat er gebeurde is dudelijk en begrijpelijk - het was ook ver over de schreef. Excuses dat we niet in staat waren eerder in te grijpen.

In ieder geval zou ik degenen die on-topic bleven en degenen die behulpzaam opbouwend kritiek gaven willen bedanken :)

De enkeling die minder constructief bezig was hoort nog van ons, en intern zal ook besproken hoe verder te gaan met Gold Leader.

[ Voor 4% gewijzigd door dion_b op 15-01-2009 23:42 ]

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Vraagje
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.

Wil ik vanmiddag wel ff proberen of het werkt.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

Anoniem: 234350

Het lijkt dat Sapphire ook een passief gekoelde 4670 gaat uitbrengen (na HIS): zie deze site. Op de officiele site van Sapphire is verder nog niks te vinden, dus ik ben benieuwd wanneer 'ie op de markt komt!
Een passieve 4670 is namelijk precies wat ik in de komende weken ga kopen...

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Bullus schreef op vrijdag 16 januari 2009 @ 08:02:
Vraagje
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.

Wil ik vanmiddag wel ff proberen of het werkt.
In vista kan je het denk ik vergeten(die laat maar 1 display driver toe). In XP zou het mogelijk moeten zijn.

[ Voor 3% gewijzigd door Anoniem: 134818 op 16-01-2009 10:06 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Zonder de drivers te installeren,alleen dus het PhysX software.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Werkt de kaart dan wel? Ach, proberen kan altijd! :D

Ik vind mirrors edge eigenlijk niet zo leuk, ik word nog al gefrustreerd van het constant dood vallen. :X . Ik ben gewoon niet goed in runny jumpy parcours games(PoP heb ik ook al geen zin meer in). Ik moet zeggen dat het verschil met physX aan vs uit subtiel is, en dat het imho met een goeie software implementatie op de CPU ook voor elkaar gekregen zou zijn(nog maals imho). Zo veel troep vloog er ook weer niet rond. Ik vond het niet echt heel spectaculair, maar het verschil is dat physX wel voor een betere beleving zorgt. :) . Ik ben dus gematigd positief.

[ Voor 88% gewijzigd door Anoniem: 134818 op 16-01-2009 10:38 ]


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 10:21
Bullus schreef op vrijdag 16 januari 2009 @ 08:02:
Vraagje
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.

Wil ik vanmiddag wel ff proberen of het werkt.
ATI+NVIDIA Physx

"this cannot be done in vista. xp cant run vantage. so how? windows 7.
games are INSANELY smooth as well. anything with or without physx runs really well on my dell 30" at full res."

[ Voor 15% gewijzigd door Blastpe op 16-01-2009 11:05 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Tnx voor de link, het werkt dus wel in W7 voor Vantage + games.
Ik ben benieuwd of het mij ook lukt.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Vandread
  • Registratie: November 2003
  • Laatst online: 09-07 16:10
Waar staat dat het ook voor games werkt? Mirrors Edge zou een mooie zijn om te testen :9
Weer een goede reden om Vista over te slaan =) NV+ATI in combo... dromen komen uit :P weg met fanboys, best of both worlds ^^

[ Voor 41% gewijzigd door Vandread op 16-01-2009 12:00 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Vandread
  • Registratie: November 2003
  • Laatst online: 09-07 16:10
ff ? flink topicje aan het worden ;)
Wat voorbeelden en vergelijken zouden interesant zijn wat betreft games.
Maar ik denk dat we veel meer van dit spul gaan zien in de komende tijd dus dat zal vanzelf kenbaar worden.

Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Bullus schreef op vrijdag 16 januari 2009 @ 08:02:
Vraagje
Heeft er iemand al geprobeerd om naast een ATI kaart, een Nv-kaart te gebruiken voor PhysX op een X58 mobo?
Heb thuis nog 1 liggen,8400GS volgens mij.
PhysX kaart hoeft niet aangesloten met een bridge of wel?
Anders houdt het al op.

Wil ik vanmiddag wel ff proberen of het werkt.
Ik geloof dat een 8400GS niet echt de power heeft om PhysX te trekken, maar ik heb daar geen bron van.

Reinman, had jij laatst niet een stukje waar dat in stond?

specs


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Misschien niet,maar om te testen of het werkt is dat genoeg.
Als het werkt, ga ik misschien een 2e handse 8800gt of zo halen.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • kalizec
  • Registratie: September 2000
  • Laatst online: 16-04 23:54
Ik denk dat je aan een 9600GT dan meer hebt, want ik heb verschillende tests gezien waarin een 9600GT meer dan voldoende bleek. En dan ook nog eens minder stroom gebruikte en dus ook minder warmte produceerde. Tot slot was de herrie van beide met een single-slot koeler ook nog eens minder.

Mocht je die tests willen zoeken. Het ging op SLI en Tri-SLI oplossingen waarbij er voor PhysX een 9600GT bij werd gezet.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Volgens mij heb je gelijk,want ik zie geen hogere score met vantage.
Ben nu een ander programma(nurien-alpha) aan het dowloaden,kijken of het daar wat scheelt.

Maar het lukt wel om beide drivers te installeren en zie ze ook gewoon in windows7.
Physics software herkent ook een physics kaart,maar zie ik geen verschil met of zonder Physics.

Haal nu ook een lagere score met vantage
Afbeeldingslocatie: http://i82.photobucket.com/albums/j274/bul_photos/pc/Core%20i7/3dvantage_physics.jpg

Wil iemand mij sponsoren? :o

[ Voor 3% gewijzigd door Bullus op 16-01-2009 17:30 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Kan je met GPU-Z zien of er ook load op de kaart komt?

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Ff mee zitten klooien ,maar blijkbaar is mijn mobo niet geschikt.
Een ander user had hetzelfde probleem wat ik nu ook heb,dat je een error krijgt als je vantage opstart.:(

http://forums.techpowerup...hread.php?t=72035&page=14
post #343+344

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Powrskin
  • Registratie: November 2005
  • Niet online
Anoniem: 134818 schreef op vrijdag 16 januari 2009 @ 17:31:
Kan je met GPU-Z zien of er ook load op de kaart komt?
Ja

Nukezone FTW


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Die was denk ik voor mij bedoelt.

Ja en nee.

stappenplan
1. install all drivers and get everything working.

2. have both monitors up and running.

3. right click desktop and go to display properties and select display settings(adjust resolution).

4. make sure both vid cards have a desktop enabled, ONLY ONE.

5. select the nvidia card as your default/main desktop/monitor and hit APPLY(not ok, leave the window open)

6. open physx control panel and go to the physx card tab. it should now say physx is enabled. leave this open.

7. switch the default/main display back to the ati card(s) and hit apply.

8. in the physx control panel, click on ENABLE a few times so that APPLY becomes available once again. click apply and repeat this step again.

9. run your benchmark of physx enable games.

10. enjoy.

NOTE: the monitor on the physx card does not need to be left on at this point.
Bij stap 7;
Als ik dus naar mijn main display ga, dan heb ik geen load meer op de Nv-card.
Als ik dit nie doet maar in extended mode ga,dan heeft ie wel load,maar dan krijg ik dus die error in vantage.

Bij het eerste geval doet vantage het wel.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 16:59

MazeWing

The plot thickens...

Wat krijg ik toch de schijt van dat hele crossfire. De eerste en laatste keer dat ik iets koop wat op deze techniek gebasseerd is. Veel nieuwe games werken niet eens fatsoenlijk en nu ook weer bij mirrors edge. Heb ik voor meer dan €500 aan videokaarten haal ik nog niet eens de performance van een 9800gtx :S

Ben dan ook zwaar ontevreden. Dat een enkele game een keer niet werkt bij release kan ik inkomen. Maar dat nu ongeveer 9/10 spellen niet fatsoenlijk spelen (ik heb het dan over nieuwe releases) terwijl bij nvidia 9/10 spellen juist WEL goed functioneren dan is er iets goed mis bij ATI. Ook als je op andere fora kijkt zoals rage3d, guru3d, etc. dan zie je dat steeds meer mensen het wel zo'n beetje gehad hebben met crossfire. Het artikel op anandtech laatst, sloeg de spijker precies op z'n kop. Een techniek die voor geen meter werkt op het moment!

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z6II | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Da's een beetje een mosterd-na-de-maaltijd-rant waarvan de nieuwswaarde in het nieuwsdiscussietopic me een beetje ontgaat.

Al vaak genoeg is hier (en elders!) gemeld dat het TWIMTBP programma erg sterk is en een titel als Mirror's Edge en Crysis is zo'n beetje door nV zelf ontwikkeld. Een beetje vooronderzoek doen voordat je een dure videokaart koopt kan geen kwaad en het had je veel ergernis en irritatie gescheeld.

AMD krijgt dankzij nV's programma soms erg laat toegang tot games waar nV heel erg veel geld in pompt. Dit heeft vaak tot gevolg dat bij release een videokaart vaak niet optimaal benut wordt bij release met als gevolg dat het driverteam van ATI overuren moet draaien om bepaalde dingen goed te laten werken.

Ik las dat de GTX295 het vrij goed doet in veel games. Misschien is dat iets voor jou?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Er zit trouwens een DX10 bug in de Cat 8.12 hotfix 2 drivers die er voor zorgen dat niet in alle DX10 games AF aan staat. Zelfs forceren werkt niet. In DX9 werkt alles wel goed. Er is geloof ik al een interne build waarin dit gewoon gefixed is en de performanceboosts intact blijven. Nu is waarschijnlijk ook wel de reden bekend waarom Cat 9.1 uit is gesteld.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

MazeWing schreef op zaterdag 17 januari 2009 @ 01:28:
Wat krijg ik toch de schijt van dat hele crossfire. De eerste en laatste keer dat ik iets koop wat op deze techniek gebasseerd is. Veel nieuwe games werken niet eens fatsoenlijk en nu ook weer bij mirrors edge. Heb ik voor meer dan €500 aan videokaarten haal ik nog niet eens de performance van een 9800gtx :S

Ben dan ook zwaar ontevreden. Dat een enkele game een keer niet werkt bij release kan ik inkomen. Maar dat nu ongeveer 9/10 spellen niet fatsoenlijk spelen (ik heb het dan over nieuwe releases) terwijl bij nvidia 9/10 spellen juist WEL goed functioneren dan is er iets goed mis bij ATI. Ook als je op andere fora kijkt zoals rage3d, guru3d, etc. dan zie je dat steeds meer mensen het wel zo'n beetje gehad hebben met crossfire. Het artikel op anandtech laatst, sloeg de spijker precies op z'n kop. Een techniek die voor geen meter werkt op het moment!
Ik heb het al gemeld op het forum van rage3d en er zit een CF-profiel aan te komen.
Ik vind het ook jammer dat dit nogal eens gebeurd, maar de GPU's zijn te goed om over te stappen op NV wat mij betreft.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Met dat gedoe met ATI+Nv physics dat nog niet werkt bij mij, kan ik nu wel op de ene beeldscherm met de ATI spelen en als ik wil kan ik naar de andere beeldscherm switchen en met de NV-card spelen.Zonder kabels te unpluggen of zo,maar gewoon in windows 7.
Dus 2 in 1. 1 OS met 2 verschillende kaarten die je zo kan switchen. Jammergenoeg nog niet samen.

Ideaal om heel snel de 2 kaarten te benchen/vergelijken.Geen gedoe met computer uitzetten,deinstalleren/installeren.

[ Voor 13% gewijzigd door Bullus op 17-01-2009 11:30 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 29-06 15:35

RuddyMysterious

a smorgasbord of waywardness

kalizec schreef op vrijdag 16 januari 2009 @ 13:23:
Ik denk dat je aan een 9600GT dan meer hebt, want ik heb verschillende tests gezien waarin een 9600GT meer dan voldoende bleek. En dan ook nog eens minder stroom gebruikte en dus ook minder warmte produceerde. Tot slot was de herrie van beide met een single-slot koeler ook nog eens minder.
Volgens deze bron verbruikt de 9600GT inderdaad minder dan de 8800GT, dus die keuze zou inderdaad zeker niet lomp zijn.

Acties:
  • 0 Henk 'm!

  • PASware
  • Registratie: Juli 2001
  • Laatst online: 15:15
Op Hardspell.com hebben ze ooit een HD3850+9600GT aan de praat gekregen. Physx werkte prima geloof ik :)

Tesla Model 3 SR+ | 4425wp (Dak) - 1920wp (platdak) - 840wp (gevel 90gr) | Panasonic 5kW warmtepomp | Hewalex WPB 200L boiler


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-07 08:52
http://my.ocworkbench.com/bbs/showthread.php?t=81953
Windows 7 detects HD4000 as DX11 compliant card
CJ schreef op zaterdag 17 januari 2009 @ 02:02:
AMD krijgt dankzij nV's programma soms erg laat toegang tot games waar nV heel erg veel geld in pompt. Dit heeft vaak tot gevolg dat bij release een videokaart vaak niet optimaal benut wordt bij release met als gevolg dat het driverteam van ATI overuren moet draaien om bepaalde dingen goed te laten werken.
Het is een beetje krom om te zeggen dat AMD laat toegang krijgt tot games waar NV veel geld in steekt. NV steekt er geld in, dus hebben ze eerder toegang. Als AMD hier ook hier ook geld in zou steken dan zouden ze ook eerder toegang krijgen. Dus nVidia heeft gewoon een team dat er beter voor zorgt dat game die net op de markt zijn optimaal werken. ATI had dit vroeger ook, maar AMD steekt er tegenwoordig zeer weinig werk in, met al die ontslagen binnen AMD zijn dit ook de extra's waarop het eerst bezuinigd zal worden.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
The Source schreef op zaterdag 17 januari 2009 @ 20:07:
Het is een beetje krom om te zeggen dat AMD laat toegang krijgt tot games waar NV veel geld in steekt. NV steekt er geld in, dus hebben ze eerder toegang. Als AMD hier ook hier ook geld in zou steken dan zouden ze ook eerder toegang krijgen. Dus nVidia heeft gewoon een team dat er beter voor zorgt dat game die net op de markt zijn optimaal werken. ATI had dit vroeger ook, maar AMD steekt er tegenwoordig zeer weinig werk in, met al die ontslagen binnen AMD zijn dit ook de extra's waarop het eerst bezuinigd zal worden.
Als nVidia ergens veel geld in steekt, zullen ze vast ook wel wat eisen stellen. Het lijkt mij niet geheel ondenkbaar of onlogisch als 1 van die eisen is dat AMD pas laat in de ontwikkelingsfase toegang krijgt tot het geheel om de drivers te optimaliseren.

Probleem is dus dat ofwel de ontwikkelaars 'gedwongen' moeten worden om niet met dergelijke praktijken mee te doen (zulke clausules niet accepteren) of een mededingingsonderzoek laten doen door hoge instanties om te zien of er ergens concurentievervalsing is.

Ondertussen, aangezien geen van die 2 opties erg waarschijnlijk toegepast gaan worden in welke nabije toekomst dan ook, is AMD dus gewoon bezig om zijn GITG programma langzaam aan uit te breiden. Als ze daarin goed genoeg slagen (lees: nVidia begint problemen te ondervinden met driverontwikkelingen voor nieuwe games onder het GITG programma, waardoor wat prestaties betreft ze ver achter de ATI hardware komen te liggen in die games) komt er wellicht ooit het moment dat AMD en nVidia een wederzijdse afspraak kunnen maken zodat beide fabrikanten beter voorbereidt hun drivers kunnen bakken voor alle games.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 10:21
The Source schreef op zaterdag 17 januari 2009 @ 20:07:
http://my.ocworkbench.com/bbs/showthread.php?t=81953
Windows 7 detects HD4000 as DX11 compliant card


[...]


Het is een beetje krom om te zeggen dat AMD laat toegang krijgt tot games waar NV veel geld in steekt. NV steekt er geld in, dus hebben ze eerder toegang. Als AMD hier ook hier ook geld in zou steken dan zouden ze ook eerder toegang krijgen. Dus nVidia heeft gewoon een team dat er beter voor zorgt dat game die net op de markt zijn optimaal werken. ATI had dit vroeger ook, maar AMD steekt er tegenwoordig zeer weinig werk in, met al die ontslagen binnen AMD zijn dit ook de extra's waarop het eerst bezuinigd zal worden.
Volgens mij staat er toch echt "DDI version: 10.1" (DirectDrawInterface) in het 2de tabblad van dxdiag.exe. Op het eerste tabblad staat DX11 maar dat refereerd naar welke DX versie er geinstalleerd is (niet welke hardwarematig ondersteund wordt dacht ik).

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Blastpe schreef op zaterdag 17 januari 2009 @ 20:20:
[...]


Volgens mij staat er toch echt "DDI version: 10.1" (DirectDrawInterface) in het 2de tabblad van dxdiag.exe. Op het eerste tabblad staat DX11 maar dat refereerd naar welke DX versie er geinstalleerd is (niet welke hardwarematig ondersteund wordt dacht ik).
Dat kan kloppen, want als je kijkt naar DXdiag in Windows XP, dan geeft deze op de eerste pagina DX9 aan (ongeacht kaart) en op pagina 3 (display) staat 'DX9 (or higher)' bij DDI version. Het lijkt me inderdaad dat iemand overhaaste conclusies trok.

Acties:
  • 0 Henk 'm!

  • wwdtourkane
  • Registratie: April 2006
  • Laatst online: 07-07 14:11
Op Xbitlabs ben ik vandaag een nog een review tegen gekomen die de preformance vergelijkt van een paar verschillende catalyst drivers

De drivers die zijn vergeleken.
* Catalyst 8.7
* Catalyst 8.10
* Catalyst 8.11
* Catalyst 8.12

Linkje

Over het algemeen kan je wel een preformance boost zien, zo kan toch wel mooi zien dat nieuwe drivers ook wel helpen. Ook al heb ik zelf toch wel last van een paar irritante bugs met 8.12

[ Voor 21% gewijzigd door wwdtourkane op 17-01-2009 21:20 ]


Acties:
  • 0 Henk 'm!

  • ownage maxim
  • Registratie: Augustus 2007
  • Laatst online: 19-05 20:32
CJ schreef op donderdag 15 januari 2009 @ 12:34:
nVidia deed het al eerder. De G70 in 2005 was de eerste GPU waar men met 3 verschillende shaderdomains werkte. ;)

En ja, ook AMD kan dit doen... sterker nog.. binnen de huidige GPU werkt men al met verschillende klokdomeinen, maar over het hoe en wat zijn ze erg onduidelijk. Maar het verschil is in ieder geval niet zo groot als bij NV.
Om nog even terug te komen op die shaderdomains.
Is het met de huidige generaties al mogelijk om 'als je weet hoe het moet' de shaders op te pompen?

Acties:
  • 0 Henk 'm!

  • jean willem
  • Registratie: Oktober 2007
  • Laatst online: 16:48
http://www.nordichardware.com/news,8615.html
RV870 single-core, R870 dual-core, R800 quad-core? Zou wel tof zijn als er die quadcore er ook echt komt :).

Acties:
  • 0 Henk 'm!

  • Grozno
  • Registratie: Februari 2006
  • Laatst online: 18:12

Grozno

acts without consequence!

Wow, dan is mijn HD3870 dus ook een DX11 kaart, althans in Windows 7 ;)
Wat een bull-shit |:(

Advocatus ineptias | Free Speech Online


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-07 08:52
dahakon schreef op zaterdag 17 januari 2009 @ 20:13:
[...]


Als nVidia ergens veel geld in steekt, zullen ze vast ook wel wat eisen stellen. Het lijkt mij niet geheel ondenkbaar of onlogisch als 1 van die eisen is dat AMD pas laat in de ontwikkelingsfase toegang krijgt tot het geheel om de drivers te optimaliseren.

Probleem is dus dat ofwel de ontwikkelaars 'gedwongen' moeten worden om niet met dergelijke praktijken mee te doen (zulke clausules niet accepteren) of een mededingingsonderzoek laten doen door hoge instanties om te zien of er ergens concurentievervalsing is.

Ondertussen, aangezien geen van die 2 opties erg waarschijnlijk toegepast gaan worden in welke nabije toekomst dan ook, is AMD dus gewoon bezig om zijn GITG programma langzaam aan uit te breiden. Als ze daarin goed genoeg slagen (lees: nVidia begint problemen te ondervinden met driverontwikkelingen voor nieuwe games onder het GITG programma, waardoor wat prestaties betreft ze ver achter de ATI hardware komen te liggen in die games) komt er wellicht ooit het moment dat AMD en nVidia een wederzijdse afspraak kunnen maken zodat beide fabrikanten beter voorbereidt hun drivers kunnen bakken voor alle games.
Normaal krijgen AMD, Nvidia in een beta stage (zeg maar RC candidate) toegang tot de game. Hierdoor kunnen zij optimalisaties in hun drivers doorvoeren. Echter heeft NV een team programmeurs die meehelpt bij de ontwikkeling, dus het optimaliseren van gameroutines voor NV VGA kaarten. Uiteraard wordt er dan gekeken wat het beste is voor NV VGA kaarten. Het zou een beetje dom zijn om moedwillig ATI kaarten te gaan vertragen. Ten eerste wordt dit makkelijk opgemerkt, ten tweede zou de game developer hier nooit aan meewerken, ten derde zou AMD dit kunnen verhelpen met driver optimalisaties.

Hoe je het ook went of keert, het is een super slimme zet van NV en het resultaat mag er ook naar zijn. AMD zou dit ook moeten doen echter staat dit programma op een zeer laag pitje ivm NV.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Er is een verschil tussen de code moedwillig vertragen op ATI-hardware (waar jij het nu over hebt) en het buiten de boot houden van AMD voor driver-optimalisaties tot op het punt dat de game bijna gold gaat (release candidates). nVidia zal ongetwijfeld erg veel goed bruikbare informatie van het spel in ontwikkeling doorsturen naar het driver-team, opdat de drivers zo snel mogelijk en zo goed mogelijk zijn geoptimaliseerd, bij voorkeur voor de release van een spel.
Wat ik dus zeg is dat AMD waarschijnlijk in deze gevallen langer moet wachten met het kunnen optimaliseren van de drivers van een dergelijk spel (tot de release candidates) en daardoor op het moment van release een slechtere prestatie neerzet. Mensen klagen hier graag over, omdat ze (terecht) goed willen kunnen gamen vanaf het begin, maar doordat nVidia een dikke vinger in de pap heeft, moeten mensen met ATI hardware soms een maandje, soms 2 wachten voordat de drivers gelijkwaardige prestaties neerzetten (omdat ze simpelweg die achterstand hebben op de toegang).

Wederom, ik heb het nergens gehad over een nVidia die moedwillig probeert games echt slechter te laten lopen op ATI hardware, ik had het over eventuele clausules die nVidia in staat stellen om eerder met goede drivers bezig te gaan. En ja, het is een goede zet, alhoewel niet in het belang van de gamer, nVidia vaart er wel bij.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Er is een verschil tussen de code moedwillig vertragen op ATI-hardware (waar jij het nu over hebt) en het buiten de boot houden van AMD voor driver-optimalisaties tot op het punt dat de game bijna gold gaat (release candidates). nVidia zal ongetwijfeld erg veel goed bruikbare informatie van het spel in ontwikkeling doorsturen naar het driver-team, opdat de drivers zo snel mogelijk en zo goed mogelijk zijn geoptimaliseerd, bij voorkeur voor de release van een spel.
The Source zei daarnet dat AMD en nVidia gelijktijdig toegang tot de RC van een game krijgen ;) Het verschil zit er hem in dat nVidia zelf een stel programmeurs aan het game zet.

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 126513

En wat denk je dat je krijgt als daar programmeurs van twee verschillende teams zitten. NV en ATi. ;)
Die gene die het hoogste bied krijgt een plaatsje en dan komt er ook meestal nog een logo bij zodat je een extra keer op Esc mag drukken als je een spelletje gaat spelen.
Pagina: 1 ... 4 ... 7 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!