[Algemeen] ATi Nieuwsdiscussie Topic - Deel 83 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 50.358 views

Acties:
  • 0 Henk 'm!

  • spanx
  • Registratie: Januari 2002
  • Laatst online: 09-09 22:10

spanx

_Sp[A]nX_

CJ houd zich wijzelijk stil op dit moment :P

Damn it's good 2b a Tweaker!


Acties:
  • 0 Henk 'm!

  • prutser001
  • Registratie: Oktober 2004
  • Laatst online: 22:54

prutser001

Vaak zit het tegen en soms zi

Hmm ik sta nu op het moment om een nieuwe VGA aan te schaffen en na een beetje door dit topic gebladerd te hebben twijfel ik of ik zal wachten op de 48xx (of gt200) serie.
Heb na ~1,5 jaar sparen een nieuw systeem gekocht (zie sig) en daar wil ik toch wel een 'knal vga' in. Ik zat te denken om voor ~120 euro een 3870 te kopen en dan later dit jaar een nieuwe generatie.

Nou ben ik geen ati fanboy of watdanook maar kheb nu ati sinds de X800XT-1900XT-1950XTX en deze zijn me eigenlijk goed bevallen. Enige 'nadeel' wat me nu opvalt is het idiote verschil in sommige games tussen nV en Ati kaarten. Vooral bij deze test : http://www.pcgameshardware.de/?article_id=640512

Zoals je kunt zien zijn de Ati kaarten overall topscorer in 3dm06, maar als je naar crysis kijkt.. een omgekeerde wereld. Nou zegt 3dm06 niet veel en daar zal ik me ook niet op blindstaren, maar dan Assasins Creed DX10.1 aan en '20% sneller', ook wat al eerder aangekaart werdt waarom geen dx10.1 test in de nieuwe 3dm vantage?

Ach ja khoor graag jullie mening, het leek mij 'handiger' om gewoon voor een 'prikkie' ff een nieuwe vga te halen en dan 2? maanden later een nieuwe generatie.

Asus Z390 Maximus IX Hero, Intel 9900K, RTX3080, 64GB DDR4 3000, 2TB NVME, Samsung 850Evo 1TB, 4 x 14TB Toshiba, Be Quiet SB 801, Samsung 34"


Acties:
  • 0 Henk 'm!

Verwijderd

je moet kijken welke vga nu voldoet
En later kan je blijfen wachten tot je een ons weegt.
Koop een leuke ati 3870 of een nvidia 9600gt voor een leuke bedrag.
En klok deze kaarten wat over (kunnen ze best hebben)
En over 2maanden een nieuwe halen is totaal onzin.
Kan je beter wachten tot volgende generatie waardoor de hi-end weer betaal word omdat ze vervangen gaan worden.

Beste manier is de midde klassen te nemen en daar 1jaar mee ta game en later weer een midde klassen te gaan kopen die meestal bijna 2x zo snel is als ouwe midde klassen kaart.

De hi-end is voor de mensen die op zeeeeer hoge resolutie willen spelen.

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

prutser001 schreef op zondag 04 mei 2008 @ 23:12:
Hmm ik sta nu op het moment om een nieuwe VGA aan te schaffen en na een beetje door dit topic gebladerd te hebben twijfel ik of ik zal wachten op de 48xx (of gt200) serie.
Heb na ~1,5 jaar sparen een nieuw systeem gekocht (zie sig) en daar wil ik toch wel een 'knal vga' in. Ik zat te denken om voor ~120 euro een 3870 te kopen en dan later dit jaar een nieuwe generatie.

Nou ben ik geen ati fanboy of watdanook maar kheb nu ati sinds de X800XT-1900XT-1950XTX en deze zijn me eigenlijk goed bevallen. Enige 'nadeel' wat me nu opvalt is het idiote verschil in sommige games tussen nV en Ati kaarten. Vooral bij deze test : http://www.pcgameshardware.de/?article_id=640512

Zoals je kunt zien zijn de Ati kaarten overall topscorer in 3dm06, maar als je naar crysis kijkt.. een omgekeerde wereld. Nou zegt 3dm06 niet veel en daar zal ik me ook niet op blindstaren, maar dan Assasins Creed DX10.1 aan en '20% sneller', ook wat al eerder aangekaart werdt waarom geen dx10.1 test in de nieuwe 3dm vantage?

Ach ja khoor graag jullie mening, het leek mij 'handiger' om gewoon voor een 'prikkie' ff een nieuwe vga te halen en dan 2? maanden later een nieuwe generatie.
Neem gewoon een mooie tweedehands 8800GT. Dan heb je echt een super kaart voor het geld en gezien de roadmap van NV zal die videokaart de komende tijd weinig in waarde gaan dalen, en de vraag naar de 8800GT is best groot. Als je zo'n kaart neemt kun je daar prima 2 of 3 maanden mee spelen, tot de ideale RV770 variant zich aandient en inderdaad zo snel is..

Ik verkoop nu een 2e hands E2140 processor voor bijna dezelfde prijs waarvoor ik hem gekocht hebt. Een betere deal krijg je niet en dat is met een 8800GT ook zo denk ik. :)

Ontopic: Iemand al info over de releasedatum? Zijn er al reviewexemplaren van de HD4800 serie gereed om te versturen?

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • WiLLoW_TieN
  • Registratie: Maart 2004
  • Laatst online: 22:21
Ik overweeg de Club3D 3850 OC 512 MB GDDR3 ( CGAX-3852DDO ) deze is nu
te krijgen bij b.v Azerty voor € 84,82.

Core = 720 Mhz en Mem = 1800 Mhz.

Wat ik zo lees op internet is het enige nare aan de kaart dat de fan continu op 100% draait.

Iemand anders nog bevindingen of tips ?
Modbreak:**LET OP** Welke videokaart/monitor moet ik kopen?

Een Tweaker zoekt zelf info op, en kiest zelf

[ Voor 17% gewijzigd door dion_b op 05-05-2008 10:42 ]


Acties:
  • 0 Henk 'm!

  • prutser001
  • Registratie: Oktober 2004
  • Laatst online: 22:54

prutser001

Vaak zit het tegen en soms zi

Mjah, dus vandeweek even een 3870 mee laten komen, voor 120 euro kan ik in ieder geval weer ff vooruit, ik hoop alleen dat de prestaties niet gaan tegenvallen, ik verwacht geen winst maar zeker geen verlies.

Aangezien ik nog 0.0 ervaring heb met dx10(.1) hoe zit het met games als : AC/UT3/GoW/R6V2/COD4, pakken deze automatisch dx10 moet ik nog wat 'aanzetten' of ?

Asus Z390 Maximus IX Hero, Intel 9900K, RTX3080, 64GB DDR4 3000, 2TB NVME, Samsung 850Evo 1TB, 4 x 14TB Toshiba, Be Quiet SB 801, Samsung 34"


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 08-09 21:29
Als een spel gebruikt maakt van DX10 zal dit automatisch gebeuren, alle door jou genoemde spellen zijn echter nog DX9. ;)
Who needs DX10?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
AC is een DX10.1 game. Tenminste zo lang je de eerste patch niet installeert. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • spanx
  • Registratie: Januari 2002
  • Laatst online: 09-09 22:10

spanx

_Sp[A]nX_

nVidia sponsert de laaste tijd wel erg veel games, ik begin me mateloos te irriteren aan dat reclame filmpje van hun bijna voor elk spel.... waarom doet ATI daar niet meer aan, het lijkt dat nvidia steeds de overhand heeft omdat de (zo lijkt het) actiever zijn met de spel-programmeurs om zo de beste performance te krijgen...

Heb zelf een 3870X2 en begin me serieus af te vragen waarom ik dat gedaan heb terwijl de X2 niet eens zo snel is, telkens in de meest ideale situaties (die ik niet vaak tegen kom) presteert de X2 marginaal iets beter dan de 3870.

Voel me op dit moment een beetje opgelicht als ik het bijvoorbeeld met crysis speel

(1440x900 @ High en MEDUIM)
Q6600 @ 3,2Hgz
4GB HyperX
1x 15k SCSI
3x 7.2k WD
Jetway 3870X2

Damn it's good 2b a Tweaker!


Acties:
  • 0 Henk 'm!

  • THE_FIREFOX
  • Registratie: November 2005
  • Laatst online: 00:46
Dat heb ik ook met crysis. Zelfs met de patch voor Multi GPU support draait het steeds niet veel beter dan een enkele kaart. Maar onder COD4 draait crossfire echt super. Daar komt bijna 100% aan videopower erbij _/-\o_

Acties:
  • 0 Henk 'm!

  • StephaN900
  • Registratie: Mei 2000
  • Niet online
Misschien niet het juiste topic, maar dat hele upgrade topic kan ik niet meer vinden, en ach er zit wel wat ati discussie tussen.
Iemand bekend met de gigabyte 3870hd deze valt voor mij op vanwege zijn zalman cooler en neverwinter nights dat er bij zit en kost 139 euro. Hoe stil is deze cooler, want ik heb min of meer een fluisterstil systeem.
Dan kijk ik ook nog naar de gigabyte 9600gt silent (passieve cooling) zonder spel voor 149 euro.

Ik zal alle spellen spelen op een 1920x1200 resolutie, dus dat de 9600gt sneller is op lagere resoluties maakt mij niet zo heel veel uit.
Zelf neig ik nu iets meer naar de 3870 vanwege het feit dat hij een tientje minder kost en waarschijnlijk net iets sneller is, maar de enige vergelijking die ik gevonden heb is deze:
http://www.neoseeker.com/.../Reviews/gigabyte_hd3870/
Iemand die voor dezelfde keuze stond?

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
spanx schreef op maandag 05 mei 2008 @ 08:02:
nVidia sponsert de laaste tijd wel erg veel games, ik begin me mateloos te irriteren aan dat reclame filmpje van hun bijna voor elk spel.... waarom doet ATI daar niet meer aan, het lijkt dat nvidia steeds de overhand heeft omdat de (zo lijkt het) actiever zijn met de spel-programmeurs om zo de beste performance te krijgen...

Heb zelf een 3870X2 en begin me serieus af te vragen waarom ik dat gedaan heb terwijl de X2 niet eens zo snel is, telkens in de meest ideale situaties (die ik niet vaak tegen kom) presteert de X2 marginaal iets beter dan de 3870.

Voel me op dit moment een beetje opgelicht als ik het bijvoorbeeld met crysis speel

(1440x900 @ High en MEDUIM)
Q6600 @ 3,2Hgz
4GB HyperX
1x 15k SCSI
3x 7.2k WD
Jetway 3870X2
Hoeveel FPS heb je dan?

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
meljor schreef op zondag 04 mei 2008 @ 22:29:
en wat verwacht jij van het performance verschil tussen gddr3 en gddr5?
Ik denk dit keer wel. Want de RV670 zat op het randje van de GDDR3/4 op 900 en 1100 MHz. Soms kon hij net even wat meer gebruiken maar meestal was er voldoende bandbreedte.

Aangezien GDDR3 niet sneller gaat dan 1100 mhz en de nieuwe chips wel veel sneller worden zullen er meer gevallen zijn waar er met GDDR3 gewoon niet genoeg bandbreedte beschikbaar is om het maximale uit de core te halen. En daar komt de GDDR5 XT versie de hoek om kijken.
Die shrink with minor changes


ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect RV770PRO with DDR3, RV770XT with DDR5 support and the top end, R700 aka (RV770X2) with two RV770XT chips in a dual-card configuration.

The new GPUs are 55nm and they are actually an architecture shrink chip with minor architectural changes. Of course, just as RV670, they do support DirectX 10.1 and at the same time, they will bring some significant performance improvements compared to the previous RV670 generation.

The new RV770 chip will also have great improvements in power consumption. The launch date is late Q2 2008, most likely June, but real volume availability is expected in early Q3 2008, probably July.

We still don’t know the clocks or the official name.
Weer andere info van FUD. Logisch dat de chip DX10.1 krijgt. Maar wat ze nou bedoelen met die die shrink.... Want RV670 was al 55nm dus daar verandert niets. Hooguit kunnen ze alles wat anders in elkaar steken zodat er minder transistors nodig zijn om het zelfde te bereiken. Maar de RV770 zal altijd groter worden dan RV670 tenzij hij op 45nm gemaakt zou worden. En dat is denk ik niet het geval.
THE_FIREFOX schreef op maandag 05 mei 2008 @ 10:03:
Dat heb ik ook met crysis. Zelfs met de patch voor Multi GPU support draait het steeds niet veel beter dan een enkele kaart. Maar onder COD4 draait crossfire echt super. Daar komt bijna 100% aan videopower erbij _/-\o_
Jullie zeggen het al crysis.... Ik snap niet wat iedereen er zo geweldig aan vind want de engine is best wel brak tenzij je een nVidia kaart hebt. Maar nVidia heeft er gewoon zo veel geld in gepompt dat het wel goed moet lopen.

Ik heb dat ook een beetje met mijn huidige X2 daarom hoop ik dat die RV770 snel uit komt. En dat ze met die X2 iets hebben gevonden om het in meer games te laten schalen. In games zoals COD4 is het gewoon geweldig maar er zijn ook games zoals Trackmania die er na genoeg niets aan hebben.

[ Voor 18% gewijzigd door Astennu op 05-05-2008 12:57 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • theroman
  • Registratie: Januari 2002
  • Laatst online: 16-08 09:37
StephaN900 schreef op maandag 05 mei 2008 @ 11:13:
Iemand bekend met de gigabyte 3870hd?
Deze kaart heb ik een maand of wat geleden gekocht. Tot dusver bevalt'ie prima; hij is stil (standaard slaat de fan pas aan als de coretemp rond de 70 graden ligt) en redelijk goed te overklokken (core +100, geheugen +80).

Over gamen op de resoluties die jij noemt, kan ik niks zeggen, maar er zijn wel een paar reviews van deze kaart te vinden.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zaterdag 03 mei 2008 @ 19:56:
Voor de G92 volstaat een 256-bit geheugeninterface prima.
[...]
Die 512-bit bus is prima geimplementeerd, op die ene bug na waardoor het niet goed werkte met snel GDDR4 geheugen. AMD heeft echter de noodzaak van een 512-bit memory interface (en daaraan gekoppeld een sloot aan bandbreedte) overschat.
Een van de grootste 'uses' van veel bandbreedte ligt in AA (& HDR)... AA was echter tevens de grootste bottleneck van de R600, gezien de exclusive shaderbased implementatie van ATi.
De R600 heeft zodoende nooit zijn enorme bandbreedtepotentieel kunnen uitnutten. Dit is ook 1 van de belangrijkste redenen waarom een 256bit bus in het vervolgontwerp (RV670) volstaat in vergelijk met de 512bit R600 bus.

Het nut van veel meer bandbreedte is echter wel degelijk zichtbaar bij 8800GTX vs 9800GTX, waarbij de 8800 de 9800 in bandbreedte-intensieve situaties voorbijloopt, en over de hele linie gekeken ondanks zijn veel lagere clocks hem makkelijk bijhoudt. 9800GTX (G92, 675/2200) zou met een 384bit bus en huidige kloksnelheden aanmerkelijk sneller zijn geweest dan de 8800GTX (575/1800), en zou zelfs een stuk sneller zijn dan de 8800 Ultra (612/2160) die nu nog steeds de snelste single chip solution is.
G92 wordt wel degelijk gebottelnecked door zijn 256 bit bus.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op maandag 05 mei 2008 @ 13:31:
[...]
Een van de grootste 'uses' van veel bandbreedte ligt in AA (& HDR)... AA was echter tevens de grootste bottleneck van de R600, gezien de exclusive shaderbased implementatie van ATi.
De shaderbased implementatie was niet de schuldige van de AA performance. Dat waren de RBE's: een te lage sample rate. Vergeet trouwens niet dat texturing ook aardig wat BW vraagt.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
^^ Wat Aca zegt... shaderbased AA resolve had niks te maken met de relatief grote performancedrop van de R6x0 generatie met AA in vergelijking tot de concurrentie. Die mythe is inmiddels al een tijd geleden de wereld uit geholpen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 11-09 15:01

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

CJ schreef op maandag 05 mei 2008 @ 15:08:
^^ Wat Aca zegt... shaderbased AA resolve had niks te maken met de relatief grote performancedrop van de R6x0 generatie met AA in vergelijking tot de concurrentie. Die mythe is inmiddels al een tijd geleden de wereld uit geholpen.
Ik heb niet helemaal meegekregen waar het dan wel aan ligt en daar ben ik best wel benieuwd naar. Enlighten me? Met een 512bits bus verwacht je niet dat een kaart zo weinig FSAA potentiaal heeft.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
R420R schreef op maandag 05 mei 2008 @ 15:21:
[...]


Ik heb niet helemaal meegekregen waar het dan wel aan ligt en daar ben ik best wel benieuwd naar. Enlighten me? Met een 512bits bus verwacht je niet dat een kaart zo weinig FSAA potentiaal heeft.
Ging over de RBE's (Render Back Ends als ik me niet veris) die maar 2 aa samples per clock kunnen doen. Waar de nVidia kaarten er 4 kunnen. Hoe zat dit bij de X1900 eigenlijk ? want met AA is die soms net zo snel als een HD3870 kaart. Terwijl de clockspeeds lager zijn. Heeft die dan meer RBE's ?

[ Voor 3% gewijzigd door Astennu op 05-05-2008 15:46 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Je kan zelf zien waar het aan ligt als je de volgende cijfers er bij pakt:

Z Sample rate
G80: 110.400 Msamples/sec
RV670: 24.800 Msamples/sec
R600: 23.744 Msamples/sec
R580: 10.400 Msamples/sec
Conclusie: Wow... de G80 heeft een Z Sample rate die bijna 5x (!!) zo hoog ligt als de R600.

AA Sample rate
G80: 55.200 Msamples/sec
RV670: 49.600 Msamples/sec
R600: 47.488 Msamples/sec
R580: 20.800 Msamples/sec
Conclusie: AA sample rate is belangrijk voor... AA...

Dat het niet aan de shader AA resolve ligt kan je verder ook zien aan de performance met 8xAA waar de RV670 vaak sneller is dan een GF8800GT(S). Zie bv de recensies van Computerbase.de die ook testen met 8xAA. Als het aan de resolve lag, dan zou de RV670 met 8xAA helemaal op z'n gat moeten liggen, maar dat doet-ie dus niet. Het gaat hier dus voornamelijk om de AA Sample rate en de Z-Sample rate.

G80/G92 kunnen 4xMSAA samples per klok en 8x Z samples per klok
RV670/R600 kunnen 2xMSAA samples per klok en 2x Z samples per klok

Daarnaast is er nog een ander zwak punt...

Texture Fillrate
G92: 43.200 Mtexels/sec
G80: 18.400 Mtexels/sec
RV670: 12400 Mtexels/sec
R600: 11.872 Mtexels/sec
R580: 10.400 Mtexels/sec
Conclusie. De R600 heeft net als de R580 16 texture units. Deze zijn wel getweaked zodat ze per klok sneller zijn, maar ja... de G80 heeft 32 texture units aan boord en de G92 zelfs 64. Toch is het performance verschil niet 4x zo groot, dus kan je stellen dat 1 enkele texture unit van de R600 krachtiger is dan die van de G80. Een verdubbeling zou ook hier dus voor een leuke boost moeten kunnen zorgen, zeker gezien het feit dat veel games nog best texture fillrate afhankelijk zijn (zie bv alle explosies met de UE3 engine).

Pak deze drie dingen aan (Z sample en AA sample zit in de RBEs) en je hebt een veel beter gebalanceerde architectuur. Op andere gebieden hoeft er niet veel te veranderen. Zo is de pixelfillrate bijna gelijk en overstijgt de R6x0 architectuur de G8x/G9x architectuur wanneer het komt op geometryshading en vertexshadingperformance.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dus wat we eingelijk willen is. Z sample rate van 2x per clock naar 6x en de AA sample rate van 2x naar 4x. Dat samen met de 32 texture units zou genoeg moeten zijn want die zouden op 850 MHz dan rond de 25.00 Mtexels zitten.

Heb je de specs van de G92 toevallig ook ? ben nu wel benieuwd wat die scoort omdat ze daar dus meer texture units hebben.

[ Voor 36% gewijzigd door Astennu op 05-05-2008 16:27 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
G92 als in de 9800GTX heeft een texture fillrate van 43000 MTexels/s.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Kun je ook de RV770 erbij zetten :+

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 05 mei 2008 @ 16:06:
Je kan zelf zien waar het aan ligt als je de volgende cijfers er bij pakt:

Z Sample rate
R600: 23.744 Msamples/sec
R580: 10.400 Msamples/sec

AA Sample rate
R600: 47.488 Msamples/sec
R580: 20.800 Msamples/sec
Conclusie: AA sample rate is belangrijk voor... AA...

Dat het niet aan de shader AA resolve ligt kan je verder ook zien aan de performance met 8xAA waar de RV670 vaak sneller is dan een GF8800GT(S). [...]
Hoe verklaar je dan eigenlijk dat de R580 ondanks lagere clocks en een Z-sample + AA-samplerate van dik minder dan de helft van R600 toch regelmatig sneller is dan de R600 met i.i.g. 2xAA en 4xAA?
Ik kan me namelijk moeilijk voorstellen dat de RBE's van de R600 en RV670 slechter zouden zijn dan die van de R580. De meest voor de hand liggende verklaring lijkt me nog steeds ontbreken van hardware AA in de RBE's van R600 (ergo: exclusief shader AA), maar wellicht dat je dit nog kunt toelichten?

<edit>
Er zijn trouwens ook andere verklaringen voor de relatief slechte performance van de 8800GT(S) met 8xAA in vergelijk met de 3870. Meest voor de hand liggende: veel minder bandbreedte.
We praten over 76.8GB/s (3870) versus 57.6 GB/s (GT), dus een verschil van 33% in bandwith ;)
Daarnaast is er nog een ander zwak punt...

Texture Fillrate
G92: 43.200 Mtexels/sec
G80: 18.400 Mtexels/sec
RV670: 12400 Mtexels/sec
R600: 11.872 Mtexels/sec
R580: 10.400 Mtexels/sec
Conclusie. De R600 heeft net als de R580 16 texture units. Deze zijn wel getweaked zodat ze per klok sneller zijn, maar ja... de G80 heeft 32 texture units aan boord en de G92 zelfs 64. Toch is het performance verschil niet 4x zo groot, dus kan je stellen dat 1 enkele texture unit van de R600 krachtiger is dan die van de G80. [...]
Gezien texturing maar een deel van de workload van de GPU uitmaakt zul je inderdaad geen overall performanceverschil zien dat 4x zo groot is. Ga je echter kijken naar de percentuele hit bij inschakelen van bijv AF dan zul je dit wel merken. Bij release van de 2900XT had 1 van de reviewsites een AF test gedaan waaruit kwam dat de 2900XT bij inschakelen van 16xAF een overall ~10% performancehit pakte ten opzichte van 0xAF, terwijl de 8800GTX slechts ~0,1% dropte (ofwel 'gratis' AF deed).
Dat is dus wel een behoorlijk voordeel van meer texture units.
Pak deze drie dingen aan (Z sample en AA sample zit in de RBEs) en je hebt een veel beter gebalanceerde architectuur. Op andere gebieden hoeft er niet veel te veranderen. Zo is de pixelfillrate bijna gelijk en overstijgt de R6x0 architectuur de G8x/G9x architectuur wanneer het komt op geometryshading en vertexshadingperformance.
Ik ben heel benieuwd naar in hoeverre RV770 dit gaat oplossen :)

[ Voor 6% gewijzigd door Cheetah op 05-05-2008 17:48 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op maandag 05 mei 2008 @ 17:28:
[...]
Hoe verklaar je dan eigenlijk dat de R580 ondanks lagere clocks en een Z-sample + AA-samplerate van dik minder dan de helft van R600 toch regelmatig sneller is dan de R600 met i.i.g. 2xAA en 4xAA?
Ik kan me namelijk moeilijk voorstellen dat de RBE's van de R600 en RV670 slechter zouden zijn dan die van de R580. De meest voor de hand liggende verklaring lijkt me nog steeds ontbreken van hardware AA in de RBE's van R600 (ergo: exclusief shader AA), maar wellicht dat je dit nog kunt toelichten?
Drivers. En hardware AA ontbreekt niet. Alleen hardware RESOLVE. Dat is heel wat anders dan dat 'hardware AA' ontbreekt. Alle andere stappen van AA daar heeft de R6x0 generatie dedicated hardware voor, alleen is het niet snel genoeg (AA sample rate/Z sample rate).

Sir Eric er over:
I can't help but be a little disappointed that we did not have enough time to get more optimizations into our drivers in time for the launch. I still cringe when I see poor performance (especially if it's compared, to, say, our previous generation products), and send daily emails to the performance and driver team, begging for this or that. In fact, I do believe that they all hate me now. They should join the club.
Over het algemeen is de R600 architectuur nu toch echt wel sneller dan een R580.
Er zijn trouwens ook andere verklaringen voor de relatief slechte performance van de 8800GT(S) met 8xAA in vergelijk met de 3870. Meest voor de hand liggende: veel minder bandbreedte.
We praten over 76.8GB/s (3870) versus 57.6 GB/s (GT), dus een verschil van 33% in bandwith ;)
Verklaar dan ook maar waarom zelfs een 9800GTX soms moeite heeft met het bijhouden van een HD3870 met 8xAA. Of waarom een HD2900XT langzamer is dan een RV670 met AA ondanks de 512-bit memory interface. Maar goed, dat het niet aan de AA resolve, maar aan deze andere zaken ligt, ligt niet meer ter discussie. Dat is op -tig fora al uitgebreid doorgelicht en hier ondertussen ook al.
Gezien texturing maar een deel van de workload van de GPU uitmaakt zul je inderdaad geen overall performanceverschil zien dat 4x zo groot is. Ga je echter kijken naar de percentuele hit bij inschakelen van bijv AF dan zul je dit wel merken. Bij release van de 2900XT had 1 van de reviewsites een AF test gedaan waaruit kwam dat de 2900XT bij inschakelen van 16xAF een overall ~10% performancehit pakte ten opzichte van 0xAF, terwijl de 8800GTX slechts ~0,1% dropte (ofwel 'gratis' AF deed).
Dat is dus wel een behoorlijk voordeel van meer texture units.
Wat betreft AF schaalbaarheid is het echt afhankelijk per game. Ook bij NV kan de drop nog redelijk groot zijn. Het is wel minder dan die van een RV670, dus daar komen meer Texture Filtering Units wel bij van pas.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Het lijkt erop dat nvidia de G92b zal gebruiken als antwoord op de RV770, (en met dat performance/transistor ratio van de G92 ziet dit er weer niet goed uit)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
G92b gaat voorlopig alleen in 9800GT gebruikt worden, samen met G92. In de meest recente drivers worden deze twee uitvoeringen al ondersteunt:

NVIDIA_G92.DEV_0605.1 = "NVIDIA GeFroce 9800 GT"
NVIDIA_G92.DEV_0614.1 = "NVIDIA GeFroce 9800 GT"

De ene is dus een G92 op 65nm, de ander een G92b op 55nm. Dit is een opgevoerde GF8800GT. Deze loopt volgens de laatste roadmaps die ik in handen heb op zo'n 650Mhz core. Hierdoor valt-ie dus netjes onder de 9800GTX wat betreft performance.

D'r is natuurlijk ruimte voor een hoger geklokte G92b met alle 128 streamprocessors actief. Maar daar is geen ruimte meer voor... 9900GTX en 9900GT komen er aan (aka GT200). D'r is ook een GT100 gespot. Dit zou overigens de 9900GT kunnen zijn.

RV770 en G92b zouden ongeveer even groot moeten zijn wat betreft die-size.

[ Voor 3% gewijzigd door CJ op 05-05-2008 22:28 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Nu we het toch over de rekenkracht van diverse gpu's hebben, waar zit dan het uiteindelijke performanceverschil in? Dat Crysis en Lost Planet beter draaien op G80/G92 dan op R600/RV670, heeft dat te maken met het gebrek aan fillrate op RV670/R600, de AA implementatie, het gebruik van de shaders?

Als NV via zijn TWIMTBP programma de games nog veel op fillrate laat leunen, dan is het voor AMD natuurlijk ook slim om daar bij het GPU ontwerp rekening te houden. :)

NV buit de voordelen van zijn architectuur beter uit dan AMD/ATI, misschien moet AMD dan meer afstemmen op de verhoudingen binnen de videochip tussen shaders/bandbreedte/fillrate die NV hanteert. Alle games die dan goed draaien door TWIMTBP werken dan ook op AMD kaarten dan gelijk een stuk beter. Of denk ik dan te simpel?

[ Voor 9% gewijzigd door frankknopers op 05-05-2008 23:00 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
frankknopers schreef op maandag 05 mei 2008 @ 22:58:
Nu we het toch over de rekenkracht van diverse gpu's hebben, waar zit dan het uiteindelijke performanceverschil in? Dat Crysis en Lost Planet beter draaien op G80/G92 dan op R600/RV670, heeft dat te maken met het gebrek aan fillrate op RV670/R600, de AA implementatie, het gebruik van de shaders?

Als NV via zijn TWIMTBP programma de games nog veel op fillrate laat leunen, dan is het voor AMD natuurlijk ook slim om daar bij het GPU ontwerp rekening te houden. :)

NV buit de voordelen van zijn architectuur beter uit dan AMD/ATI, misschien moet AMD dan meer afstemmen op de verhoudingen binnen de videochip tussen shaders/bandbreedte/fillrate die NV hanteert. Alle games die dan goed draaien door TWIMTBP werken dan ook op AMD kaarten dan gelijk een stuk beter. Of denk ik dan te simpel?
Dat is een goede ja gewoon nVidia's trent gaan volgen en op die manier heb je minder last van hun programma.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Astennu schreef op maandag 05 mei 2008 @ 23:55:
[...]


Dat is een goede ja gewoon nVidia's trent gaan volgen en op die manier heb je minder last van hun programma.
Probleem is wel dat de ontwikkeltijd van een nieuwe GPU erg lang is. En als je als NV zo kort voor de 8800GT launch nog niet weet hoeveel shaders de RV670 zal hebben dan wordt het heel erg moeilijk om erachter te komen hoe NV gpu's er over twee jaar uit zullen zien :P

Maar dat bijvoorbeeld Assassin's Creed een patch maakt om het voordeel van DX10.1 ongedaan te maken vind ik echt te zot voor woorden. Alle respect voor de mooie game die ze daar gemaakt hebben, maar met zulke acties verdienen ze geen enkel respect imho. Maargoed, alles draait om geld dus dat soort dingen zullen altijd wel blijven gebeuren. Wie weet wordt het nog wat met AMD's marketing afdeling, bij de RV770 kunnen ze deze maand weer mooi uitpakken. :)

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
CJ schreef op maandag 05 mei 2008 @ 22:27:
RV770 en G92b zouden ongeveer even groot moeten zijn wat betreft die-size.
En dan zal de RV770 het niet halen tov de G92b...

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Bullus schreef op maandag 05 mei 2008 @ 11:30:
[...]
Hoeveel FPS heb je dan?
offtopic:
Dan moet spanx echt minimaal 60Fps willen ofzo, want met wat getunede settings (DX10 @ WinXP) speelde ik Crysis op DX9 Very High, 1680x1050. Gemiddeld 29fps volgends de GPU Bench, en ingame (SP) liep het allemaal soepel. Dit alles met een fully patched Crysis uiteraard, scheelde met 'het origineel' al gauw 5fps.

(Q6600@ 3.2ghz
2Gig DDR2 800
2900Pro @ XT
)

Is die performance onder Crysis met een X2 slechter dan een 2900XT? Kan ik me haast niet voorstellen.

Anyways, ik begin me ook een beetje te ergeren aan dat TWIMTBP programma. In plaats van eerlijk de concurentie aan gaan met ATI heeft Nvidia zich duidelijk gericht op het 'omkopen' van gamedevelopers. Met AC als paradepaardje -O- .
Hopelijk word dat geen trend. :r :r

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
frankknopers schreef op maandag 05 mei 2008 @ 22:58:
Nu we het toch over de rekenkracht van diverse gpu's hebben, waar zit dan het uiteindelijke performanceverschil in? Dat Crysis en Lost Planet beter draaien op G80/G92 dan op R600/RV670, heeft dat te maken met het gebrek aan fillrate op RV670/R600, de AA implementatie, het gebruik van de shaders?
Het is nooit echt vast te pinnen op 1 ding. Het is meestal een combinatie van meerdere factoren.

Gebruik van veel textures zal voordelig werken op een G80/92. AA heeft zowiezo een groot voordeel op de G80/G92 tenzij er gebruik wordt gemaakt van custom resolve filters. Lost Planet is echter een heel erg goed voorbeeld van een game die echt geoptimaliseerd is voor de G80/G92 architectuur. Ik kijk er niet vreemd van op als van de 320 streamprocessors op de R600/RV670 er maar 64 gebruikt worden. ;)
Als NV via zijn TWIMTBP programma de games nog veel op fillrate laat leunen, dan is het voor AMD natuurlijk ook slim om daar bij het GPU ontwerp rekening te houden. :)
Met de pixelfillrate is echter weinig mis bij AMD.
NV buit de voordelen van zijn architectuur beter uit dan AMD/ATI, misschien moet AMD dan meer afstemmen op de verhoudingen binnen de videochip tussen shaders/bandbreedte/fillrate die NV hanteert. Alle games die dan goed draaien door TWIMTBP werken dan ook op AMD kaarten dan gelijk een stuk beter. Of denk ik dan te simpel?
Ik denk dat je te simpel denkt. Indirect heb je wel gelijk. Waar het op neer komt is eigenlijk dat de IHV die het eerste met een nieuwe generatie DX kaarten op de markt komt, een groot voordeel heeft. Zie R300. Zie G80. Die zet meestal de toon voor de games uit die generatie.

Een game zou in principe gewoon geprogrammeerd moeten worden volgens de DX standaard en niet volgens de architectuur van een bepaalde videokaart. De R300 kwam uit het niets, maar volgde perfect de DX9 standaard. Alles draait daar naadloos op en dit werd gebruikt als standaard voor DX9 games. NV volgde het voorbeeld door een vergelijkbare architectuur neer te zetten met de NV40.

Hetzelfde geldt voor G80. Die kwam uit het niets, voldeed aan alle regels van de DX10 standaard en werd als eerste gebruikt voor het ontwikkelen van DX10 games. AMD zou er dus goed aan doen om met iets vergelijkbaars te komen, dus niet met 64x5 shaders maar bv 96x3 of 128x2 of 256x1. De meeste moderne games - die ook nog eens onder het TWIMTBP programma vallen - zijn vaak geoptimaliseerd voor de 128x1 architectuur van NV. Op een AMD GPU zal dit dus in het ergste geval draaien als 64x1.

Het volgen van NV is echter niet nodig... R300 bewees dat door in de meeste DX9 titels die onder het TWIMTBP programma vielen gewoon beter te presteren dan de FX. Hetzelfde gold voor de R420 die vaak beter presteerde dan de NV40 ondanks TWIMTBP. Kom met een goede architectuur die snel is en men gaat wel overstag.
frankknopers schreef op dinsdag 06 mei 2008 @ 00:05:
[...]


Probleem is wel dat de ontwikkeltijd van een nieuwe GPU erg lang is. En als je als NV zo kort voor de 8800GT launch nog niet weet hoeveel shaders de RV670 zal hebben dan wordt het heel erg moeilijk om erachter te komen hoe NV gpu's er over twee jaar uit zullen zien :P
Vergeet niet dat AMD het proces waarin GPUs verschijnen versneld heeft. Elk half jaar komt er een nieuwe highend en upper midrange uit. De lower midrange en lowend moeten 1 jaar mee gaan.
Maar dat bijvoorbeeld Assassin's Creed een patch maakt om het voordeel van DX10.1 ongedaan te maken vind ik echt te zot voor woorden. Alle respect voor de mooie game die ze daar gemaakt hebben, maar met zulke acties verdienen ze geen enkel respect imho. Maargoed, alles draait om geld dus dat soort dingen zullen altijd wel blijven gebeuren. Wie weet wordt het nog wat met AMD's marketing afdeling, bij de RV770 kunnen ze deze maand weer mooi uitpakken. :)
Wedden dat patch 1.2 DX10.1 terug brengt? Want dan heeft NV hun eigen DX10.1 videokaart op de markt. ;)
oeLangOetan schreef op dinsdag 06 mei 2008 @ 00:46:
[...]

En dan zal de RV770 het niet halen tov de G92b...
En dat weet je zeker omdat... ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
CJ schreef op dinsdag 06 mei 2008 @ 01:36:
[...]

En dat weet je zeker omdat... ;)
performance per transistor radio van de R6/R7 slechter is dan dat van de G9/G8

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 01:17

edward2

Schieten op de beesten

oeLangOetan schreef op dinsdag 06 mei 2008 @ 07:55:
[...]

performance per transistor radio van de R6/R7 slechter is dan dat van de G9/G8
Wat weet jij van de R7xx? We moeten nog maar afwachten hoe die presteert en precies is geevolueerd.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 22:47
CJ schreef op dinsdag 06 mei 2008 @ 01:36:
Kom met een goede architectuur die snel is en men gaat wel overstag.
Hehehe, sorry voor de selectieve quote, maar aangezien men in de meerderheid vd spellen niet overstag is (loopt beter op nV architectuur), is de AMD architectuur kennelijk niet een goede?
:+

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

Verwijderd

oeLangOetan schreef op dinsdag 06 mei 2008 @ 07:55:
[...]

performance per transistor radio van de R6/R7 slechter is dan dat van de G9/G8
Het is een behoorlijke aantijging om nu al te zeggen dat R7xx een magere performance/transistor ratio heeft als daar géén onderbouwing voor aanwezig is...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
We've learned that ATI's new chip might end up 1.5 to 1.6 times faster than the current RV670 solution.

In the real world, this should mean that if one game gives 50FPS with RV670 that the new chip should be able to get you around 75FPS at the same settings. On average, the new chip will have to be at least 30 percent faster than the old one to make you even consider it but at least specification wise there is not anything that you might miss.

RV670 was a shrinked and better speced version of R600 with 512bit memory controller crippled to 256bit and it looks that R770 will get that memory upped to 512bit again. At least we know it will end up being fast but we still don’t know what's Nvidia’s real answer to this one.
Komen ze weer met die 512 Bit bus... Die er waarschijnlijk niet in zit...

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
oeLangOetan schreef op dinsdag 06 mei 2008 @ 07:55:
[...]

performance per transistor radio van de R6/R7 slechter is dan dat van de G9/G8
Ja... en? Dat is al wel eens vaker het geval geweest...

R580 384M transistors op een die-size van 352mm²
G71 278M transistors op een die-size van 196mm²

Dat zegt dus niet zo bijster veel.
Puppetmaster schreef op dinsdag 06 mei 2008 @ 10:05:
[...]


Hehehe, sorry voor de selectieve quote, maar aangezien men in de meerderheid vd spellen niet overstag is (loopt beter op nV architectuur), is de AMD architectuur kennelijk niet een goede?
:+
De architectuur is ongebalanceerd. Dat wil niet per definitie zeggen dat het slecht is. Als het slecht was geweest dan was de performance in DX10 games helemaal ingekakt, zoals de FX dat deed bij DX9 games en waar deze soms zelfs in DX8.1 modus moesten draaien. Dat is echter niet het geval.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
CJ schreef op maandag 05 mei 2008 @ 22:27:
RV770 en G92b zouden ongeveer even groot moeten zijn wat betreft die-size.
CJ schreef op dinsdag 06 mei 2008 @ 12:40:
[...]
Ja... en? Dat is al wel eens vaker het geval geweest...

R580 384M transistors op een die-size van 352mm²
G71 278M transistors op een die-size van 196mm²

Dat zegt dus niet zo bijster veel.
ahum, niet dat ik dit allemaal 100% zeker weet, ik zet gewoon even de strategie van nvidia uit & ik denk dat ze zich redelijk zeker van hun stuk voelen.

Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Goeden morgen! :)

Ik kwam zo juist een artikel tegen mbt de HD4870 performance. De geloofwaardigheid moet je wel in twijfel trekken aangezien deze getoonde benchmarkresults (nog) niet officieel erkent worden. Maar goed geruchten zijn ook nieuws.

Afbeeldingslocatie: http://www.guru3d.com/imageview.php?image=13260
Afbeeldingslocatie: http://www.guru3d.com/imageview.php?image=13261
Afbeeldingslocatie: http://www.guru3d.com/imageview.php?image=13262


Bron

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Deze benchmarks zijn reeds op 2 mei geplaatst en uitgebreid besproken.

Ook goedemorgen ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Nou ja uitgebreid?! Ook een goeden morgen. ;) Ik wil wel even in gaan op de speculaties betreft het artikel. Ik las nl. ook zo juist dat Nvidia de 9900 vervroegd wil lanceren om de HD4870 performance te kunnen beconcurreren. Mogen we dan verwachten dat ATi de performance kroon zal terug pakken met de eventuele HD4870 X2?

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Xadeon schreef op woensdag 07 mei 2008 @ 06:55:
Nou ja uitgebreid?! Ook een goeden morgen. ;) Ik wil wel even in gaan op de speculaties betreft het artikel. Ik las nl. ook zo juist dat Nvidia de 9900 vervroegd wil lanceren om de HD4870 performance te kunnen beconcurreren. Mogen we dan verwachten dat ATi de performance kroon zal terug pakken met de eventuele HD4870 X2?
Met de HD4870 alleen weet ik niet of ATi de kroon terug zal krijgen. Misschien single kaart wel maar of een HD4870 de 9800 GX2 aan kan weet ik niet. Ik hoop het natuurlijk van wel maar verwacht van niet. Zeker niet in games zoals crysis die super goed op nVidia hardware draaien. Dat moeten ze toch echt iets geniaals hebben gedaan in de RV770. Maar goed je weet nooit...

De X2 zal wel winnen van de 9800 GX2 moet ook wel anders hebben ze een groot probleem. Want ik ga er van uit dat het topmodel van de GT200 ook wel 15%+ sneller wordt als de 9800 GX2.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dat artikel is gewoon bullshit. Die benchmarks kloppen niet. De GT200 gaat helemaal over de RV770 heen walsen. :P

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CJ schreef op woensdag 07 mei 2008 @ 10:50:
Dat artikel is gewoon bullshit. Die benchmarks kloppen niet. De GT200 gaat helemaal over de RV770 heen walsen. :P
Maar ik mag hopen niet over de R700 :) Die moet enigzins een kans kunnen maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 07 mei 2008 @ 11:34:
[...]


Maar ik mag hopen niet over de R700 :) Die moet enigzins een kans kunnen maken.
Anders maakt ATi toch gewoon een tri- of quad-versie van de RV770 :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op woensdag 07 mei 2008 @ 11:48:
[...]


Anders maakt ATi toch gewoon een tri- of quad-versie van de RV770 :)
Tja dan moeten ze een heel nieuw CF systeem maken wat beter werkt. nVidia gaat die GT200 natuurlijk ook werkend maken op Tri plankjes. En quad gpu op een kaart iets iets te.... + dan dat in quad CF is een nog slechtere schaalbaarheid terwijl 2x GT200 in SLI waarschijnlijk net zo zal schalen als de 9800 GTX nu. Vrij goed dus.

[ Voor 22% gewijzigd door Astennu op 07-05-2008 12:02 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 05 mei 2008 @ 18:04:
Drivers. En hardware AA ontbreekt niet. Alleen hardware RESOLVE. Dat is heel wat anders dan dat 'hardware AA' ontbreekt. Alle andere stappen van AA daar heeft de R6x0 generatie dedicated hardware voor, alleen is het niet snel genoeg (AA sample rate/Z sample rate).

Sir Eric er over:

Over het algemeen is de R600 architectuur nu toch echt wel sneller dan een R580.
Drivers? De computerbase test die je aanhaalt is van eind 2007. Gemiddeld is de 2900XT in de games die Computerbase test slechts 15% sneller dan de X1950XTX met 4xAA. Ik vermoed dat de X1950XTX met 2xAA zelfs sneller is, gezien die daarbij nauwelijks dropt waar de 2900XT direct een stevige drop maakt bij inschakelen van AA.

Wat je schrijft verklaard dus niet waarom de R600 met een 2,3x zo grote (=130% hogere) Z-sample rate & AA sample rate dan de R580 - en een 15% hogere coreclock (!) - het gemideld slechts 15% beter doet met 4xAA (en vrm zelfs minder met 2xAA). Het probleem lijkt me dus niet aan de AA-sample en Z-sample rate te liggen, en de drivers waren eind 2007 al aardig volwassen.

PS: 'Hardware AA' staat in mijn posts synoniem voor 'harware resolve'. Daar hebben we het nl over.
Het lijkt me voor iedereen duidelijk dat R(V)6xx de AA berekening niet aan de CPU overlaat ;)
Xadeon schreef op woensdag 07 mei 2008 @ 06:12:
Ik kwam zo juist een artikel tegen mbt de HD4870 performance. De geloofwaardigheid moet je wel in twijfel trekken aangezien deze getoonde benchmarkresults (nog) niet officieel erkent worden. Maar goed geruchten zijn ook nieuws.

[afbeelding]
[afbeelding]
[afbeelding]

Bron
Volgens de meeste geruchten wordt RV770 zo'n 1,3-1,6x zo snel als RV670.
Volgens deze benchmarks zou 1xRV770 tot dik 1,5x zo snel moeten zijn als de HD3870X2 (ofwel pak 'm beet zo'n 2,5-3x zo snel as 1xRV670). Lijkt dus duidelijk niet te kloppen :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op woensdag 07 mei 2008 @ 13:25:
[...]
Drivers? De computerbase test die je aanhaalt is van eind 2007. Gemiddeld is de 2900XT in de games die Computerbase test slechts 15% sneller dan de X1950XTX met 4xAA. Ik vermoed dat de X1950XTX met 2xAA zelfs sneller is, gezien die daarbij nauwelijks dropt waar de 2900XT direct een stevige drop maakt bij inschakelen van AA.
Bij 0xAA is de R600 sneller. Met 4xAA/AF is een R600 sneller dan de R580. Het is niet erg aannemelijk dat voor een tussengeval de R580 sneller is. :?
Maar misschien heb je een link met wat benches die dit toch onderstrepen?
Wat je schrijft verklaard dus niet waarom de R600 met een 2,3x zo grote (=130% hogere) Z-sample rate & AA sample rate dan de R580 het gemideld slechts 15% beter doet met 4xAA (en vrm zelfs minder met 2xAA). Het probleem lijkt me dus niet aan de AA-sample en Z-sample rate te liggen, en de drivers waren eind 2007 al aardig volwassen.
Je conclusie zou ook kunnen zijn dat performance geen lineare functie is. Een G80 is toch ook niet een vijfvoud sneller... :z

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op woensdag 07 mei 2008 @ 14:10:
Bij 0xAA is de R600 sneller. Met 4xAA/AF is een R600 sneller dan de R580. Het is niet erg aannemelijk dat voor een tussengeval de R580 sneller is. :?
Maar misschien heb je een link met wat benches die dit toch onderstrepen?
Zie onderstaand Elite Bastards 2900XT AA scaling plaatje voor een beeld van wat ik bedoel:

Afbeeldingslocatie: http://www.elitebastards.com/hanners/ati/edgedetect/charts/scaling.png

De R600 architectuur dropt direct bij inschakelen van AA (dus bij 2xAA) 40% in performance, en van daaruit nog maar 10% om bij 4xAA te komen. Bij R580 gaat deze drop 1.) veel gelijkmatiger en 2.) percentueel veel minder hard. Dit wordt i.m.o. niet verklaard door Z-sampling en AA-sampling rates, die bij de R600 juist veel hoger liggen, en ook niet door drivers.
Je conclusie zou ook kunnen zijn dat performance geen lineare functie is. Een G80 is toch ook niet een vijfvoud sneller... :z
Performance is ook geen lineaire functie.
Maar als je kijkt naar netto rendement (gemiddeld slechts 15% sneller @4xAA met een 130% toename in AA en Z-sampling rates en een 15% hogere coreclock (!)) wordt toch echt wel e.e.a. duidelijk lijkt me.

[ Voor 4% gewijzigd door Cheetah op 07-05-2008 14:46 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Tja, je kan er uren over discussieren. Als je gelooft dat het niet door de AA en Z-sample rates komt, dan is dat jou goed recht. Ik zou zeggen, lees de tech-discussies er eens op na op de fora zoals die van Beyond3D, Rage3D, HardOCP, Xbit Labs, NV News. Daar wordt uitgebreid door de kenners uit de doeken gedaan waar de bottleneck ligt en waarom het niet aan de shaderresolve ligt.

Overigens zeg je dat mijn review uit eind 2007 is... de HL2 benchmarks die je aanhaalt zijn van Juni 2007. Nog ouder en de performance is sindsdien een stuk beter geworden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Naast performance zou de RV770 ook een bijzonder laag idle stroomverbruik hebben van ongeveer 10 watt. Hoe heeft AMD dit voor elkaar gekregen? Klokt de chip nu nog verder terug dan bij de HD3000 serie of kunnen er ook onderdelen in de core worden uitgeschakeld? Weet iemand hier meer over?

Het stroomverbruik in idle is wel erg belangrijk, want het kan soms echt tientallen euro's schelen op jaarbasis.

Goud is geen geld


Acties:
  • 0 Henk 'm!

Verwijderd

frankknopers schreef op donderdag 08 mei 2008 @ 10:44:
Naast performance zou de RV770 ook een bijzonder laag idle stroomverbruik hebben van ongeveer 10 watt. Hoe heeft AMD dit voor elkaar gekregen? Klokt de chip nu nog verder terug dan bij de HD3000 serie of kunnen er ook onderdelen in de core worden uitgeschakeld? Weet iemand hier meer over?

Het stroomverbruik in idle is wel erg belangrijk, want het kan soms echt tientallen euro's schelen op jaarbasis.
Dat stroomverbruik is waar ik het meeste oren naar heb. Ook hoop ik dat de de audio-chip hebben geupdate, zodat hij nu de nieuwere audio-formaten (DTS-MA/DolbyHD) ondersteunt. En daarbij dan dus een ondersteuning van de HDMI 1.3 standaard (zoals die eigenlijk in alle HDMI-apparatuur van nu wordt toegepast). Dan is de Ati/AMD de eerste video-kaart die klaar is voor de HDTV + Bluray-generatie namelijk :)

Acties:
  • 0 Henk 'm!

Verwijderd

frankknopers schreef op donderdag 08 mei 2008 @ 10:44:
Naast performance zou de RV770 ook een bijzonder laag idle stroomverbruik hebben van ongeveer 10 watt. Hoe heeft AMD dit voor elkaar gekregen? Klokt de chip nu nog verder terug dan bij de HD3000 serie of kunnen er ook onderdelen in de core worden uitgeschakeld? Weet iemand hier meer over?
Delen uitschakelen klinkt het meest logische. Gewoon arrays van shaders uitdoen oid. Wat betreft de clock: deze heeft nou eenmaal een bepaald domein. Een 700 MHz chip op 70 MHz laten lopen zie ik niet gebeuren. Maar iig het is fijn voor de stroomkosten, en zal waarschijnlijk de betrouwbaarheid ook ten goede komen. En je kan met t groene karakter leuke PR maken.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

<knip> ivm verkeerd topic ;)

[ Voor 96% gewijzigd door Cheetah op 08-05-2008 13:01 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Ik kijk bij upgraden ook naar idle verbruik, idle lawaai en audio capability :) ! Grappig dat het hier nu in twee posts direct genoemd wordt ... waar blijft een kaart die enorm stil en zuinig is op idle en 1 of 2 keer HMDI 1.2/1.3 heeft met goed werkende DTS :/ ? Tijdens load mag dat ding dan wel fikken hoor prima, heb ik toch mijn geluid aan tijdens games! Dus uitschakelen van onderdelen ben ik helemaal voor - als ze maar weer op het juiste moment aangaan :> .

Ik heb me altijd afgevraagd hoe het zit met die clock domeinen, mijn GTX en GTS kaarten wilden ook niet lager als 183MHz core lopen; dan kreeg ik niet alleen harde lock-ups ... ik kreeg zelfs artifacts wtf :/ ? Wat uitleg daar zou zeer gewaardeerd worden!

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Cassius schreef op donderdag 08 mei 2008 @ 17:22:
Ik kijk bij upgraden ook naar idle verbruik, idle lawaai en audio capability :) ! Grappig dat het hier nu in twee posts direct genoemd wordt ... waar blijft een kaart die enorm stil en zuinig is op idle en 1 of 2 keer HMDI 1.2/1.3 heeft met goed werkende DTS :/ ? Tijdens load mag dat ding dan wel fikken hoor prima, heb ik toch mijn geluid aan tijdens games! Dus uitschakelen van onderdelen ben ik helemaal voor - als ze maar weer op het juiste moment aangaan :> .

Ik heb me altijd afgevraagd hoe het zit met die clock domeinen, mijn GTX en GTS kaarten wilden ook niet lager als 183MHz core lopen; dan kreeg ik niet alleen harde lock-ups ... ik kreeg zelfs artifacts wtf :/ ? Wat uitleg daar zou zeer gewaardeerd worden!
MHz verlagen heeft geen nut als het voltage hoog is dan win je er niets mee in idle. load wel iets maar je hebt meer winst door het verlagen van het voltage.

Ik kan me ook wat voorstellen dat de MHz heel laag zetten niet goed samen gaat met een in verhouding hoog voltage maar ik weet niet of dat de oorzaak is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Hielko
  • Registratie: Januari 2000
  • Laatst online: 11-09 05:18
Cassius schreef op donderdag 08 mei 2008 @ 17:22:
Ik kijk bij upgraden ook naar idle verbruik, idle lawaai en audio capability :) ! Grappig dat het hier nu in twee posts direct genoemd wordt ... waar blijft een kaart die enorm stil en zuinig is op idle en 1 of 2 keer HMDI 1.2/1.3 heeft met goed werkende DTS :/ ? Tijdens load mag dat ding dan wel fikken hoor prima, heb ik toch mijn geluid aan tijdens games! Dus uitschakelen van onderdelen ben ik helemaal voor - als ze maar weer op het juiste moment aangaan :> .

Ik heb me altijd afgevraagd hoe het zit met die clock domeinen, mijn GTX en GTS kaarten wilden ook niet lager als 183MHz core lopen; dan kreeg ik niet alleen harde lock-ups ... ik kreeg zelfs artifacts wtf :/ ? Wat uitleg daar zou zeer gewaardeerd worden!
Het volgende is speculatie, maar ik kan me voorstellen dat bij hele lage kloksnelheden (en ook bij hele hoge kloksnelheden overigens) signalen te laat/te vroeg aankomen ten opzichte van andere delen van de chip: zeker als deze delen ook nog eens op een andere kloksnelheid lopen.

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Astennu schreef op donderdag 08 mei 2008 @ 20:51:
[...]


MHz verlagen heeft geen nut als het voltage hoog is dan win je er niets mee in idle. load wel iets maar je hebt meer winst door het verlagen van het voltage.

Ik kan me ook wat voorstellen dat de MHz heel laag zetten niet goed samen gaat met een in verhouding hoog voltage maar ik weet niet of dat de oorzaak is.
Dan zou er een programma moeten zijn zoals Notebook Hardware Control, dat je per domein/clockspeed/multiplier een voltage kunt instellen. Dan heb je dus per snelheid een voltage dat lager is en dat scheelde 18-20 graden op mijn Pentium M-735 :/ . Zoiets zou wel praktisch zijn software matig :) !

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Verwijderd

Bij een laag idle stroomverbruik zou je inderdaad denken aan een lagere kloksnelheid gecombineerd met het verlagen van het voltage. Dit wordt al een tijd toegepast voor cpu's (CnC bij AMD procs), nu zijn gpu's natuurlijk totaal anders dan cpu's maar ik zou (bij gebrek aan info) er toch op gokken dat het een dergelijke techniek is.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 09 mei 2008 @ 01:04:
Bij een laag idle stroomverbruik zou je inderdaad denken aan een lagere kloksnelheid gecombineerd met het verlagen van het voltage. Dit wordt al een tijd toegepast voor cpu's (CnC bij AMD procs), nu zijn gpu's natuurlijk totaal anders dan cpu's maar ik zou (bij gebrek aan info) er toch op gokken dat het een dergelijke techniek is.
AMD doet dit ook al bij de HD3870. Alleen daar is het voltage nog vrij hoog op 300 MHz. dat zou lager kunnen. Al moet ik zeggen dat het verder verlagen niet gigantisch veel meer opleverde. Maar ze zijn daar al wel mee bezig.

Ik zat ook op de FP dat die SLI power saving nu goed werkt. Volgens mij was dit bij ATi nog niet het geval. Hopelijk komt dat ook snel moet ook wel voor dat pumma platform.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Een aardig artikeltje op techreport wat betreft Assassins Creed DX10.1 removal patch

Ubisoft comments on Assassin's Creed DX10.1 controversy

Marketing dollars }:|

Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Tjah, verbaast me in elk geval niet. Opmerkelijk dat DX10.1 visueel niks toevoegd aan de game, maar slechts een performance boost geeft. Geen wonder dat Nvidia dat niet echt leuk vindt.
TR: What other image quality and/or performance enchancements does the DX10.1 code path in the game offer?

Beauchemin: There is no visual difference for the gamer. Only the performance is affected.

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Verwijderd schreef op vrijdag 09 mei 2008 @ 10:40:
Een aardig artikeltje op techreport wat betreft Assassins Creed DX10.1 removal patch

Ubisoft comments on Assassin's Creed DX10.1 controversy

Marketing dollars }:|
Echt heel smerig - de wereld zit er vol mee. Het gaat allemaal om het geld en de eerlijkheid is ver te zoeken. Soit; ik geef er ook niets om, laat ze maar lekker ongelukkig continue op zoek zijn naar meer geld :) .

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • jeroen84
  • Registratie: Februari 2002
  • Laatst online: 12-07 14:13
Ik heb wel vaker gehoord dat DirectX10.1 vooral performance is.

De meeste 10.1 specifieke onderdelen kunnen ook met DX10 worden uitgevoerd, maar DX10.1 zijn in die onderdelen sneller.

Acties:
  • 0 Henk 'm!

Verwijderd

http://www.tgdaily.com/content/view/37326/98/

Ook nog een mooi stuk er over.
“Of course it removes the render pass! That's what 10.1 does! Why is no one pointing this out, that's the correct way to implement it and is why we will implement 10.1. The same effects in 10.1 take 1 pass whereas in 10 it takes 2 passes.”

[ Voor 62% gewijzigd door Verwijderd op 09-05-2008 14:05 ]


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 07-09 17:21

Krizzie

Progressive Music \o/

Xadeon schreef op vrijdag 09 mei 2008 @ 12:05:
Tjah, verbaast me in elk geval niet. Opmerkelijk dat DX10.1 visueel niks toevoegd aan de game, maar slechts een performance boost geeft. Geen wonder dat Nvidia dat niet echt leuk vindt.


[...]
Vreemd, AA zag er met DX10.1 toch echt een stuk beter uit dan met DX10.0.. :?

Geluidswolk


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Krizzie schreef op vrijdag 09 mei 2008 @ 22:20:
[...]
Vreemd, AA zag er met DX10.1 toch echt een stuk beter uit dan met DX10.0.. :?
Enkel in 1 specifiek geval (een stuk van het menu), in het spel zelf was het identiek.

Acties:
  • 0 Henk 'm!

Verwijderd

Nou ik hoop dat er ook een HD 4850 AGP komt aangezien ik al erg tevreden bent met me Sapphire HD 3850 AGP 512MB die ik van me vader vandaag heb gekregen hehe
Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/30315-2/Sapphire+ATi+Radeon+HD+3850+AGP+512MB+Rev_A1+0802+Top.JPG Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/30306-2/Sapphire+ATi+Radeon+HD+3850+AGP+512MB+Rev_A1+0802+Back.JPG Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/30309-2/Sapphire+ATi+Radeon+HD+3850+AGP+512MB+Rev_A1+0802+Headshot.JPG

ik vraag me af wat die jumper voor is, weet iemand dat?

hier nog meer pics ervan:
http://www.3dfx.ch/galler...er-Grapics-cards/3850AGP/

DX 10.1 op de AGP bus kan nog best leuk worden hehe, hij zit in een Dual OpteronDP 248 CG met 2x 1GB PC3200 ECC Reg van Kingston HyperX en een MSI MS-9130 K8T Master2-FAR Mobo.

me pa had hem gegeven omdat het reconditioneren van me Gainward 6800 UE AGP was mislukt, die kwam van een stofschade, en het herstellen ervan was mislukt vandaar dat ik deze mocht hebben heh Ik was van zo als dat zou kunnen hij zo van geen probleem als jij er maar happy mee bent hehe :D en dat ben ik zekers. *O* :w

Aangezien dit monster al alle games lekker trekt ik hoop dat de HD 4850 AGP het ook trekt met gratis FSAA x4 of zo :) Ik denk dat er nog zat interesse is in de AGP markt :)

Als er info is over een HD 4850 AGP dan hoor ik het graag als iedere andere AGP gamer denk ik :)

[ Voor 26% gewijzigd door Verwijderd op 10-05-2008 23:17 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
oeLangOetan schreef op zaterdag 10 mei 2008 @ 12:01:
[...]

Enkel in 1 specifiek geval (een stuk van het menu), in het spel zelf was het identiek.
Euhm ik geloof toch van niet.

De bovenkant van Altair's (?) 'hoofd' is constant aliased, en wat andere plekken waar HDR intensief toegepast is is er ook geen spoor van anti-aliasing te zien.
Ik had vernomen (en gezien) dat daar geen aliasing meer aanwezig is met DX10.1 . (of ik heb het fout en was dat het verschil tussen DX9 en 10, maar er stond me iets van DX10.1 bij.)

Pentaxiaan


Acties:
  • 0 Henk 'm!

Verwijderd

gaan de HD 3800 als HD 4800 serie ook OpenGL 3.0 ondersteunen? aangezien dat OpenGL 3.0 de nieuwe OpenGL standaard wordt.

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
Verwijderd schreef op zondag 11 mei 2008 @ 00:19:
gaan de HD 3800 als HD 4800 serie ook OpenGL 3.0 ondersteunen? aangezien dat OpenGL 3.0 de nieuwe OpenGL standaard wordt.
Zover ik weet is OpenGL 3.0 een driver kwestie. Er zijn niet meer mogelijkheden dan OpenGL 2.1, de taal is slechts flink op de schop genomen. Het schiet alleen volgens mij nog niet echt op met OpenGL 3.0 (de laatste OpenGL pipeline newsletter stamt ook alweer uit begin 2007 als ik me niet vergis :| )

Het komt er dus op neer dat er OpenGL 3 drivers gemaakt moeten worden, verder is de functionaliteit zover ik weet dezelfde als OpenGL 2.1.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

Verwijderd

The Flying Dutchman schreef op zondag 11 mei 2008 @ 00:45:
[...]


Zover ik weet is OpenGL 3.0 een driver kwestie. Er zijn niet meer mogelijkheden dan OpenGL 2.1, de taal is slechts flink op de schop genomen. Het schiet alleen volgens mij nog niet echt op met OpenGL 3.0 (de laatste OpenGL pipeline newsletter stamt ook alweer uit begin 2007 als ik me niet vergis :| )

Het komt er dus op neer dat er OpenGL 3 drivers gemaakt moeten worden, verder is de functionaliteit zover ik weet dezelfde als OpenGL 2.1.
ah oke dus als het om een driver kwestie gaat dan zou iedere kaart die OpenGL 2.0/2.1 kunnen dat ze ook 3.0 aan kunnen hmm intessant, althans voor de projecten waar ik aan mee doe als
ODF : Open Descent Foundation
http://www.odf-online.org/homepage/index.php

en DXX-Rebirth :)
http://www.dxx-rebirth.de/

Kan het erg handig voor ons zijn hehe. ik vraag me af of er ook een DX10.2 komt of zullen ze meteen naar DX11 gaan... heh ik weet het, ik kijk wel erg ver soms maare over het vervolg van DX10.1 leek me ook wel interessant , het kan zijn dat R800 dit gaat ondersteunen, althans dat die ook bij DX10.1 blijft is me ook nog is de vraag :D

Veranderingen als nieuwe API ondersteuning kijk ik erg op naar voorruit, de 4800 serie wordt voor mij wel een interessant onderdeel als de 5800 serie wat ik denk wat R800 serie wordt.

Er staan leuke als interessante tijden voor ons tegemoet.

[ Voor 11% gewijzigd door Verwijderd op 11-05-2008 01:28 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 09 mei 2008 @ 10:40:
Een aardig artikeltje op techreport wat betreft Assassins Creed DX10.1 removal patch
Ubisoft comments on Assassin's Creed DX10.1 controversy
Marketing dollars }:|
Gewoon lezen wat er staat, dat interview staat haaks op jouw conclusie eruit:
TR: Does the removal of this "render pass during post-effect" in the DX10.1 have an impact on image quality in the game?

Beauchemin: With DirectX 10.1, we are able to re-use an existing buffer to render the post-effects instead of having to render it again with different attributes. However, with the implementation of the retail version, we found a problem that caused the post-effects to fail to render properly.
[...]
TR: What specific factors led to DX10.1 support's removal in patch 1?

Beauchemin: Our DX10.1 implementation was not properly done and we didn't want the users with Vista SP1 and DX10.1-enabled cards to have a bad gaming experience.
En niet te vergeten:
Since publishing this story, we've spoken further with both Nvidia and Ubisoft about some of the issues involved. Nvidia spokesman Ken Brown told us unequivocally that "no money changed hands" as a result of Ubisoft joining Nvidia's "The Way It's Meant To Be Played" program, because that program is entirely a co-marketing arrangement. As part of this program, Nvidia may promote Assassin's Creed for Ubisoft in various ways (including magazine advertising) and may offer engineering resources and development assistance. But, Brown said, the value for Ubisoft comes solely from such activities.
[...]
Brown also said Nvidia exerted no influence whatsoever on Ubisoft or the development team with regard to the DirectX 10.1 code path.

Ubisoft spokesman Michael Beadle confirmed to us that Ubisoft's participation in TWIMTBP was strictly a co-marketing deal, and that Nvidia did not pay Ubisoft any money as a result of the deal. He seconded Brown's statement that Nvidia did not influence the decision to remove DirectX 10.1 support from the first patch for Assassin's Creed. Beadle said the decision was made strictly by the game's development team.
Maargoed, men heeft al van te voren besloten hoe het komt dat DX10.1 ondersteuning (voorlopig) verwijderd wordt uit AC, dus ongeacht wat erover gezegd wordt door nV en het AC dev. team zal men die vooropgezette mening daaruit lezen :)

Doet me trouwens denken aan dat geval met verwijderen van hardware resolve AA support uit CoJ DX10 (nadat AMD de volledige distributierechten daarvan had aangekocht). Een nog duidelijker verhaal, maar toen lazen we hier de exact omgekeerde lijn van argumentatie... het zal eens niet :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 00:07
Ah dus jij gelooft de marketingman van Ubisoft die zegt dat hij geen steekpenningen heeft aangenomen van NV.

:')

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

leonpwner1 schreef op maandag 12 mei 2008 @ 14:56:
Ah dus jij gelooft de marketingman van Ubisoft die zegt dat hij geen steekpenningen heeft aangenomen van NV.
We hebben inmiddels in bovenstaand interview de 'tech lead' van AC voorbijgehad, en de 'spokesman' van zowel Ubisoft als die van nVidia. Beide partijen ontkennen dat er geld heen en weer is geschoven. Maar ongeacht wat er door ongeacht wie over gezegd wordt geloof jij dat het wel om steekpenningen moet gaan natuurlijk..? :)

En tja, ik neem vermoedelijk zelfs een marketingman serieuzer in deze kwesties dan iemand die zichzelf al classificeert als 'fanboy' van om 't even welk van de betrokken partijen. De marketingman heeft van die twee tenminste wel toegang tot de bij de kwestie behorende relevante informatie ;)

[ Voor 24% gewijzigd door Cheetah op 12-05-2008 15:16 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 00:07
Ja hoor, en NVIDIA en/of Ubisoft gaat ook echt toegeven dat ze een dealtje hebben gemaakt om ATi-users te naaien, dat geloof je toch zelf niet? Lekkere 'argumentatie', marketingmannen (of vrouwen) geloof ik niet, beetje emotionele argumentatie als je het mij vraagt. Een dief bekent toch ook niet dat hij iets gestolen heeft?

Overigens ben ik AMD fanboy, geen ATi fanboy ;) Niet dat dat er toe doet, want ik weet mijn keuze wel objectief te maken zonder me te baseren op emotionele argumenten.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

leonpwner1 schreef op maandag 12 mei 2008 @ 15:12:
Ja hoor, en NVIDIA en/of Ubisoft gaat ook echt toegeven dat ze een dealtje hebben gemaakt om ATi-users te naaien, dat geloof je toch zelf niet? Lekkere 'argumentatie', marketingmannen (of vrouwen) geloof ik niet, beetje emotionele argumentatie als je het mij vraagt.
De lead AC developper heeft in dat interview de achtergrond gegeven voor verwijderen van de support.
Maar zoals ik al aangaf staat voor jou al vast wat er gebeurd is, ongeacht wie er ongeacht wat over zegt. Niet dat er ook maar een milligram bewijs voor die stelling is... maarja, dat AC in TWIMTBP zit is uiteraard als bewijs genoeg, met de grondaanname dat TWIMTBP developpers omkoopt. Doet er natuurlijk niet toe dat je met dergelijke grondaannames elke gewenste stelling zonder bewijs bewezen krijgt, maar who cares toch? :)
Over 'emotionele argumentatie' gesproken ;)
Een dief bekent toch ook niet dat hij iets gestolen heeft?
Zelfs al zouden nV en Ubisoft het op een accoordje gegooid hebben, dan nog is dat hun goed recht.
Tis Ubisofts game en zij beslissen wat ze ermee doen, niet de AMD fancommunity.
Je illustratie betr. een dief gaat dus hoe dan ook scheef.
Overigens ben ik AMD fanboy, geen ATi fanboy ;) Niet dat dat er toe doet, want ik weet mijn keuze wel objectief te maken zonder me te baseren op emotionele argumenten.
Een objectieve fanboy? Volgens mij introduceer je een nieuw begrip ;)

[ Voor 3% gewijzigd door Cheetah op 12-05-2008 15:27 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 00:07
Cheetah schreef op maandag 12 mei 2008 @ 15:24:
[...]
De lead AC developper heeft in dat interview de achtergrond gegeven voor verwijderen van de support.
...
Niet dat er ook maar een milligram bewijs voor die stelling is... maarja, dat AC in TWIMTBP zit is uiteraard als bewijs genoeg, met de grondaanname dat TWIMTBP developpers omkoopt.
De achtergrond, niet het bewijs. Het enige 'bewijs' dat ik gezien heb ik dat er geen verschil is en dat je niets ziet van die 'overgeslagen pass'. Daarnaast, was dat het niet doel van DirectX10.1, om meerdere passes efficiënter af te handelen waardoor dingen met minder passes gerenderd kunnen worden?

Is het niet toevallig dat DX10.1 er uitgehaald wordt maar later wel terug komt, en dat later toevallig ook de GT200 komt met DX10.1 support?

Waarom laten ze DX10.1 niet zitten, als er iets mis is - waar niemand iets van merkt - dan kunnen ze dat toch prima fixen in de 2e update zonder iets te hoeven verwijderen?

Just some thoughts, geen 'bewijs' voor wat dan ook though.
Maar zoals ik al aangaf staat voor jou al vast wat er gebeurd is, ongeacht wie er ongeacht wat over zegt.
Quote eens even waar ik gezegd heb dat voor mij vast staat wat er gebeurd is?
[...]
Zelfs al zouden nV en Ubisoft het op een accoordje gegooid hebben, dan nog is dat hun goed recht.
Tis Ubisofts game en zij beslissen wat ze ermee doen, niet de AMD fancommunity.
Je illustratie betr. een dief gaat dus hoe dan ook scheef.
De vergelijking van dief gaat misschien lichtelijk scheef, punt blijft dat ze echt niet toe gaan geven dat ze dealtjes sluiten om de concurrentie te benadelen hoor, daar zijn genoeg andere vergelijkingen bij te verzinnen.
[...]
Een objectieve fanboy? Volgens mij introduceer je een nieuw begrip ;)
Ik ben een fan van AMD, maar baseer mijn keuze op reviews - op een objectieve manier. Als Intel beter is koop ik een Intel. Misschien is fanboy dan niet de juiste classificatie, maar who cares, ik heb weer een ondertitel.

Acties:
  • 0 Henk 'm!

  • Fresh T.
  • Registratie: Februari 2002
  • Laatst online: 21:14
Cheetah schreef op maandag 12 mei 2008 @ 15:06:
[...]
We hebben inmiddels in bovenstaand interview de 'tech lead' van AC voorbijgehad, en de 'spokesman' van zowel Ubisoft als die van nVidia. Beide partijen ontkennen dat er geld heen en weer is geschoven. Maar ongeacht wat er door ongeacht wie over gezegd wordt geloof jij dat het wel om steekpenningen moet gaan natuurlijk..? :)
Even los van het feit of nVidia iets met de verwijdering van DX10.1 support te maken heeft, mag ik je even herinneren aan de volgende post van je:
Cheetah schreef op donderdag 12 juli 2007 @ 16:36:
Hierin zou er onder de aanschaf van de distributierechten AMD/ATI in het voordeel zijn geweest in de COJ benchmark. Je geeft aan dat Techland samen met ATI heeft besloten om hardware AA eruit te slopen, samen met optimalisaties voor nVidia. Dat zou dus komen door het geld wat AMD/ATI heeft gebruikt bij de aanschaf, volgens jouw redenatie.

Nu het verhaal AC. Dat is een TWIMTBP game, waarmee nVidia, zij het via geld, zij het via ontwikkelings ondersteuning, een bijdrage aan levert. Nu was er het toeval dat via DX10.1 de hardware van ATI ineens voordeel leek te hebben, maar opeens verdwijnt deze support via een patch.

Waar jij bij de COJ benchmark moord en brand schreeuwde dat er onder invloed van geld het een en ander is bekokstoofd (zonder enige vorm van bewijs, want het werd immers door Techland ontkent), roep je hier dat er geen bewijs is dat nVidia er iets mee te maken heeft (want er is geen bewijs, ontkenningen door Ubisoft, nVidia alsmede het dev team). Ik vraag mij af waarom je anderen dan bekritiseert op dat ze niet consequent zijn in hun bewoordingen en uitspraken, terwijl je het zelf precies zo doet.

Acties:
  • 0 Henk 'm!

  • KneoK
  • Registratie: December 2001
  • Laatst online: 20:08

KneoK

Not in a million lightyears

Cassius schreef op vrijdag 09 mei 2008 @ 13:54:
[...]


Echt heel smerig - de wereld zit er vol mee. Het gaat allemaal om het geld en de eerlijkheid is ver te zoeken. Soit; ik geef er ook niets om, laat ze maar lekker ongelukkig continue op zoek zijn naar meer geld :) .
Wat is er smerig ? Dat er het vermoeden bestaat dat er geld gemoeit is ? Ik zie Ati nergens in dat stuk klagen over het feit dat nVidia de schuldige is bij het verwijderen van de DX10.1 support, Ubisoft verklaart heel netjes dat renderbugs de reden zijn van verwijderen op dit moment ("Beauchemin: Our DX10.1 implementation was not properly done and we didn't want the users with Vista SP1 and DX10.1-enabled cards to have a bad gaming experience.") en ik zie wat uitspraken van de nVidia spokesman die aangeeft dat zij geen invloed hebben gehad in de beslissing om DX10.1 te verwijderen ("Nvidia spokesman Ken Brown told us unequivocally that "no money changed hands" as a result of Ubisoft joining Nvidia's "The Way It's Meant To Be Played" program, because that program is entirely a co-marketing arrangement." ... "Brown also said Nvidia exerted no influence whatsoever on Ubisoft or the development team with regard to the DirectX 10.1 code path.").

Ik zie in dit stukje niets wat door Ati, Ubisoft of nVidia is gezegd waaruit je kan concluderen dat Ubisoft onder druk gezet is en daarom de support weer heeft verwijderd.

Het enige wat je zou kunnen concluderen is dat de nieuwe implementatie voor de volgende patch op een laag pitje gezet is totdat nVidia met zijn eigen DX10.1 hardware komt, niet zo gek als je een hele marketingcampagne hebt uitgezet. Als er dan iets fout gaat dan is het fijn dat je bij het herstellen meteen wat invloed hebt. Dat dat twijfelachtige praktijken zijn ontken ik niet maar laten we ons daar dan op concentreren in plaats van blijven roepen dat nVidia de reden is dat DX10.1 nu verwijderd is met een patch.

Edit: is er ergens overigens al een statement van Ati over dit "probleem" ? Zij zijn uiteindelijk immers de gebeten hond in deze situatie. Oneerlijke concurrentie is in het verleden nooit een reden geweest om het stil te houden, waarom nu dan wel ? Geeft Ati gewoon geen statement omdat er stiekem gewoon niets aan de hand is ? Of heb ik ergens een persbericht gemist ?
Je kan mij in ieder geval niet vertellen dat Ati geen onderzoek verricht als ze erachter komen dat het eerste produkt wat gebruik maakt van de features van de nieuwe lijn Ati kaarten zo aangepast wordt dat de nieuwe features weer nutteloos zijn. Ook de 20% performancewinst (waarbij ik nu moet toegeven dat ik inderdaad fout heb gezeten bij het speculeren over de renderpass die is weggelaten) is een goede reden om flink onderzoek te doen want nu heb je als kaartenbakker eindelijk een goed voordeel en dan wordt dat zonder pardon weer weggehaald.

@leonpwner >>> Wantrouwig van aard ? Jezus zeg, als er een vliegtuig in je achtertuin neerstort, geloof je dat dan ook pas totdat je een officiele statement van de luchtvaartmaatschappij hebt ?
Je laat geen enkele andere optie open, je trekt alles in twijfel wat er gezegd wordt door andere partijen dan "de jouwe" en laat zo geen enkele ruimte voor objectieve discussie. Kom op zeg, "Ah dus jij gelooft de marketingman van Ubisoft die zegt dat hij geen steekpenningen heeft aangenomen van NV. " Geef mij 1 gegronde reden waarom ik dat niet zou doen !!!

"
Is het niet toevallig dat DX10.1 er uitgehaald wordt maar later wel terug komt, en dat later toevallig ook de GT200 komt met DX10.1 support?"

Nee, dat is helemaal niet toevallig en daar kun je nog helemaal niets over zeggen, alleen speculeren, omdat Ubisoft concreet aangeeft niet eens zeker te weten of DX10.1 support ooit terug gaat komen. De kans is reeel dat de support weer terugkomt als nVidia ook met een DX10.1 kaart komt, maar het meeste is puur gebaseerd op toevalligheden en speculatie. Tot die tijd kun jij niet beweren dat je gelijk hebt en een willekeurig ander persoon ook niet. Dat je dingen in twijfel trekt is prima, maar dring die mening niet op aan een ander, iets waarvan ik van mening bent dat je het wel doet (bedoeld of onbedoeld).

[ Voor 36% gewijzigd door KneoK op 12-05-2008 16:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op maandag 12 mei 2008 @ 14:50:
[...]
Gewoon lezen wat er staat, dat interview staat haaks op jouw conclusie eruit:
It's all abou teh money. Zeker als als nV er wat miljoenen in heeft zitten is het vechten tegen de bierkaai. Dat was mijn conclusie.
Doet me trouwens denken aan dat geval met verwijderen van hardware resolve AA support uit CoJ DX10 (nadat AMD de volledige distributierechten daarvan had aangekocht). Een nog duidelijker verhaal, maar toen lazen we hier de exact omgekeerde lijn van argumentatie... het zal eens niet :)
Ouwe koeien? Ach ja toen was er nog het argument van HDR+AA correct filteren. Dat had enig fundament. In dit geval heb ik nog niet echt een duidelijk technisch valide reden gehoord.

Acties:
  • 0 Henk 'm!

  • KneoK
  • Registratie: December 2001
  • Laatst online: 20:08

KneoK

Not in a million lightyears

Verwijderd schreef op maandag 12 mei 2008 @ 16:12:
[...]


It's all abou teh money. Zeker als als nV er wat miljoenen in heeft zitten is het vechten tegen de bierkaai. Dat was mijn conclusie.


[...]


Ouwe koeien? Ach ja toen was er nog het argument van HDR+AA correct filteren. Dat had enig fundament. In dit geval heb ik nog niet echt een duidelijk technisch valide reden gehoord.
Ik kaats de bal weer even terug:

"Gewoon lezen wat er staat, dat interview staat haaks op jouw conclusie eruit:"

Heb je het artikel goed gelezen ? Uit dat artikel moet je namelijk concluderen dat er geen geld gemoeit is met het TWIMTBP programma maar alleen marketingtechnische voordelen en technische ondersteuning. Er zijn volgens dat artikel geen miljoenen gemoeid dus je conclusie is op niets gebaseerd.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Fresh T. schreef op maandag 12 mei 2008 @ 15:40:
Even los van het feit of nVidia iets met de verwijdering van DX10.1 support te maken heeft, mag ik je even herinneren aan de volgende post van je:
Cheetah schreef op donderdag 12 juli 2007 @ 16:36:
Hierin zou er onder de aanschaf van de distributierechten AMD/ATI in het voordeel zijn geweest in de COJ benchmark. Je geeft aan dat Techland samen met ATI heeft besloten om hardware AA eruit te slopen, samen met optimalisaties voor nVidia. Dat zou dus komen door het geld wat AMD/ATI heeft gebruikt bij de aanschaf, volgens jouw redenatie.

Nu het verhaal AC. Dat is een TWIMTBP game, waarmee nVidia, zij het via geld, zij het via ontwikkelings ondersteuning, een bijdrage aan levert. Nu was er het toeval dat via DX10.1 de hardware van ATI ineens voordeel leek te hebben, maar opeens verdwijnt deze support via een patch.

Waar jij bij de COJ benchmark moord en brand schreeuwde dat er onder invloed van geld het een en ander is bekokstoofd (zonder enige vorm van bewijs, want het werd immers door Techland ontkent), roep je hier dat er geen bewijs is dat nVidia er iets mee te maken heeft (want er is geen bewijs, ontkenningen door Ubisoft, nVidia alsmede het dev team). Ik vraag mij af waarom je anderen dan bekritiseert op dat ze niet consequent zijn in hun bewoordingen en uitspraken, terwijl je het zelf precies zo doet.
Er is wel even een enorme orde van grootte verschil in 'leveren van een bijdrage' (nV TWIMTBP & ATi GITG) en 'opkopen van alle distributierechten'. In het 2e geval wordt de game effectief van jou, gezien de dev. zijn rechten erop opgeeft.
Als CoJ gewoon normaal in GITG had gezeten dan had je me niet of nauwelijks gehoord.

Verder heb je het over 'zonder enige vorm van bewijs', omdat door Techland ontkend werd.
Het geval wil dat 1 van de hardwaresites de CoJ DX10 build met hardware resolve AA bij Techland had opgevraagd ter vergelijk. Techland gaf aan dat ze die niet mochten verstrekken, omdat AMD de distributierechten had, en AMD weigerde om de build te verstrekken. Nu kun je dat 'zonder enige vorm van bewijs' noemen, maar als dat al 'geen bewijs' is dan hebben we het hier helemaal nergens over.

Waar het me o.m. om ging was dat in geval van dat Techland/AMD verhaal - wat me toch wel erg duidelijk lijkt - zalvend en ontkennend werd gesproken, terwijl in dit geval dat veel minder obvious is (Ubisoft heeft in tegenstelling tot Techland destijds nog volledige rechten en beslissingsbevoegdheid over hun game) moord en brand wordt geschreeuwd :)

Trouwens: Juist het feit dat nV's GT200 er binnenkort aan komt zou i.m.o. geen logische motivatie zijn om nu DX10.1 support eruit te halen, tenzij er nog wat anders speelt... dat Ubisoft er op dit moment geen prioriteit aan geeft om DX10.1 te fixen kan er allicht mee te maken hebben dat ze momenteel hun resources elders nodig hebben, en nu ff geen prio geven aan iets dat nog zeer weinig marktaandeel heeft.
Er zijn zat alternatieven te bedenken buiten 'nV zal ze wel omgekocht hebben'.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Thanks 4 the link :)
In the beginning, everything looked perfect. The DX10.1 API included in Assassin’s Creed enabled Anti-Aliasing in a single pass, which allowed ATI Radeon HD 3000 hardware (which supports DX10.1) to flaunt a competitive advantage over Nvidia (which support only DX10.0). But Assassin's Creed had problems. We noticed various reports citing stability issues such as widescreen scaling, camera loops and crashes - mostly on Nvidia hardware.

Ubisoft became aware of these complaints, which ultimately led to the announcement of a patch. According to Ubisoft Montreal, this patch will remove support for DX10.1 and exactly this result caused Internet forums to catch fire.
[...]
Michael Beadle, senior PR representative at Ubisoft and Jade Raymond, producer of the game, told us in a phone call that the decision to remove DX10.1 support was made by game developers. Both told us that there was no external influence which would mean that Nvidia did not participate in this decision. It was explained to us that features were implemented and tested on a platform with DirectX 10.1 graphics during the development process, which led to an implementation in the final code. However, that code was untested on a large number of DX10 systems and that ultimately led to crashes or system instability.

Ubisoft's explanation indicates a classic case of QA failure that already happened to EA's Crysis as well. Unfinished code was released as the final version. The changes developer made caused instabilities with GeForce hardware, but owners of older ATI products should also be affected (Radeon 2900, for instance) and expect crashes or camera lockdowns.
[...]
Conclusion

We leave it up to you to draw your own conclusion. Our take is that the Ubisoft team could have done a better to bringing the game to the PC platform. The proprietary Scimitar engine showed a lot of flexibility when it comes to advanced graphics, but the team developed the DirectX 10.1 path without checking the stability of DirectX 10.0 parts, causing numerous issues on the most popular DX10 hardware out here - the GeForce 8 series. The new patch will kill DX10.1 support and it is unclear when DX10.1 will see another implementation. The first "victim" of this battle was Nvidia (on a title they support), the second victim was AMD. Who is really at a loss here, however, are gamers, who are expected to pony up $50 or $75 (depending on where you live) for a title that was not finished.

Sadly, this is the way PC gaming is: There is a great game, but it is burdened with technical issues and ends up getting caught in marketing wars. We have no doubt that the development team made a mistake in QA process and integrated a feature that caused instabilities with Nvidia cards. Given Nvidia’s market share, Ubisoft had to patch it. What we do not understand is the reason for an explanation that left more questions than answers.

But then again, only the developers at Ubisoft know what the Scimitar engine can and cannot do.

Solution is simple: if you run ATI hardware, just don't patch the game (once that the patch comes out) and enjoy all the advantages of DirectX 10.1 - e.g. one pass less to render.
Lijkt er enigzins op dat die betrokken ATi developpers die hielpen optimaliseren voor DX10.1 het standaard DX10.0 path 'uit het oog verloren' waren... zou ook kunnen verklaren waarom commentaar van AMD op Ubisoft's beslissing uitbleef.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

al dat gezeik van TWIMTBP als GITG moet over zijn :(

Ik vind dat games neutraal moeten zijn, zodat gamers met een NV als ATI , S3 of Matrox noem maar op, gewoon met alle plezier kunnen gamen ipv dat commerciele onzin :r , waar men niet zo veel aan hebt, alleen maar ellende :/

Ik heb liever een neutraal spel wat goed draait op alle kaarten ipv van erg goed op e1 en dat de rest niet goed wordt ondersteund, het ligt niet alleen aan de VGA vendor maar ook aan de game developers.

[ Voor 50% gewijzigd door Verwijderd op 12-05-2008 17:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@cheetah
Je quote wel selectief vind ik :P.
DirectX 10.0 vs. DirectX 10.1 in Assassin' Creed effects

The difference that developers failed to explain is the way how AntiAliasing is controlled in DirectX 10.0 and 10.1. In DX10.0, it was impossible to access information for each sample from a depth buffer. This actually led to a costly slowdown in AntiAliasing operations. 10.1 allows shader units to access all AntiAliasing buffers. All of this was brought to limelight by article an over at Rage3D.

Following three quotes from software developers, this effect was experienced with all DirectX 10 titles, and there is a good chance that you've already played their games. We talked to a (DX10.0) game developer close to Ubisoft, who requested to remain anonymous, told us that Ubisoft’s explanation walks on thin ice. Here is what he responded to our inquiry and his take on Ubisoft’s statement:

“Felt you might want to hear this out. Read the explanation and laughed hard … the way how DX10.1 works is to remove excessive passes and kill overhead that happened there. That overhead wasn't supposed to happen - we all know that DX10.0 screwed AA in the process, and that 10.1 would solve that [issue]. Yet, even with DX10.0, our stuff runs faster on GeForce than on Radeon, but SP1 resolves scaling issues on [Radeon HD 3800] X2.”

We received a second reply from another game developer, who is currently a DirectX 10.1 title that fully compliant with DX10.0 hardware:

“Of course it removes the render pass! That's what 10.1 does! Why is no one pointing this out, that's the correct way to implement it and is why we will implement 10.1. The same effects in 10.1 take 1 pass whereas in 10 it takes 2 passes.”

A third email reply reached us from a developer a multiplatform development studio:

“Our port to DX10.1 code does not differ from DX10.0, but if you own DX10.1-class hardware from either Nvidia or ATI, FSAA equals performance jump. Remember "Free FSAA"?”

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
http://hardocp.com/articl...5Myw4LCxoZW50aHVzaWFzdA==
Kyle’s note: We think we have done our homework here and don’t see any reason for DX10.1 support to be taken away from Radeon 3800 series owners. This is the first time we have seen the ATI Radeon 3870 benefit from the heavily marketed DX10.1 support. To simply take that away is a travesty and we think that Ubisoft should at least leave the choice up to the end user. Obviously you don’t have to patch the game, so Ubisoft can’t really take it away from you, but don’t expect continued support for the DX10.1 version of the game, at least not for the time being. And that time being is very likely till NVIDIA gets its own DX10.1 GPU considering it has a reported US$4,000,000.00 in deals invested with Ubisoft at the moment. Time will tell.
Via het TWIMTBP programma wordt er misschien niet rechtstreeks geld overgemaakt maar wel via andere kanalen!

En Kyle is niet iemand die dit zomaar zou uitvinden...

btw 4 mil is ongeveer een 1/4 à 1/5 van de kost van een gemiddeld spel.

[ Voor 3% gewijzigd door oeLangOetan op 12-05-2008 18:57 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 01:17

edward2

Schieten op de beesten

Wachten jullie ook nog steeds op voorbeelden/screenshots met daarop de renderbugs in dx10.1 op ATI hardware :D

Overigens is ondersteuning van GPU-fabrikanten in principe goed, zolang de grens van sabotage voor de andere concurrent niet wordt overschreden en niet teveel gebruik wordt gemaakt van vendor specifieke codes/features (als dit ook via standaard impelmentaties kan) (BF shadows).

[ Voor 63% gewijzigd door edward2 op 12-05-2008 19:08 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • KneoK
  • Registratie: December 2001
  • Laatst online: 20:08

KneoK

Not in a million lightyears

edward2 schreef op maandag 12 mei 2008 @ 19:03:
Wachten jullie ook nog steeds op voorbeelden/screenshots met daarop de renderbugs in dx10.1 op ATI hardware :D

Overigens is ondersteuning van GPU-fabrikanten in principe goed, zolang de grens van sabotage voor de andere concurrent niet wordt overschreden en niet teveel gebruik wordt gemaakt van vendor specifieke codes/features (als dit ook via standaard impelmentaties kan) (BF shadows).
Als je de laatste paar posts gelezen had dan had je nu niet geroepen dat de renderbugs onder DX10.1 ontstaan ;) Het is juist de DX10.0 only hardware die problemen heeft met de implementatie. In ieder geval op nVidia hardware en vrijwel zeker ook op Ati DX10.0 hardware.

@oeLangOetan >>> Die 4 miljoen is al een aantal keer aangekaart maar ik heb nog niets of niemand gezien die mij kon vertellen waar die 4 miljoen in is geinvesteerd en ik zie overal speculatie dat die 4 miljoen dus gebruikt is voor AC (he, als we het nergens kunnen plaatsen dan blijft er maar 1 ding over he......), kunnen we Ubisoft dan gewoon niet AC-Soft noemen ? Want het komt op mij over dat Ubisoft alleen nog maar bezig is met AC als ik het hier allemaal zo hoor, dus alles wat er nu bij Ubisoft gebeurt moet wel op de een of andere manier te herleiden zijn naar AC...

Leuk overigens dat er in dat stukje geroepen wordt dat ze geen enkele reden kunnen verzinnen om de ondersteuning voor DX10.1 hardware te verwijderen, maar als er op vrijwel alle andere systemem problemen ontstaan dan zul je dus een keuze moeten maken, een geheel detectiesysteem inbouwen die DX10.1 hardware herkent en zo de juiste renderpaths kiest of gewoon de ondersteuning even op een laag pitje zetten. Mijn keus zou dezelfde zijn als die Ubisoft nu genomen heeft.

Dat die Kyle er op dat moment van overtuigd was zijn huiswerk te hebben gedaan is ook fantastisch, helaas zijn de conclusies uit dat stukje nu wel redelijk omver geworpen.

Je kunt blijven geloven in een grote anti-Ati conspiracy, ik vind het verspilde moeite.

[ Voor 21% gewijzigd door KneoK op 12-05-2008 19:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Far Cry 2? Nog wel meer hoor. Ubisoft is op zich een best grote ontwikkelaar.

http://farcry.uk.ubi.com/

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
KneoK, dit is geen conspiracy, dit is gewone bedrijfspraktijk

(niemand zal dat natuurlijk durven toegeven :p, nvidia & ubisoft willen gewoon de community sussen)

[ Voor 45% gewijzigd door oeLangOetan op 12-05-2008 19:59 ]


Acties:
  • 0 Henk 'm!

  • KneoK
  • Registratie: December 2001
  • Laatst online: 20:08

KneoK

Not in a million lightyears

Verwijderd schreef op maandag 12 mei 2008 @ 19:50:
Far Cry 2? Nog wel meer hoor. Ubisoft is op zich een best grote ontwikkelaar.

http://farcry.uk.ubi.com/
Precies de reden waarom ik het aankaart ;) Er wordt totaal geen ruimte gelaten voor andere opties voor dat geld. "Er is 4 miljoen betaald, we weten niet waarom, maar we voelen ons genaaid met onze DX10.1 hardware dus onze conclusie is dat die 4 miljoen bestaat uit steekpenningen aan de juiste personen om een voordeeltje ten opzichte van de concurrent er uit te slepen."

En we hebben het over een deal waarbij 4 miljoen is gemoeid, maar waar staat dat dat geld letterlijk van de ene bankrekening naar de andere is overgemaakt ? Misschien heeft nVidia wel een hele grote reklamecampagne opgezet voor het een of ander van Ubisoft en heeft ze dat 4 miljoen gekost. Dan spreek je nog steeds over een deal met Ubisoft en nog steeds over een deal van 4 miljoen. Zou alleen zonde zijn voor dit topic als blijkt dat die 4 miljoen he-le-maal niets met AC te maken heeft.

@oeLanOetan >>> Kan in bepaalde branches best de normale gang van zaken zijn, maar totdat jij of iemand anders met bewijs komt dat het ook daadwerkelijk zo is gebeurt in deze situatie hou ik het op speculatie en conspiracy theory. En dan bedoel ik de hele theorie die hier bedacht wordt.

[ Voor 11% gewijzigd door KneoK op 12-05-2008 20:00 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
hehe nvidia gaat verticaal integreren met de game developpers als het zo verder gaat

@KneoK: Deze discussie is dood, het is alleen jammer dat jij (en anderen) de controverse niet zien.

[ Voor 39% gewijzigd door oeLangOetan op 12-05-2008 20:09 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Ik heb er niet veel vertrouwen meer in dat die RV770 nog in mei gaat komen. Dan hadden we op z'n minst al iets meer moeten zien dan louter een fake benchmark op een vreemde site. :P

Wordt het dan toch de Computex in juni?

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
frankknopers schreef op maandag 12 mei 2008 @ 20:10:
Wordt het dan toch de Computex in juni?
Er is al een bericht geweest waarin stond dat de RV770 niet op computex komt.
Ik weet niet of het als is langsgeweest maar op fudzilla staat dat de RV770 een 512 bit bus heeft :+ .

Acties:
  • 0 Henk 'm!

  • KneoK
  • Registratie: December 2001
  • Laatst online: 20:08

KneoK

Not in a million lightyears

oeLangOetan schreef op maandag 12 mei 2008 @ 20:04:
hehe nvidia gaat verticaal integreren met de game developpers als het zo verder gaat

@KneoK: Deze discussie is dood, het is alleen jammer dat jij (en anderen) de controverse niet zien.
Het is jammer dat jij (en anderen) er een controverse van maakt. En een beetje onbeleefd, vind je niet, een discussie dood verklaren terwijl er duidelijk nog andere mensen die niet oeLangOetan heten over aan het discussieren zijn ? Ook een beetje jammer om iets dood te verklaren en dan nog het laatste woord te willen hebben. Het is in ieder geval duidelijk dat jij voor niets anders open staat dan de ideeen die je hebt over deze situatie. Er is genoeg "bewijs" aangedragen om je op z'n minst te moeten doen twijfelen maar je blijft zwart/wit roepen dat nVidia de boosdoener is.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

KneoK schreef op maandag 12 mei 2008 @ 20:28:
Het is jammer dat jij (en anderen) er een controverse van maakt. En een beetje onbeleefd, vind je niet, een discussie dood verklaren terwijl er duidelijk nog andere mensen die niet oeLangOetan heten over aan het discussieren zijn ? Ook een beetje jammer om iets dood te verklaren en dan nog het laatste woord te willen hebben. Het is in ieder geval duidelijk dat jij voor niets anders open staat dan de ideeen die je hebt over deze situatie. Er is genoeg "bewijs" aangedragen om je op z'n minst te moeten doen twijfelen maar je blijft zwart/wit roepen dat nVidia de boosdoener is.
;)
Ofwel, zoals ik een stuk eerder al schreef:
Cheetah schreef op maandag 12 mei 2008 @ 14:50:
Maargoed, men heeft al van te voren besloten hoe het komt dat DX10.1 ondersteuning (voorlopig) verwijderd wordt uit AC, dus ongeacht wat erover gezegd wordt door nV en het AC dev. team zal men die vooropgezette mening daaruit lezen :)
oeLangOetan heeft i.m.o. wel gelijk dat een dergelijke discussie 'dood' is, alleen om een iets andere reden dan hij aandraagt: namelijk dat het zinloos is om te discussieren met bevooroordeelde mensen die niets anders willen horen, lezen of zien dan iets dat wat ze vooraf al vonden bevestigd ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.