[Algemeen] ATi Nieuwsdiscussie Topic - Deel 73 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 6 Laatste
Acties:
  • 8.417 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • tjtristan
  • Registratie: Augustus 2005
  • Laatst online: 12-06 00:17
Cheetah schreef op zondag 11 november 2007 @ 23:30:

[...]
Als ik op basis van dit soort argumentatie aankoopbeslissingen zou moeten nemen dan had ik nooit meer ATi moeten kopen. Ik heb 2x achter elkaar gehad dat een X1900XT binnen 8 uur na inschroeven de geest gaf. Dus: koop kaart -> binnen 8 uur kaart dood -> RMA -> 3 weken wachten -> nieuwe kaart retour -> binnen 8 uur kaart dood. Geen artifacts, of ja wel gedurende ~10 seconden, daarna gewoon morsdood.

Gewoon pech gehad, en heb daarna nog heerlijk kunnen genieten van mijn 3e X1900XT en daarna XTX.
Prima kaartjes waren dat trouwens :)
Ja dat begrijp ik, maar ik spreek natuurlijk gewoon uit eigen ervaring, het kan ook best zijn dat je alleen goede ervaring hebt met nvidia en niet met ati, maar ik denk dat niemand sinds het begin van vista altijd zijn kaartje goed heeft kunnen draaien (die eerste drivers waren serieus heel brak), drivers zullen nu wel een stuk beter zijn voor vista neem ik aan.

Het is en blijft een persoonlijke keus, laten het hier maar op houden, om nutteloze discussies te voorkomen :P.

http://specs.tweak.to/15535


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
WinnieXX schreef op maandag 12 november 2007 @ 00:33:
Hmm, ff wachten op de nieuwe reeks, of bij mijn huidige 2900xt er een 2e 2900xt bij zetten?
Speel nogal op hoge res van 1900x1200 op mijn sync 27" :)
Ik denk dat je echt niet moet vergeten dat dat ontzettend veel stroom gaat kosten. Als je dat zelf niet hoeft te betalen of je ouders vinden het geen punt, tja boeie :D!

Acties:
  • 0 Henk 'm!

Verwijderd

Als ik nu een 3870 zou kopen en daar later nog een eentje uit de R700 bij zou zetten,zou dit samen in crossfire kunnen werken? Zou nml wel een mooie deal zijn dan ;)

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op zondag 11 november 2007 @ 17:01:
[...]
Lol mijn Hd2900 XT haalt maar 90.4. Waarom zijn alle nVidia kaarten veel sneller ?
Ik dacht dat het R600 architectuur zou uitblinken in deze benchmark? Blijkbaar niet.

March of the Eagles


Acties:
  • 0 Henk 'm!

Verwijderd

Hacku schreef op maandag 12 november 2007 @ 09:15:
[...]


Ik dacht dat het R600 architectuur zou uitblinken in deze benchmark? Blijkbaar niet.
Nee maar de gt wel. Ik haal daar dik 88,4 fps met 32xAA aan (sli) en 16xAF 1680x1050. En alles uit op 1680x1050 haal ik 380.4 fps

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op maandag 12 november 2007 @ 07:31:
Als ik nu een 3870 zou kopen en daar later nog een eentje uit de R700 bij zou zetten,zou dit samen in crossfire kunnen werken? Zou nml wel een mooie deal zijn dan ;)
Nee. Zie ook de FAQ in de first post:
Vraag: CrossFire: Kan ik een RV670 aan een R600 of R700 koppelen?

Nee!

Als je CrossFire wilt gebruiken om twee videokaarten te laten samenwerken voor multi-renderen (dwz meerdere kaarten renderen het beeld), dan is dat NIET mogelijk. Je kan alleen videokaarten aan elkaar koppelen die gebruik maken van dezelfde GPU.

Een HD3870 kan je dus alleen koppelen aan een videokaart die ook gebruik maakt van een RV670, dus bijvoorbeeld de HD3850 of een andere HD3870.
FAQ ;)

[ Voor 7% gewijzigd door CJ op 12-11-2007 09:40 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Eerste benchmarks (met Catalyst 7.10 dus niet de launch drivers):

Afbeeldingslocatie: http://i21.photobucket.com/albums/b299/Genocide737/6pin.jpg

Afbeeldingslocatie: http://i21.photobucket.com/albums/b299/Genocide737/3870na.jpg

Afbeeldingslocatie: http://i21.photobucket.com/albums/b299/Genocide737/table.gif
From 3Dmark06 and Crysis, it looks like nVidia 8800GT is better than HD3870. However, there is one thing we need to tell you

We found ATi HD3870 is actually has better picture process while Crysis benching.

Specially the light refraction from water, HD3870 is very smooth but 8800GT is not. It is around frame 500 to 1000.

If you have chance, compare it. You will know what are we talking about.

The price for ATi HD3870 we are not sure yet, but it should be less than 8800GT.

Not only that, CF can do on P35, X38, 965, and 975 those motherboard as long as there are 2 PCI-E slot.
http://iax-tech.com/video/3870/38701.htm

Ook interessant voor sommigen:
Also, we are very surprise to see that as AA increase to 8X, the HD3870 beats 8800GT on SM3.0. On HD2900XT, AA was its weakest point and make people hesitate to buy it. Good job on ATi

[ Voor 13% gewijzigd door CJ op 12-11-2007 10:23 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

Ziet der niet eens zo slecht uit, had wel graag een HD2900XT der bij gehad. Maar dat gaat wel komen, maar lijkt me een leuk kaartje voor dat geld als deze test klopt.

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Also, we are very surprise to see that as AA increase to 8X, the HD3870 beats 8800GT on SM3.0. On HD2900XT, AA was its weakest point and make people hesitate to buy it. Good job on ATi
3DMark ;)

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Harmsen
  • Registratie: November 2000
  • Laatst online: 15:33
Xfastest has linked to some screen shots from PCOnline China which looks quite authentic and which are some of the first benchmarks of the upcoming Radeon HD 3870.

They've got screenshots using TechPowerUP's GPU-Z utility showing the details of the Radeon HD 3870 and it looks like the real deal. The GPU is lcoked at 769MHz with the RAM at 1,197MHz, slightly lower than the reference speeds, but this is quite normal.

The GPU is no hotter than 37 degrees C, so we're not sure why AMD had to design a dual slot cooler for these cards. The test rig was an old Athlon 64 4000+ clocked at 2.9GHz with 2GB of DDR2 memory at 580MHz, so forget about comparing it to anything you've got.

The card scored almost 30,000 in 3DMark03, 14,885 in 3DMark05 and 9,528 in 3DMark06. Not outstanding, but considering the unexciting test platform, these numbers aren't bad.
Bron: Bron: Fudzilla

Als de kaart maar 37 graden wordt dan hoeft de fan niet zo hard te draaien lijkt mij. Dat zou betekenen dat het een vrij stille kaart is. Lijkt mij een goede kaart voor een media center waar je ook af ent toe een spelletje op wilt draaien. UVD voor High Def films, genoeg power om de meeste spellen te draaien en een media center moet wat mij betreft zo min mogelijk herrie maken. Hopelijk is de prijs dan wel < 200€

What a fine day for Science! | Specs


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op maandag 12 november 2007 @ 10:06:
Eerste benchmarks (met Catalyst 7.10 dus niet de launch drivers):

[afbeelding]

[afbeelding]

[afbeelding]


[...]


http://iax-tech.com/video/3870/38701.htm

Ook interessant voor sommigen:


[...]
Lol dit is wel in crossfire. zeer nette score trouwens. maar een single kaart vind ik niet indrukwekkend tegenover een singel gt. Ik zie liever een benchmark waarbij ook sli word getest

Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

Kwam net een leuke link tegen op de AMD / ATi site staan een aantal termen die op de kaartjes worden gebruikt leuk uitgelegd.

http://ati.amd.com/compan...ry/includes/list.html#ce2

Veel is reeds oud, maar toch leuk om eens ff door heen te lezen.

[ Voor 17% gewijzigd door Apoca op 12-11-2007 11:05 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • R-O-Y
  • Registratie: Juni 2006
  • Laatst online: 03-06 21:16

R-O-Y

Ik maak mijn zinnen nooit

Als het verschil in spellen ook zo klein is zie ik geen rede om geen ATI te halen :*) Met mij waarschijnlijk nog een hoop mensen :P (Mauss bvb :+ )

Youtube Download ubersnel.nl


Acties:
  • 0 Henk 'm!

Verwijderd

R680 runs at close to 800 MHz, surprisingly small and slated for early February
Written by Andreas G 12 November 2007 09:35

We found out that AMD is quite pleased with the progress of the R680 card. The dual-GPU RV670 card is suppose to be the next big thing from AMD/ATI, and right now it seems that the card will be ready for launch in January or early February. At the same time we hear that the card itself is suppose to be quite convenient in size. Although still big, the card is suppose to keep the same height as current high-end cards, just longer. There will be people with too narrow cases, but it shouldn't be a problem for the high-end users.

Even though the upcoming Radeon HD 3870 and 3850 will sport lower frequencies than expected, this is entirely due to the coolers. R680 will instead sport a massive cooler similar to the one R600 has, and we all know that this is a good cooler considering the heat that the R600 emits. Copper and heatpipes will join to keep the beast at bay, and even make it possible for it to run at frequencies similar to that of Radeon HD 3870, which means about 775 MHz.
Als ie net zo performed als de 3870 CF van hierboven dan lijkt me t een goede opvolger van de R600. :)

Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

Sapphire Drastically Reduces Price of HD 2900 Graphics Cards on Newegg

It seems as though Sapphire is having some sort of sale, offering their entire stock of HD 2900 graphics card either at a discount, or with free shipping. Get them while they are hot:

2900GT 256MB 256-bit GDDR3: $170 + shipping.
2900Pro 512MB 512-bit GDDR3: $250 shipped.
2900XT 512MB 512-bit GDDR3: $280 + shipping.
2900Pro 1GB 512-bit GDDR4: $300 + shipping
2900XT 1GB 512-bit GDDR4: $340 + shipping.

http://www.newegg.com/Pro...ertyCodeValue=679%3A28902

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Flowmo
  • Registratie: November 2002
  • Laatst online: 18-08 08:24
Zo te zien schaal Crossfire ook lekker in 3dmark, varieert van 1.6 zonder AA tot zelfs 1.9!

Als de 3870 ook met echte spellen net zo lekker presteert en de prijs nog een stuk gunstiger wordt, dan weet ik wel zeker dat dit mijn kaartje wordt ^^

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 12 november 2007 @ 10:06:
Eerste benchmarks (met Catalyst 7.10 dus niet de launch drivers):
[afbeelding]

http://iax-tech.com/video/3870/38701.htm

Ook interessant voor sommigen:
Also, we are very surprise to see that as AA increase to 8X, the HD3870 beats 8800GT on SM3.0. On HD2900XT, AA was its weakest point and make people hesitate to buy it. Good job on ATi
Zoals Hacku terecht al opmerkt: 3DMark. Volgens 3DMark06 was de XT ook bijna even snel als de GTX ;)

Kijk ook eens wat er gebeurd bij 8xAA/16xAF t.o.v. 8xAA zonder AF. De 38x0 heeft net als de 2900XT blijkbaar nog steeds een onevenredig grote AF drop. Gamen/testen met AA, zonder AF, zullen de meeste mensen/sites niet doen.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Het punt is meer dat als het echt 3DM specifieke optimalisaties zijn, de HD2900XT ook een betere score zou moeten neerzetten met 8xAA met Cat 7.10. Volgens mij is dat niet het geval. Kan iemand dat even testen? Als de performancedrop kleiner is bij een HD3870 dan bij een HD2900XT, dan ligt dat echt niet aan die 35Mhz verschil in coresnelheid, zeker niet bij een bandbreedte intensieve instelling als 8xAA.

AF is texture unit afhankelijk, en daar heeft de RV670 er nog steeds 16 van net als bij de R600 vs 58 bij de GF8800GT. Dan doen die 16 het dus helemaal niet zo slecht. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 12 november 2007 @ 11:01:
Het punt is meer dat als het echt 3DM specifieke optimalisaties zijn, de HD2900XT ook een betere score zou moeten neerzetten met 8xAA met Cat 7.10. Volgens mij is dat niet het geval.
Ik verwacht van wel. In AMD's eigen benchmarks legt de 3870 met AA het nipt af tegen de 2900XT.
AF is texture unit afhankelijk, en daar heeft de RV670 er nog steeds 16 van net als bij de R600 vs 58 bij de GF8800GT. Dan doen die 16 het dus helemaal niet zo slecht. ;)
Ik denk dat niemand het interessant vind dat die 16 texture units het 'helemaal niet zo slecht' doen t.o.v. de 58 van de 8800GT. Het gaat erom hoe de kaart als geheel het doet i.v.m. concurrentie.
De GT doet virtually 'free' 16xAF zo te zien... bij de 3870 dropt de score van 8000 -> 7000: 14% impact.
En dat gaat gevoeld worden in de aankomende IQ benchmarks (4xAA/16xAF standaard)...

AA en AF performance. 2 architecturele problemen blijkbaar gehandhaafd dus helaas... :/

[ Voor 8% gewijzigd door Cheetah op 12-11-2007 11:24 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op maandag 12 november 2007 @ 11:08:
Ik denk dat niemand het interessant vind dat die 16 texture units het 'helemaal niet zo slecht' doen t.o.v. de 58 van de 8800GT.
Volgens mij zitten we hier nog altijd op een forum waar de technologie achter een product ook interessant is en het niet alleen om e-peen cijfertjes gaat toch? De e-peen topics worden hier toch echt flink binnen de perken gehouden. :+
Het gaat erom hoe de kaart als geheel het doet i.v.m. concurrentie. De GT doet virtually 'free' 16xAF zo te zien... bij de 3870 dropt de score van 8000 -> 7000: 14% impact.
En dat gaat gevoeld worden in de aankomende IQ benchmarks (4xAA/16xAF standaard)...
Veel mensen kijken inderdaad naar de eindperformance. Maar veel mensen kijken ook naar de prijs en de performance die je voor die prijs krijgt, terwijl anderen weer naar de stilte van de koeler of stroomverbruik kijken. Voor elk wat wils.

Dat de G80 serie AF bijna voor 'free' doet komt dus door de achterliggende techniek. 56 texture units (dus niet 58 zoals ik eerst schreef) helpen dan wel mee hoor. Maar wat betreft efficientie ligt het wel lager dan bij AMD. Als AMD nou slim is, verhogen ze dit bij een toekomstige generatie want de texture units in de huidige generatie zijn zeer capabel... alleen het aantal had wel omhoog gemogen... maar ik ben bang dat dit niet gaat gebeuren.

Ik vraag me af of DX10.1 nog iets gaat veranderen aan de performance aangezien deze ook wat algemene optimalisaties bevat voor filtering zonder dat een app hier specifiek om moet vragen (zelfde geldt voor deferred rendering).
AA en AF performance. 2 architecturele problemen blijkbaar gehandhaafd dus helaas... :/
Grappig dat je het steeds "probleem" noemt. Technisch gezien was het geen probleem. Maar dat had ik al eens een paar pagina's terug uitgelegd. Dat je de performancedrop tegen vindt vallen ten opzichte van de vorige generatie of de concurrentie is wat anders.

En ik heb het al vaker gezegd, het is een kaart binnen dezelfde generatie. Dus drastische veranderingen verwachten van een mainstream die-shrink als de RV670 ten opzichte van de R600 is net zoiets als denken dat Sinterklaas echt bestaat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

CJ schreef op maandag 12 november 2007 @ 11:42:
[...]
is net zoiets als denken dat Sinterklaas echt bestaat.
CJ wat zeg je me nu dan :'( :P

Maar ik moet zeggen de cijfers van de RV670 vallen me zeker niet tegen. Maar denk dat je goed kunt zien eigenlijk dat de HD2900XT al op ongeveer 90% van de capaciteit van de R6XX serie core zat.

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • MauSS
  • Registratie: Juni 2005
  • Laatst online: 29-06-2023
_Diesel_ schreef:
Reken maar dat je met 2x3870 crysis op zelf 1680x1050 niet met alles open (DX 10 of course) kan draaien.. :O
Sinds wanneer is Crysis het enigste spel dat er gespeeld wordt? die game-engine is gewoon apart, het mag er dan wel mooi uit zien maar vind het wel overdreven... ik ken spellen die er net zo mooi uitzien en toch veel beter lopen ;)
R-O-Y schreef:
Dan noem je ook inderdaad 1 spel. Misschien gaan mensen dat wel helemaal niet spelen ;) Ik ga bvb COD4 spelen. Als dat goed werkt op 1920*1200 ben ik tevreden :)
Dat loopt op mijn 1950XT op 1920x1200 prima! met alles High (AA off) :) en dan praten we inderdaad over een spel met een goede engine leuke beelden en goed speelbaar.. 8) (en zo zien we 't graag)
meljor schreef:
cod4 heb ik nu voor 2/3 deel gespeeld.

DAT is pas een game met een goede engine en mooie plaatjes! draait hier echt supersnel op een quad met 8800gts 640.
Juust'm daar ben ik het ook mee eens, een leuke game goede plaatjes en toch lekker speelbaar (ook op oudere kaarten) en zo hoort het eigenlijk. in tegenstelling tot Crysis. (te zwaar...)
_Diesel_ schreef:
Als ik nu een nieuwe computer zou kopen zou ik die kopen voor:
-Crysis
-GTA IV
-Assasins Creed
een hele nieuwe pc voor maar 3 spelletjes? :9 is een PS3 of X360 dan niet wat voor jou? lijkt me zo zonder geld als je een nieuwe pc koopt als je er maar 3 spelletjes op doet..
WinnieXX schreef:
Hmm, ff wachten op de nieuwe reeks, of bij mijn huidige 2900xt er een 2e 2900xt bij zetten?
Speel nogal op hoge res van 1900x1200 op mijn sync 27" :)
zoals Peakaboo al zei: het kost erg veel stroom.. nu is dat nog niet het punt maar het is het niet echt waard erg in-efficient zeg maar.. dan kun je beter die 2900XT verkopen en 2x HD3850 of 70 halen. net zoveel stroom verbruik als 1 2900XT :9 (en nog dx10.1 ready ook)
CJ schreef:
..........HD3870 benchmarks..........
ik moet zeggen dat ik het niet tegen vind vallen.. van mij part mag die 8800GT wel sneller zijn geen problemen mee 8) en ben ook verbaast over de CF resultaten 20383 3dmarks.. dat is erg interessant :9~ en 8x AA SM3.0 is niet slecht.
R-O-Y schreef:
Als het verschil in spellen ook zo klein is zie ik geen rede om geen ATI te halen :*) Met mij waarschijnlijk nog een hoop mensen :P (Mauss bvb :+ )
Inderdaad, kijk mensen die het snelste willen kopen toch wel een GT-OC maar ik hoef niet persee de snelste, de features van ati zijn gewoon (voor mij) veel interessanter dan een GT :o
Cheetah schreef:
Gamen/testen met AA, zonder AF, zullen de meeste mensen/sites niet doen.
En dat is ook wat de meeste (standaard) "gamers" niet doen. zij gaan niet spelen op 8xAA en 16xAF. bij 2 x AA en 8xAF houdt het wel een keertje op :) (als je op je max-beeldscherm reso speelt met alles high heb je soms AA niet eens nodig) duss misschien leuk voor de vergelijking maar niet "iedereen" wil alles max/high. ;)
Apoca schreef:
Maar ik moet zeggen de cijfers van de RV670 vallen me zeker niet tegen. Maar denk dat je goed kunt zien eigenlijk dat de HD2900XT al op ongeveer 90% van de capaciteit van de R6XX serie core zat.
Dat klopt ongeveer ja.. en gezien dit een R-V modelletje is doet hij het zeker zo gek nog niet ten opzichte van een R600.


dat de RV670 onder de 8800GT zou blijven was voor die tijd al bekend, gezien nu de benchmarks in verhouding met de features van de RV670 lijkt het me "toch" voor velen een interessante kaart (en met velen bedoel ik Nv-users) gezien de CF-mogelijkheid kun je wel een tijdje door met 2 van die kaartjes. :)

A world without gadgets is no world ;)


Acties:
  • 0 Henk 'm!

Verwijderd

@CJ

ATi HD3870 is wel een monster van een kaart zeg.
20383 3Dmark06 als ik het goed lees is simpelweg 4x hoger dan ik haal met mijn X1950XT.

Is deze kaart Direct X 10.1 compilant want dat zou wel een voorwaarde zijn als ik deze kaart volgend jaar wil halen? Ik spaar voor een nieuw systeem en dan kom ik even jouw topic tegen. Dank je wel, ik wist niet dat er zulke snelle kaarten waren :)

Ook het AA gedeelte schijnt in orde te zijn zoals je vermeld.

Ik haal in UT3 een framerate van tussen de 25 en 40 op 1680x1050. Dan zou deze kaart dus een framerate moeten halen van minimaal 125 in dat spel als ik het doortrek via de score die gegeven is.

Welke processor heb je dan nodig? Een dergelijke hoge vraag aan textures om zoveel frames te renderen zal invloed hebben op welk soort geheugen je hebt en ik vraag me af of de test is gedaan met DDR2 of DDR3 geheugen en met hoeveel geheugen en welke tweaks er zijn gedaan want deze score klinkt mij haast onnatuurlijk in de oren.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Verwijderd schreef op maandag 12 november 2007 @ 12:04:
@CJ

ATi HD3870 is wel een monster van een kaart zeg.
20383 3Dmark06 als ik het goed lees is simpelweg 4x hoger dan ik haal met mijn X1950XT.
Dat is dan ook een crossfire score ;)
Inderdaad, kijk mensen die het snelste willen kopen toch wel een GT-OC maar ik hoef niet persee de snelste, de features van ati zijn gewoon (voor mij) veel interessanter dan een GT
Volgens mij is er maar één feature (DX10.1) die interessanter is :?

[ Voor 30% gewijzigd door XWB op 12-11-2007 12:07 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

Verwijderd

@bovenstaand

Zelf speel ik mijn spellen op 1680x1050 met 2 voudige AA en 4 voudige AF. Dat gaat prima en daar heeft mijn kaart geen moeite mee. Het verschil tussen 2 voudige en 4 voudige AA is niet echt merkbaar in prestatie, maar zodra ik speciale functies ga toepassen zoals Adaptive AA gaat het niet lekker meer met mijn framerate en het verschil zie ik ook bijna niet, dus wat is het nut?

Acties:
  • 0 Henk 'm!

Verwijderd

Hacku schreef op maandag 12 november 2007 @ 12:07:
[...]


Dat is dan ook een crossfire score ;)


[...]


Volgens mij is er maar één feature (DX10.1) die interessanter is :?
Dank je wel, ik dacht al :)

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 18:18
Hacku schreef op maandag 12 november 2007 @ 12:07:
[...]

Volgens mij is er maar één feature (DX10.1) die interessanter is :?
SM4.1, UVD, zijn er nog 2 :P

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sm4.1 == DX10.1 en UVD is van AMD :z nVidia heeft haar eigen techniek daarvoor.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op maandag 12 november 2007 @ 12:09:
@bovenstaand

Zelf speel ik mijn spellen op 1680x1050 met 2 voudige AA en 4 voudige AF. Dat gaat prima en daar heeft mijn kaart geen moeite mee. Het verschil tussen 2 voudige en 4 voudige AA is niet echt merkbaar in prestatie, maar zodra ik speciale functies ga toepassen zoals Adaptive AA gaat het niet lekker meer met mijn framerate en het verschil zie ik ook bijna niet, dus wat is het nut?
Adaptive AA heeft eigenlijk alleen nut in games waar veel transparante textures gebruikt worden zoals games met veel hekwerk, bomen, struiken. Adaptive AA is sinds Catalyst 7.10 wel voorzien van meer opties, dus let er opdat je de juiste instelling kiest.... Multisampling AAA levert vaak hele mooie beelden op, zonder de performancedrop van Supersampling AAA.

Als je AAA aanzet in games waar weinig transparante textures gebruikt worden, dan heeft het eigenlijk weinig nut en zal het alleen maar onnodig leiden tot een performancedrop.
Hacku schreef op maandag 12 november 2007 @ 12:11:
[...]


Sm4.1 == DX10.1 en UVD is van AMD :z nVidia heeft haar eigen techniek daarvoor.
Maar UVD > VP2. :+

En Powerplay is voor sommigen ook interessant. Lek anders eens wat GPU temps en stroomverbruik cijfertjes in vergelijking met G92. ;) Of CrossFire X3 benchmarks mag ook natuurlijk, want de G92 kan je niet in Threeway SLI gooien... wat volgens mij nu gedelayed is naar 2008.

[ Voor 19% gewijzigd door CJ op 12-11-2007 12:16 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

Wat is dat Powerplay eigenlijk? Is dat iets wat vanaf het mobile platform komt?

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 12 november 2007 @ 11:42:
Volgens mij zitten we hier nog altijd op een forum waar de technologie achter een product ook interessant is en het niet alleen om e-peen cijfertjes gaat toch? De e-peen topics worden hier toch echt flink binnen de perken gehouden. :+
Performance per Watt is relevant (en is ook gerelateerd aan koeling). Performance per Euro is relevant. Performance @High IQ is relevant. De combinatie van die 3 is relevant ;)
Het is het resultaat dat telt. Hoe je daar komt is leuk, maar in mijn boek volslagen ondergeschikt aan de performance (ofwel het resultaat) op die terreinen. Je noemt ze zelf ook al trouwens :)
Dat de G80 serie AF bijna voor 'free' doet komt dus door de achterliggende techniek. 56 texture units (dus niet 58 zoals ik eerst schreef) helpen dan wel mee hoor.
Dat maakt in mijn boek de G80/G92 architectuur op dat gebied superieur aan de R600 architectuur.
Maar wat betreft efficientie ligt het wel lager dan bij AMD.
Gaan we nu losse texture units tellen om architecturele efficiency te bepalen? :?
Prima hoor: dus de efficientie van de G71 lag hoger dan van R580? 24 vs 48 pipelines.
De efficiency van G92 ligt enorm hoger dan van R600? 112 vs 320 shaderprocessors.
Of ben je 't daar nu weer niet mee eens? ;)
Als AMD nou slim is, verhogen ze dit bij een toekomstige generatie want de texture units in de huidige generatie zijn zeer capabel... alleen het aantal had wel omhoog gemogen... maar ik ben bang dat dit niet gaat gebeuren.
Laten we vooral hopen van wel. Dan kan ik voor IQ weer eens bij ATi terecht zoals ik gewoon was :)
Grappig dat je het steeds "probleem" noemt. Technisch gezien was het geen probleem. Maar dat had ik al eens een paar pagina's terug uitgelegd. Dat je de performancedrop tegen vindt vallen ten opzichte van de vorige generatie of de concurrentie is wat anders.
Ok: techniek is geen probleem, performance wel. Performance is echter sterk gerelateerd aan techniek. Techniek is in mijn boek dus wel degelijk een probleem :P
Performance en techniek wordt altijd beoordeeld t.o.v. 1) vorige generatie en 2) concurrentie.
En ik heb het al vaker gezegd, het is een kaart binnen dezelfde generatie. Dus drastische veranderingen verwachten van een mainstream die-shrink als de RV670 ten opzichte van de R600 is net zoiets als denken dat Sinterklaas echt bestaat.
ATi moet zich tegen deze tijd vorig jaar al bewust zijn geweest van de performance van R600 t.o.v. G80, en waar dat in gezocht moest worden. Daarom hoopte ik eigenlijk dat RV670 ook meer zou zijn dan een mainstream die-shrink van R600, en met de berichten van verbeterde AA had dat ook gekund...
Als het nV lukt om een aangepaste die-shrink van G80 te maken (G92) met o.m. wijzigingen in texture&rop-aantal en configuratie doorgevoerd, waarom zou dit ATi dan niet kunnen lukken met RV670?

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Apoca schreef op maandag 12 november 2007 @ 12:18:
Wat is dat Powerplay eigenlijk? Is dat iets wat vanaf het mobile platform komt?
Ja. ATI PowerPlay is een techniek die altijd al in Mobility Radeons heeft gezeten. Het is een powermanagement techniek. Door de jaren heen is Powerplay steeds meer uitgebreid. Ik geloof dat we nu al op versie 7 zitten op de Mobility Radeon en met de RV670 komt deze techniek voor het eerst naar de desktop GPUs toe.

Even uit de first post gekopieerd waar de informatie al een tijd lang te vinden is ;) :
ATI PowerPlay
  • Advanced power management technology for optimal performance and powersavings
  • Performance-on-demand

    - voltage switching

    - dynamic clock gating

    - clock & memory speed throttling

    - GPU monitoring
  • Central thermal management

    - on-chip sensors monitors GPU temperature and triggers thermal actions as required

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op maandag 12 november 2007 @ 12:28:
[...]
Performance per Watt is relevant (en is ook gerelateerd aan koeling). Performance per Euro is relevant. Performance @High IQ is relevant. De combinatie van die 3 is relevant ;)
Hoe je daar komt is leuk, maar in mijn boek volslagen ondergeschikt aan de performance op die terreinen. Je noemt ze zelf ook al trouwens :)
Hehe "relevant maar volslagen ondergeschikt"? :+ :o Het hele e-peen verhaal van CJ klopt dus als een bus voor jou.
Als het nV lukt om een aangepaste die-shrink van G80 te maken (G92) met o.m. wijzigingen in texture&rop-aantal en configuratie doorgevoerd, waarom zou dit ATi dan niet kunnen lukken met RV670?
Ik denk dat het doel was een ander marksegment aan te spreken. Je weet zelf ook wel dat in de markt sub 200 meer geld te vangen valt.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op maandag 12 november 2007 @ 12:46:
Hehe "relevant maar volslagen ondergeschikt"? :+ :o
Er staat: leuk, maar volslagen ondergeschikt.
Het hele e-peen verhaal van CJ klopt dus als een bus voor jou.
Er van uitgaande dat het gelijkstellen van het woord 'Performance' (ofwel resultaat) aan het woord 'e-peen' niet uberhaupt volslagen belachelijk zou zijn... Wat het dus wel is natuurlijk :z

offtopic:
Je kunt ook gewoon inhoudelijk op m'n reactie ingaan in plaats van de messenger te flamen hoor.
Kun je dat niet, probeer dan in ieder geval de flame achterwege te laten. Is zo zinloos ;)

[ Voor 19% gewijzigd door Cheetah op 12-11-2007 13:10 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • mieJas
  • Registratie: April 2005
  • Niet online

mieJas

Ja, maar nee.

Over PowerPlay .. ik kan mis zijn, maar is het niet zo dat de huidige HD2xxx serie het al ondersteunt? Ik had namelijk bij de 7.9 drivers dat, in Windows, mn grafische kaart automatisch terug klokte naar 200/100. VC-1 films afspelen deed de snelheden stijgen naar 450/300 (dacht ik) en in games ging het naar 800/700. Toen schommelden mn idle temperaturen rond de 40 graden in een warme kamer. Met de huidige 7.10 is dat blijkbaar niet meer zo. Het is hier nu ook koud als wat en ligt de temperatuur van de VPU zo'n 5 graden hoger... Fin, kaart draait op zich nog altijd even goed, maar vind het vreemd dat ATi het er heeft uitgehaald :/

Yes, but no.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Hacku schreef op zaterdag 10 november 2007 @ 12:13:
Inkoopprijs Sapphire 3850 256MB: € 121,23 excl.
Inkoopprijs Sapphire 3850 512MB: € 133,14 excl.
Inkoopprijs Sapphire 3850 512MB Heatpipe: € 148,00 excl. (passief gekoeld)
Inkoopprijs Sapphire 3870 512MB: € 164,37 excl.
Herstel, nieuwe prijzen:

Inkoopprijs Sapphire 3850 256MB: € 121,23 excl.
Inkoopprijs Sapphire 3850 512MB: € 133,14 excl.
Inkoopprijs Sapphire 3850 512MB Heatpipe: € 133,14 excl. (passief gekoeld)
Inkoopprijs Sapphire 3870 512MB: € 149,49 excl.

Prijs van de 3870 lijkt goed te komen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 18:18
Hacku schreef op maandag 12 november 2007 @ 13:27:
[...]


Herstel, nieuwe prijzen:

Inkoopprijs Sapphire 3850 256MB: € 121,23 excl.
Inkoopprijs Sapphire 3850 512MB: € 133,14 excl.
Inkoopprijs Sapphire 3850 512MB Heatpipe: € 133,14 excl. (passief gekoeld)
Inkoopprijs Sapphire 3870 512MB: € 149,49 excl.

Prijs van de 3870 lijkt goed te komen.
Klopt dat wel? 10 euro verschil tussen de 256MB en 512MB versie en ook maar 15 euro verschil tussen de *50 en *70, waarom zou iemand dan een 256MB versie, of überhaupt een HD3850, kopen?

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Hacku schreef op maandag 12 november 2007 @ 13:27:
[...]


Herstel, nieuwe prijzen:

Inkoopprijs Sapphire 3850 256MB: € 121,23 excl.
Inkoopprijs Sapphire 3850 512MB: € 133,14 excl.
Inkoopprijs Sapphire 3850 512MB Heatpipe: € 133,14 excl. (passief gekoeld)
Inkoopprijs Sapphire 3870 512MB: € 149,49 excl.

Prijs van de 3870 lijkt goed te komen.
Dit zijn nette prijzen, onder de 200 incl. (btw en winst) misschien hier en daar?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ja, dat is 178,00 incl + 10% marge = 195,00

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

leonpwner1 schreef op maandag 12 november 2007 @ 13:30:
[...]
Klopt dat wel? 10 euro verschil tussen de 256MB en 512MB versie en ook maar 15 euro verschil tussen de *50 en *70, waarom zou iemand dan een 256MB versie, of überhaupt een HD3850, kopen?
Zoiets snap ik nou ook nooit. Leuk dat je de keuze hebt, maar 25 euro verschil... tussen low en high. Je hebt der toch meer aan om gewoon 1 model te maken dan. Kan daar de prijs iets van omlaag en kun je alles aan productie inzetten om dat ding op de markt te krijgen.

[ Voor 44% gewijzigd door Apoca op 12-11-2007 13:43 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Waterpolo
  • Registratie: September 2007
  • Laatst online: 23-03-2024
Hacku schreef op maandag 12 november 2007 @ 13:27:
[...]


Herstel, nieuwe prijzen:

Inkoopprijs Sapphire 3850 256MB: € 121,23 excl.
Inkoopprijs Sapphire 3850 512MB: € 133,14 excl.
Inkoopprijs Sapphire 3850 512MB Heatpipe: € 133,14 excl. (passief gekoeld)
Inkoopprijs Sapphire 3870 512MB: € 149,49 excl.

Prijs van de 3870 lijkt goed te komen.
Als er dan weer uitgegaan wordt van 10 procent marge op elk onderdeel dan komen de winkelprijzen als volgt te liggen:

Verkoopprijs Sapphire 3850 256MB: € 158,69
Verkoopprijs Sapphire 3850 512MB: € 174,28
Verkoopprijs Sapphire 3850 512MB Heatpipe: € 174,28
Verkoopprijs Sapphire 3870 512MB: € 195,68

Ik was er al bijna vanuit gegaan dat ik vanwege mijn budget voor een 3850 moest gaan omdat de prijs van de 3870 ver boven de 200 zou komen te liggen. Maar nu blijkt dus dat de prijs eronder komt te liggen, er is dus nog hoop :D.

\\Edit: Inkoopprijs in verkoopprijs verandert ;)

[ Voor 3% gewijzigd door Waterpolo op 12-11-2007 13:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Waterpolo: dan wel zonder 'Inkoopprijs' ervoor? :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op maandag 12 november 2007 @ 12:28:
[...]
Gaan we nu losse texture units tellen om architecturele efficiency te bepalen? :?
Prima hoor: dus de efficientie van de G71 lag hoger dan van R580? 24 vs 48 shaderprocessors.
De efficiency van G92 ligt enorm hoger dan van R600? 112 vs 320 shaderprocessors.
Of ben je 't daar nu weer niet mee eens? ;)
Ik hoop dat je door hebt dat je nu onderdelen vergelijkt die eigenlijk niet te vergelijken zijn? Lees de tech-artikelen van B3D er nog eens op na, zodat je precies weet welke onderdelen je met elkaar kan vergelijken zonder meteen in appels en peren vergelijkingen te vervallen. ;)

G71 = 24 fragment pipelines (*2), 24 Texture Units
R580 = 16 fragment pipelines (*3), 16 Texture Units

Op basis van de fragment pipelines is de R580 efficienter. Dat de fragment pipelines anders zijn ingedeeld bij de R580 is een ander punt. Daarnaast bevat elke G71 pipeline volgens nVidia 2 ALUs om tot een totaal van 48 ALUs te komen (zo vergeleken ze zelfs de R580 met de G71, nl 48 ALUs vs 48 ALUs). Als je ziet dat het aantal daadwerkelijke pipelines bij de R580 dus 33% kleiner is dan die van de G71, dan is de R580 efficienter bezig.

R600 = 16 ROPs / 64 shaderunits (*5) / 16 Texture Units
G80 = 24 ROPs / 128 shaderunits / 64 Texture Units
G92 = 16 ROPs / 128 shaderunits (112 voor de GT) op meer dan dubbele snelheid / 64 Texture Units (56 voor de GT)

Dus nogmaals.. wie is efficienter?
Ok: techniek is geen probleem, performance wel. Performance is echter sterk gerelateerd aan techniek. Techniek is in mijn boek dus wel degelijk een probleem :P
Performance en techniek wordt altijd beoordeeld t.o.v. 1) vorige generatie en 2) concurrentie.
Als je zo alles wilt koppelen dan is alles terug te voeren op de techniek. Maar performance is in het geval van de R600 generatie ook sterk gerelateerd aan drivers vanwege de VLIW architectuur.
ATi moet zich tegen deze tijd vorig jaar al bewust zijn geweest van de performance van R600 t.o.v. G80, en waar dat in gezocht moest worden. Daarom hoopte ik eigenlijk dat RV670 ook meer zou zijn dan een mainstream die-shrink van R600, en met de berichten van verbeterde AA had dat ook gekund...
Als het nV lukt om een aangepaste die-shrink van G80 te maken (G92) met o.m. wijzigingen in texture&rop-aantal en configuratie doorgevoerd, waarom zou dit ATi dan niet kunnen lukken met RV670?
Verbeterde AA heeft de RV670 ook, maar dankzij DX10.1. En voor veel van deze verbeteringen hoeft een game niet eens specifiek geschreven te zijn. Wanneer SP1 uit komt zou de RV670 architectuur hier automatisch iets beter door moeten functioneren.

Het verbeteren van AA performance vergt ingrijpingen in de Render Backends. Dat is niet iets wat je zo maar in een "dieshrink" of "refresh" doet. AMD heeft er geen moeite mee om RBEs en texture units weg te laten (zie RV570, RV560) net zoals nV dingen heeft weg gelaten in de G92. Weg laten is gemakkelijker dan toevoegen. De veranderingen in texturing bij de G92 ten opzichte van de G80, zijn geen nieuwigheden. De G92 heeft namelijk dezelfde verhoudingen overgenomen van de G84. Dus ingrijpend waren deze veranderingen niet.

Eigenlijk heeft NV hier hetzelfde gedaan als wat AMD gedaan heeft ten tijde van de RV530 -> R580. Experimenteren met een aangepaste architectuur in de lowend om dit later toe te passen in de highend. Met RV630 was dit ook het geval, maar dan meer met UVD en Powerplay (wat uiteindelijk niet geactiveerd werd).
mieJas schreef op maandag 12 november 2007 @ 13:12:
Over PowerPlay .. ik kan mis zijn, maar is het niet zo dat de huidige HD2xxx serie het al ondersteunt? Ik had namelijk bij de 7.9 drivers dat, in Windows, mn grafische kaart automatisch terug klokte naar 200/100. VC-1 films afspelen deed de snelheden stijgen naar 450/300 (dacht ik) en in games ging het naar 800/700. Toen schommelden mn idle temperaturen rond de 40 graden in een warme kamer. Met de huidige 7.10 is dat blijkbaar niet meer zo. Het is hier nu ook koud als wat en ligt de temperatuur van de VPU zo'n 5 graden hoger... Fin, kaart draait op zich nog altijd even goed, maar vind het vreemd dat ATi het er heeft uitgehaald :/
Dynamische aanpassing van kloksnelheden gebeurt al een lange tijd. Dit is echter afhankelijk van 2D of 3D modes. De drivers detecteren of iets een 2D of 3D applicatie is en zorgt er voor dat de kloksnelheid dan wel omlaag of omhoog geklokt wordt. Dit zijn echter waardes die vast liggen, en de hele GPU blijft dus continue actief.

Powerplay gaat verder. Powerplay schakelt niet alleen de kloksnelheden in 2D veel verder naar beneden, ook worden er bepaalde gedeeltes van de GPU uitgeschakeld en worden voltages on-the-fly verlaagd/verhoogd. Hierdoor is het stroomverbruik een stuk lager en wordt de chip minder warm. Daarnaast kan Powerplay zelfs tijdens het gamen de voltages en kloksnelheden regelen... wanneer er een intensieve 3D scene is, merkt de GPU dit en kan zichzelf daaraan aanpassen.

Verder biedt Powerplay ook de mogelijkheid tot PCI Express Lane Count switching, wat inhoudt dat de videokaart het aantal actieve lanes kan aanpassen aan de workload. Wanneer er weinig activiteit is kan bij wijze van spreken je 16x PCIe kaart 15 lanes uitschakelen en werken op 1x PCIe en daarmee het stroomverbruik omlaag kan gaan. En het heeft ASPM (Active State Power Management) wat zoveel wil zeggen dat het stroomverbruik nog verder omlaag geduwd wanneer de systeembus niet belast wordt.

Als laatste biedt Powerplay nu ook de mogelijkheid om de activiteit van de GPU te meten, net zoals dat altijd al mogelijk was voor CPUs. Je kan dan precies zien in welke applicaties op welke momenten de GPU gestressed wordt.

Het systeem is dus veel slimmer dan wat er tot nu toe mogelijk was.
Hacku schreef op maandag 12 november 2007 @ 13:27:
[...]


Herstel, nieuwe prijzen:

Inkoopprijs Sapphire 3850 256MB: € 121,23 excl.
Inkoopprijs Sapphire 3850 512MB: € 133,14 excl.
Inkoopprijs Sapphire 3850 512MB Heatpipe: € 133,14 excl. (passief gekoeld)
Inkoopprijs Sapphire 3870 512MB: € 149,49 excl.

Prijs van de 3870 lijkt goed te komen.
Yep. Zoiets had ik ook al doorgekregen. :)
leonpwner1 schreef op maandag 12 november 2007 @ 13:30:
[...]


Klopt dat wel? 10 euro verschil tussen de 256MB en 512MB versie en ook maar 15 euro verschil tussen de *50 en *70, waarom zou iemand dan een 256MB versie, of überhaupt een HD3850, kopen?
Singleslot en nog lager stroomverbruik?

Overigens is het verschil tussen 256MB en 512MB maar zo'n $8 tot $12 volgens AMD. :) Waarom denk je dat NV niet happig is om een GF8800GT 256 @ $179 te lanceren, terwijl ze nu nog ruim gemiddeld $229 vangen voor de GF8800GT 512?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op maandag 12 november 2007 @ 12:11:
[...]
Adaptive AA heeft eigenlijk alleen nut in games waar veel transparante textures gebruikt worden zoals games met veel hekwerk, bomen, struiken. Adaptive AA is sinds Catalyst 7.10 wel voorzien van meer opties, dus let er opdat je de juiste instelling kiest.... Multisampling AAA levert vaak hele mooie beelden op, zonder de performancedrop van Supersampling AAA.
Als je AAA aanzet in games waar weinig transparante textures gebruikt worden, dan heeft het eigenlijk weinig nut en zal het alleen maar onnodig leiden tot een performancedrop.

En Powerplay is voor sommigen ook interessant. Lek anders eens wat GPU temps en stroomverbruik cijfertjes in vergelijking met G92. ;) Of CrossFire X3 benchmarks mag ook natuurlijk, want de G92 kan je niet in Threeway SLI gooien... wat volgens mij nu gedelayed is naar 2008.
Heel nuttig wat je schrijft :)

Dus als ik het goed begrepen heb kan ik ook de andere optie kiezen van het type Adaptieve sampling. Ik had de optie ook al gezien, maar instinctief koos ik voor supersampling omdat ik de betekenis niet wist. Fout dus en dankzij jouw uitleg ga ik het straks even testen. Dank je wel :)

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 12 november 2007 @ 13:53:
Ik hoop dat je door hebt dat je nu onderdelen vergelijkt die eigenlijk niet te vergelijken zijn?
Dat was precies mijn punt: je kunt niet 1 element van de architectuur (aantal texture units in dit geval) eruit lichten en vervolgens dat tot 'efficienter' verklaren dan de concurrentie. De architecturen zijn niet 1 op 1 vergelijkbaar.
Om efficiency op bepaalde gebieden te meten zul je dus gebruik moeten maken van specifieke eikpunten (ook wel: benchmarks) en dat afzetten tegen aantal transistors, en inherent daaraan: stroomverbruik (wat overigens ook afhankelijk is van productieprocede).

Hoe je er aan komt dat een 14% performancehit @16xAF (met 16 texture units) getuigd van 'betere efficiency' dan een virtuele 0% performancehit @16xAF (met 56 texture units) is me nog steeds onduidelijk... en dat was waarop ik reageerde. 0% hit lijkt me per definitie preferabel.
Gezien gegoochel met getallen een leuke sport schijnt te zijn: met 'slechts' 3,5x zo veel texture units doet G92 het maarliefst 14.000x beter (0,1% hit vs 14% hit)... Wie is er dan efficienter? :P

Van het technische verhaal dat volgt ben ik uitstekend op de hoogte ;)
Je illustreert waarom je niet zo kunt vergelijken, en dat is precies wat ik ook wilde zeggen :)
Het gegoochel met getallen (en m.n. die op een manier opschrijven die ATi goed lijkt uit te komen) is dan wel weer jammer...
Als je zo alles wilt koppelen dan is alles terug te voeren op de techniek. Maar performance is in het geval van de R600 generatie ook sterk gerelateerd aan drivers vanwege de VLIW architectuur.
Maar dat is toch ook zo? Drivercomplexiteit is eveneens afhankelijk van de techniek waarmee gewerkt moet worden. Het (on)vermogen om snel goede drivers te produceren is dus ook architecuurgebonden ;)
Verbeterde AA heeft de RV670 ook, maar dankzij DX10.1. En voor veel van deze verbeteringen hoeft een game niet eens specifiek geschreven te zijn. Wanneer SP1 uit komt zou de RV670 architectuur hier automatisch iets beter door moeten functioneren.
Daar kopen we tot ergens halverwege 2008 (SP1 release) en totdat dev's het gaan integreren in games natuurlijk niet veel voor...
Het verbeteren van AA performance vergt ingrijpingen in de Render Backends.
Volgens de geruchten zouden juist de RBE's van RV670 aangepast zijn voor beter AA...
Dat is niet iets wat je zo maar in een "dieshrink" of "refresh" doet. AMD heeft er geen moeite mee om RBEs en texture units weg te laten (zie RV570, RV560) net zoals nV dingen heeft weg gelaten in de G92. Weg laten is gemakkelijker dan toevoegen. De veranderingen in texturing bij de G92 ten opzichte van de G80, zijn geen nieuwigheden. De G92 heeft namelijk dezelfde verhoudingen overgenomen van de G84. Dus ingrijpend waren deze veranderingen niet.
nV heeft meer gedaan dan alleen dingen weglaten. Texel sampling en Texel filtering capaciteit is bij G92 groter dan bij G80GTX. Texture Adress units zijn toegevoegd, en de verhouding Texture Adress / Texture Filtering is aangepast:
Afbeeldingslocatie: http://www.bit-tech.net/content_images/2007/11/nvidia_geforce_8800_gt/stream-tex.jpg
Het leek mij absoluut niet vreemd om er van uit te gaan dat ATi iets soortgelijks had gedaan met RV670.

Nieuwe prijzen 3800 serie zien er goed uit trouwens :)

[ Voor 3% gewijzigd door Cheetah op 12-11-2007 15:14 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Arjan90
  • Registratie: September 2005
  • Laatst online: 14-09 21:03
Hoewel ik graag voor de mid-highend ga (dus de high-end van de mid-end :P ), vind ik de HD3850 toch wel erg interessant. SingleSlot ipv DualSlot, Core snelheid kan mogelijk even hoog als die van de HD3870 (uiteraard niet gegarandeerd). Misschien wel een mooie vervanging voor mijn X1950Pro, even de benchmarks afwachten qua verschil in performance tussen de HD3870 en de HD3850 (en dan even de X1950Pro daarmee vergelijken! :) )..

UVD spreekt mij toch wel aan icm. PowerPlay. Uiteindelijk DX10.1 ook wel, hoewel ik niet verwacht dat ik hier super veel aan ga hebben t.o.v. DX10. We zullen zien! Er komen in ieder geval weer mooie tijden aan voor de mid-end gebruiker (ik speel graag een spel, maar om daar nou de hoofdprijs voor te betalen om hem maar 'op zijn mooist' te spelen, nee bedankt!)...

Overigens wel een vraag, weet iemand of er bijv. ook een soort van VIVO editie van de HD3850 uitkomt?

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

CJ schreef op maandag 12 november 2007 @ 11:42:
Volgens mij zitten we hier nog altijd op een forum waar de technologie achter een product ook interessant is en het niet alleen om e-peen cijfertjes gaat toch? De e-peen topics worden hier toch echt flink binnen de perken gehouden. :+
Ik geef je gelijk dat de technologie achter een product vaak ook interessant is, maar wat heeft het feit dat Cheetah kijkt naar de algehele performance in gods naam te maken met e-peen cijfertjes?? :?

Dat een RV670 net als de R600 hoge 3dmark scores haalt, maar in games waarschijnlijk een stuk minder presteerd vind ik beter bij het e-lul verhaal passen, dan dat een 8800GT 16xAF met bijna geen performance-drop kan uitvoeren.

Verder kijk ik ook echt uit naar de benchmarks van de RV670 (maar dan voornamelijk de game benchmarks). En goed dat de prijzen van de RV670 al gelijk zijn getrokken met de 8800GT. Bij een gelijke prijs zal het nog een goede concurrent zijn van de 8800GT, waarbij iedereen voor zich kan bepalen wat hij belangrijker vindt, betere performance of minder stroomverbruik/DX10.1 .

[ Voor 13% gewijzigd door Tyranium op 12-11-2007 15:23 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op maandag 12 november 2007 @ 14:43:
[...]
Dat was precies mijn punt: je kunt niet 1 element van de architectuur (aantal texture units in dit geval) eruit lichten en vervolgens dat tot 'efficienter' verklaren dan de concurrentie. De architecturen zijn niet 1 op 1 vergelijkbaar.
Om efficiency op bepaalde gebieden te meten zul je dus gebruik moeten maken van specifieke eikpunten (ook wel: benchmarks) en dat afzetten tegen aantal transistors, en inherent daaraan: stroomverbruik (wat overigens ook afhankelijk is van productieprocede).
Ja, het zijn verschillende architecturen. Maar dan kan je nog wel texture units (appels) met texture units (appels) vergelijken. Wat jij deed was Fragment Pipelines (appels) vergelijken met ALUs (peren).... Een texture unit blijft een texture unit.
Hoe je er aan komt dat een 14% performancehit @16xAF (met 16 texture units) getuigd van 'betere efficiency' dan een virtuele 0% performancehit @16xAF (met 56 texture units) is me nog steeds onduidelijk... en dat was waarop ik reageerde.
Verlaag het aantal texture units bij de G80 maar eens om te zien hoeveel texture units er nodig zijn om "bijna" 0% performancehit te hebben. Je zult zien dat de drop groter wordt. Doe hetzelfde bij de R600 architectuur en zie dat daar de performancehit relatief gezien gelijk blijft.
Van het technische verhaal dat volgt ben ik uitstekend op de hoogte ;)
Je illustreert waarom je niet zo kunt vergelijken, en dat is precies wat ik ook wilde zeggen :)
Het gegoochel met getallen (en m.n. die op een manier opschrijven die ATi goed lijkt uit te komen) is dan wel weer jammer...
NV kan ook wat van gegoochel. Hun methode van transistor tellen bv... is anders dan die van AMD. Het tellen van ALUs is ook anders dan bij AMD (getuige het feit dat ze zeiden dat G71 er 48 had... en als je R580 dan op dezelfde manier zou tellen dan had deze er 96).
Maar dat is toch ook zo? Drivercomplexiteit is eveneens afhankelijk van de techniek waarmee gewerkt moet worden. Het (on)vermogen om snel goede drivers te produceren is dus ook architecuurgebonden ;)
Als het moeilijk is om drivers te schrijven, wil dat nog niet zeggen dat de architectuur "kapot" of "brak " is. Het wil alleen zeggen dat het langer duurt om te optimaliseren en er de performance uit te halen die je er ook echt uit wilt halen.
Daar kopen we tot ergens halverwege 2008 (SP1 release) en totdat dev's het gaan integreren in games natuurlijk niet veel voor...
Volgens mij schreef ik net ook dat het niet eens nodig was om er specifiek voor de programmeren...
nV heeft meer gedaan dan alleen dingen weglaten. Texel sampling en Texel filtering capaciteit is bij G92 groter dan bij G80GTX. Texture Adress units zijn toegevoegd, en de verhouding Texture Adress / Texture Filtering is aangepast:
[afbeelding]
Het leek mij absoluut niet vreemd om er van uit te gaan dat ATi iets soortgelijks had gedaan met RV670.
Ja dat klopt dat er meer is gedaan dan weg laten. Maar daar ging ik ook op in....

De G92 neemt dingen over van de G84.... dingen die daar in getest werden. Het is dus niet iets nieuws.. het is al uitgeprobeerd en overgenomen. Er zijn dingen weg gelaten en dingen overgenomen. Maar er is dus eigenlijk niets "nieuws" toegevoegd.

AMD heeft in dit geval alleen gekozen voor overnemen van UVD en Powerplay uit de oude midrange en het toevoegen van DX10.1 wat wel compleet nieuw is. Daarnaast liggen dit soort designbeslissingen al heel lang van te voren vast. Zoiets 'bouw' je niet even in zonder bijvoorbeeld over je transistorbudget heen te gaan. En wat transistorbudget per die-size is AMD altijd heel erg strikt geweest (waarschijnlijk nog strikter dan nV).
Tyranium schreef op maandag 12 november 2007 @ 15:13:
[...]


Ik geef je gelijk dat de technologie achter een product vaak ook interessant is, maar wat heeft het feit dat Cheetah kijkt naar de algehele performance in gods naam te maken met e-peen cijfertjes?? :?
Er werd gezegd dat 'niemand' het interessant vind hoe de 16 texture units van de RV670 zich verhouden ten opzichte van 56 in de G92, maar hoe de kaart het in zn geheel doet. Dan komt het er in mijn boekje op neer dat er eigenlijk gezegd wordt: het maakt me niet uit hoe die GPU de fps op het beeld tovert, als-ie het maar doet en als-ie het maar sneller doet dan de ander. Dus sneller = beter = e-peen-contest. :+ Maar goed, de gehele performance kan natuurlijk meer omvatten dan snelheid, namelijk stroomverbruik, geluidsproductie, overklokbaarheid, hitteproductie, video encoding/decoding acceleratie etc.
Verder kijk ik ook echt uit naar de benchmarks van de RV670 (maar dan voornamelijk de game benchmarks). En goed dat de prijzen van de RV670 al gelijk zijn getrokken met de 8800GT. Bij een gelijke prijs zal het nog een goede concurrent zijn van de 8800GT, waarbij iedereen voor zich kan bepalen wat hij belangrijker vindt, betere performance of minder stroomverbruik/DX10.1 .
Klopt helemaal. En ook een reden waarom de HD3800 serie interessant kan zijn is omdat er vrij veel moederborden verkocht zijn met een Intel 955, 965, 975, X38, P35 verkocht zijn met 2 fysieke PCIe 16x sloten. Door de lage prijs wordt multi-GPU met veel performance ineens wel heel erg dicht bij de consument gebracht. Je krijgt immers performance die in veel gevallen boven de GF8800Ultra heen gaat voor veel minder geld en minder stroomverbruik.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Phyxion
  • Registratie: April 2004
  • Niet online

Phyxion

_/-\o_

Er zijn ook foto's van Crysis gepost, 3870 vs 8800GT:
3870:
Afbeeldingslocatie: http://iax-tech.com/video/3870/3870crysis.jpg
8800GT
Afbeeldingslocatie: http://iax-tech.com/video/3870/8800crysis.jpg

Heel duidelijk verschil dat de 3870 stukken beter lijkt. Performance van de 3870 is 2 fps minder dan de 8800GT.

'You like a gay cowboy and you look like a gay terrorist.' - James May


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

Volgens mij waren deze screens gemaakt met de nV drivers die bepaalde dingen weg zouden laten in Crysis, dus daar hebben we eigenlijk niks aan. Liever de laatste WHQL release en dan opnieuw testen.

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
FnF schreef op maandag 12 november 2007 @ 16:35:
[...]

Er zijn ook foto's van Crysis gepost, 3870 vs 8800GT:
3870:
[afbeelding]
8800GT
[afbeelding]

Heel duidelijk verschil dat de 3870 stukken beter lijkt. Performance van de 3870 is 2 fps minder dan de 8800GT.
Ahum... hier zit wel héél véél verschil tussen. Lijken me niet 2 exact dezelfde momenten. Daarnaast vind ik die van ATI er niet per se mooier uit zien hoor. Die van nVidia ook niet overigens. Het zijn gewoon 2 totaal verschillende plaatjes, de hamvraag is... welk plaatje klopt er? :?

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 18:18
Gurneyhck schreef op maandag 12 november 2007 @ 16:42:
[...]


Ahum... hier zit wel héél véél verschil tussen. Lijken me niet 2 exact dezelfde momenten. Daarnaast vind ik die van ATI er niet per se mooier uit zien hoor. Die van nVidia ook niet overigens. Het zijn gewoon 2 totaal verschillende plaatjes, de hamvraag is... welk plaatje klopt er? :?
De screenshot op de NVIDIA kaart is eerder genomen terwijl de camera door de wolken zweefde. Vandaar dat het er op de NVIDIA kaart mooier uitziet, maar het is gewoon appels en peren vergelijken omdat het niet op dezelfde plek/moment is genomen.

Acties:
  • 0 Henk 'm!

  • Solid_Aapie
  • Registratie: Augustus 2005
  • Laatst online: 15:04
FnF schreef op maandag 12 november 2007 @ 16:35:
[...]

Er zijn ook foto's van Crysis gepost, 3870 vs 8800GT:
3870:
[afbeelding]
8800GT
[afbeelding]

Heel duidelijk verschil dat de 3870 stukken beter lijkt. Performance van de 3870 is 2 fps minder dan de 8800GT.
Volgensmij zijn deze ss niet gemaakt op dezelfde hoogte waardoor je dat stof effect krijgt in de val en de kwaliteit van de ene sterk naar achtere gaat :S

Specs


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

CJ schreef op maandag 12 november 2007 @ 16:26:
Er werd gezegd dat 'niemand' het interessant vind hoe de 16 texture units van de RV670 zich verhouden ten opzichte van 56 in de G92, maar hoe de kaart het in zn geheel doet. Dan komt het er in mijn boekje op neer dat er eigenlijk gezegd wordt: het maakt me niet uit hoe die GPU de fps op het beeld tovert, als-ie het maar doet en als-ie het maar sneller doet dan de ander. Dus sneller = beter = e-peen-contest. :+
Dat heeft (volgens mij iig) nogsteeds niks met een e-peen-contest te maken. Mij maakt het ook weinig uit hoe de architectuur het doet, als ik thuis, in games maar goede performance heb. Of dat nou met 16 of met 56 texture units is. Als het ervoor zorgt dat mijn spellen maar sneller lopen. Tuurlijk is de techniek erachter interessant, maar dat is niet mijn uitgangspunt om een videokaart voor te kopen.

Het is leuk als je texture units efficiënter zijn dan die van de concurrent, maar als jij er maar 1 van in je videokaart stopt, en de concurrent 100, heb je er nogsteeds weinig aan 8)7. Je moet er wel een soort van balans tussen vinden en dat heeft nVidia op dit moment net iets beter voor elkaar. (imho)
FnF schreef op maandag 12 november 2007 @ 16:35:
Heel duidelijk verschil dat de 3870 stukken beter lijkt. Performance van de 3870 is 2 fps minder dan de 8800GT.
Nutteloze vergelijking, gezien het feit dat de screenshots niet op de zelfde plek zijn genomen.

[ Voor 15% gewijzigd door Tyranium op 12-11-2007 16:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Inderdaad, de Nvidia zit nog in de wolken.

Geweldig hoe je weer genept wordt.

Word er een beetje misselijk van al dat marketing gedoe. Ik koop gewoon de goedkoopste. Dat kleine verschil in snelheid merk je in de parktijk toch niet.

Frank

Acties:
  • 0 Henk 'm!

  • Waterpolo
  • Registratie: September 2007
  • Laatst online: 23-03-2024
Gurneyhck schreef op maandag 12 november 2007 @ 16:42:
[...]


Ahum... hier zit wel héél véél verschil tussen. Lijken me niet 2 exact dezelfde momenten. Daarnaast vind ik die van ATI er niet per se mooier uit zien hoor. Die van nVidia ook niet overigens. Het zijn gewoon 2 totaal verschillende plaatjes, de hamvraag is... welk plaatje klopt er? :?
Het is een beetje een valse vergelijking als je het mij vraagt. Zo zou het bovenste plaatje van de HD3870 zijn en de onderste van de 8800GT. Maar als gekeken wordt naar de benchmark dan kan je zien dat het plaatje van de HD3870 op frame-nummer 84 van de 2000. En de 8800GT is bij frame-nummer 59 van de 2000. Hierbij zit een verschil van 25 frames toch al snel een seconde scheelt.

[ Voor 3% gewijzigd door Waterpolo op 12-11-2007 17:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

STFU te bitchen over welke de beste is. Bijde kaarten hebben zijn goede en slechte kanten (altijd al zo geweest). Het hele ati vs nv gebeuren slaat gewoon op Kut. Helemaal op zo'n forum al dit.

Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Verwijderd schreef op maandag 12 november 2007 @ 17:09:
STFU te bitchen over welke de beste is. Bijde kaarten hebben zijn goede en slechte kanten (altijd al zo geweest). Het hele ati vs nv gebeuren slaat gewoon op Kut. Helemaal op zo'n forum al dit.
Aan jou bijdrage heb je anders al helemaal niets. Ga lekker ergens anders flamen.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op maandag 12 november 2007 @ 16:51:
Inderdaad, de Nvidia zit nog in de wolken.

Geweldig hoe je weer genept wordt.

Word er een beetje misselijk van al dat marketing gedoe. Ik koop gewoon de goedkoopste. Dat kleine verschil in snelheid merk je in de parktijk toch niet.

Frank
Marketing gedoe? Het is een review van iemand die zowel een GF8800GT heeft als een HD3870 x 2 & HD3850. Dus deze screens zijn niet afkomstig van AMD.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op maandag 12 november 2007 @ 13:53:
Powerplay gaat verder. Powerplay schakelt niet alleen de kloksnelheden in 2D veel verder naar beneden, ook worden er bepaalde gedeeltes van de GPU uitgeschakeld en worden voltages on-the-fly verlaagd/verhoogd. Hierdoor is het stroomverbruik een stuk lager en wordt de chip minder warm. Daarnaast kan Powerplay zelfs tijdens het gamen de voltages en kloksnelheden regelen... wanneer er een intensieve 3D scene is, merkt de GPU dit en kan zichzelf daaraan aanpassen.
Nou nou.. on the fly? Ik denk dat er gewoon meerdere presets zijn voor de GPU dan alleen maar 2D/3D. Maar deze presets moeten allemaal wel 'goed gekeurd zijn'. Als de spanningen en clocks zichzelf daadwerkelijk dynamisch gaan aanpassen dan moet je wel een slimme AI hebben die de spanningen en clocks goed regelt. Stel als voorbeeld dat de AI zichzelf dolt en de clocks harder omhoog laat gaan dan de spanningen. Dat werkt niet echt. :P

Acties:
  • 0 Henk 'm!

  • PainkillA
  • Registratie: Augustus 2004
  • Laatst online: 26-08 19:26
waarom neemt hij dan niet gewoon de average fps van zon hele demo loop? Kan ej teminste goed met elkaar vergelijke ipv 2 screens op verschillende momenten.

Acties:
  • 0 Henk 'm!

  • Donski
  • Registratie: Juni 2006
  • Laatst online: 28-08-2023
Op deze benchmarks ontlopen ze elkaar niet echt veel?

http://iax-tech.com/video/3870/38703.htm

Moet erbij zeggen dat mijn kennis aangaande videokaarten niet echt super is, dus als iemand hier wat over wilt vertellen??

Acties:
  • 0 Henk 'm!

Verwijderd

http://iax-tech.com/video/3870/38704.htm
From 3Dmark06 and Crysis, it looks like nVidia 8800GT is better than HD3870. However, there is one thing we need to tell you

We found ATi HD3870 is actually has better picture process while Crysis benching.

Specially the light refraction from water, HD3870 is very smooth but 8800GT is not. It is around frame 500 to 1000.

If you have chance, compare it. You will know what are we talking about.
Ik denk dat ze bedoelen dat je het zelf zal moeten testen om het te echt te zien. Ze hebben het over refractions dus rendering. Het viel ze iig op.

2 frames verschil vind ik toch aardig netjes van deze 3870. Een goede concurrent zeker voor de 8800GT. ATi heeft een sterke goede kope gpu in handen waarmee ze sterk in prijs kunnen concureren.
Nog maar even op wat meer benchmarks wachten.

[ Voor 5% gewijzigd door Verwijderd op 12-11-2007 18:12 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op maandag 12 november 2007 @ 16:26:
Ja, het zijn verschillende architecturen. Maar dan kan je nog wel texture units (appels) met texture units (appels) vergelijken.
Nee dat kun je niet. De opbouw van de texture units, de configuratie waarin ze staan, de verhouding waarin adressing en filtering texturing units staan, de kloksnelheden... sterker nog, de hele manier van tellen van texture units kan afwijkend zijn.

Je gaat me niet vertellen dat een R600/RV670 texture unit volledig 100% identiek en uitwisselbaar is met een G80/G92 texture unit.
Wat jij deed was Fragment Pipelines (appels) vergelijken met ALUs (peren).... Een texture unit blijft een texture unit.
Goed, dus hier krijg ik een reprimande over de 24 (nV G71) vs 48 (ATi R580) verhouding die ik hanteerde.
Correct volgens jou was: 24*2 vs 16*3 (ofwel 48:48)
Even verderop...
NV kan ook wat van gegoochel. [...] Het tellen van ALUs is ook anders dan bij AMD (getuige het feit dat ze zeiden dat G71 er 48 had... en als je R580 dan op dezelfde manier zou tellen dan had deze er 96).
...krijgt nV op zijn donder omdat ze zouden goochelen met nummertjes. De juiste 'eerlijke' verhouding is niet 48:48 maar 48:96.... ofwel diezelfde 24:48 verhouding waarvoor ik hier direct boven op mijn kop krijg 8)7

Kijk dat is nou precies wat ik bedoel met 'goochelen met nummers'. Afhankelijk van de situatie trek je een aantal cijfertjes en verhoudingen uit de doos, die altijd in het voodeel van ATi worden uitgelegd... en dat zelfs op 2 verschillende manieren in dezelfde post 8)7

CJ, we zijn beide volwassen, en we zijn beide technisch goed op de hoogte.
Laten we mekaar nou ff geen gekke henkie noemen hier ;)

<edit>
PS: de meest 'eerlijke' variant is vermoedelijk 24*2 : 48*1,5 (ofwel: 48:72) rekening houdend met R580s 'mini-alu'.
Hele punt van mijn vergelijking was echter: je kunt de architecturen niet 1 op 1 vergelijken.
<whatever> vs <whatever> shaders/clockspeeds/rop's niet, en 16 vs 56 texture units ook niet.
</edit>
Verlaag het aantal texture units bij de G80 maar eens om te zien hoeveel texture units er nodig zijn om "bijna" 0% performancehit te hebben. Je zult zien dat de drop groter wordt. Doe hetzelfde bij de R600 architectuur en zie dat daar de performancehit relatief gezien gelijk blijft.
:? :? :?
Anyway, met hun texture config bereikt nV virtually "free" AF. Het gaat mij om de free AF... hoe ze 't flikken kan me werkelijk aan mijn reyt oxideren, zolang 't maar geflikt wordt, niet enorm veel meer stroom vreet en niet ten koste gaat van andere dingen (zoals IQ).
Hoeveel van die 56 texture units lagen te slapen bij deze specifieke test vind ik niet boeiend. Hoeveel texture units van de 56 uit G92 gesloopt moeten worden om eenzelfde 14% performancehit als RV670 te veroorzaken boeit me ook niet. Nog afgezien van dat 't onmogelijk is om dat te testen...
PS: lees 'boeit me niet' als 'welliswaar interessant, maar domweg scheer onbelangrijk'. Resultaat telt.
Als het moeilijk is om drivers te schrijven, wil dat nog niet zeggen dat de architectuur "kapot" of "brak " is. Het wil alleen zeggen dat het langer duurt om te optimaliseren en er de performance uit te halen die je er ook echt uit wilt halen.
Ik schrijf software van beroep.
Ik zal je besparen hoe we hier over nodeloos 'moeilijke architecturen' om software voor te schrijven denken ;) De vocabulaire rijkt daarbij nog wel wat verder, dat kan ik wel zeggen :D
Er werd gezegd dat 'niemand' het interessant vind hoe de 16 texture units van de RV670 zich verhouden ten opzichte van 56 in de G92, maar hoe de kaart het in zn geheel doet. Dan komt het er in mijn boekje op neer dat er eigenlijk gezegd wordt: het maakt me niet uit hoe die GPU de fps op het beeld tovert, als-ie het maar doet en als-ie het maar sneller doet dan de ander. Dus sneller = beter
U mag door voor de koelkast :)
Sneller (tegen gelijkblijvende (of hogere) IQ en gelijkblijvend (of lager) stroomverbruik) == beter.
= e-peen-contest. :+
Helaas, u mag toch niet door voor de koelkast ;)
Hoge eisen stellen met betrekking tot performance en IQ (en met name de combinatie van die 2) heeft niets met e-peen te maken. Dit was ATi namelijk op het lijf geschreven tot voor niet zo lang geleden, en toen ook de hoofdtoon van dit topic. Inmiddels is dat dus al verworden tot "e-peen"? Whatever float's ATi's boat nietwaar? :/

"Kijk mij eens een uberhoge 3DMark score halen, met een kaart zo gruwelijk ver overklokt dat ik direct na mijn screenshot een BSOD krijg en 'm daarna ter sloop kan afvoeren" of "Kijk mij eens een 8800 Ultra SLI kopen met m'n 17" schermpie, zodat ik het heel GoT ermee kan stalken dat ik een vette setup heb".
Dat is e-peen. Niet: ik wil de best mogelijke performance voor m'n geld met IQ (AA en AF) enabled.

Features zijn leuk, maar dat een 150+ Euri graphics card koffie kan zetten, en als je er een webcam aan vastknoopt en een stokje in steekt het Oostberlijns triangelconcert kan dirigeren vindt ik niet bepaald maatgevend voor een aankoopbeslissing. Gameperformance voert dan gewoon de hoofdmoot.

[ Voor 3% gewijzigd door Cheetah op 12-11-2007 18:41 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 19:31
Er zijn ook gewoon mensen die niet te veel willen uitgeven zoals ik. Die HD 3870 en 3850 zien er leuk uit, ergens presterende tussen een 8600 en 8800 is voor mij genoeg. Crysis ga ik hooguit uitproberen. Voor de rest ET:QW en die mag bij mij al op Low zolang de framerate mij aanstaat :). Pas als een 8800GT lokaal (nu 260 euro) ergens rond de 200 euro komt en echt een stuk beter is ga ik hem overwegen, op dit moment bespaar ik me liever die ~75 euro.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Donski schreef op maandag 12 november 2007 @ 17:33:
Op deze benchmarks ontlopen ze elkaar niet echt veel?

http://iax-tech.com/video/3870/38703.htm

Moet erbij zeggen dat mijn kennis aangaande videokaarten niet echt super is, dus als iemand hier wat over wilt vertellen??
Dat is precies het artikel waar we het de afgelopen uren grotendeels over gehad hebben :D

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Donski
  • Registratie: Juni 2006
  • Laatst online: 28-08-2023
Cheetah schreef op maandag 12 november 2007 @ 18:50:
[...]
Dat is precies het artikel waar we het de afgelopen uren grotendeels over gehad hebben :D
Ik heb ook niet goed gekeken haha.. kwam thuis, ff snel laatste posts doorgelezen ipv alles terug te lezen :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op maandag 12 november 2007 @ 18:18:
[...]
Nee dat kun je niet. De opbouw van de texture units, de configuratie waarin ze staan, de verhouding waarin adressing en filtering texturing units staan, de kloksnelheden... sterker nog, de hele manier van tellen van texture units kan afwijkend zijn.

Je gaat me niet vertellen dat een R600/RV670 texture unit volledig 100% identiek en uitwisselbaar is met een G80/G92 texture unit.
Nee dat ga ik ook niet doen. Maar het doel van een texture unit is gelijk of je nou nVidia heet of AMD of Intel. Hoe dat doel bereikt wordt kan anders zijn, maar hetzelfde doel wordt uiteindelijk wel bereikt. Daarom is dit beter vergelijkbaar dan een fragment pipeline met een ALU, aangezien een ALU een onderdeel is van een fragment pipe. Fragment pipelines en ALUs hebben in eerste instantie niet hetzelfde doel en zitten op verschillende niveaus.

Jij kwam met het voorbeeld G71 = 24, R580 = 48, dus G71 is efficienter. Maar die 24 bij de G71 zijn de fragment pipelines, terwijl die 48 bij de R580 geen fragment pipes zijn, maar ALUs verdeeld over 16 fragment pipelines.
Goed, dus hier krijg ik een reprimande over de 24 (nV G71) vs 48 (ATi R580) verhouding die ik hanteerde.
Correct volgens jou was: 24*2 vs 16*3 (ofwel 48:48)
Even verderop...
[...]
...krijgt nV op zijn donder omdat ze zouden goochelen met nummertjes. De juiste 'eerlijke' verhouding is niet 48:48 maar 48:96.... ofwel diezelfde 24:48 verhouding waarvoor ik hier direct boven op mijn kop krijg 8)7

Kijk dat is nou precies wat ik bedoel met 'goochelen met nummers'. Afhankelijk van de situatie trek je een aantal cijfertjes en verhoudingen uit de doos, die altijd in het voodeel van ATi worden uitgelegd... en dat zelfs op 2 verschillende manieren in dezelfde post 8)7
Het aanhalen van nVidia die zegt dat de G71 48 ALUs heeft is niet het op z'n donder geven hoor. Zo bedoelde ik het ook niet. Ik wilde alleen maar aangeven dat de dingen die jij vergelijkt wilde vergelijken verder af liggen dan texture units met elkaar vergelijken. Dingen vergelijken die hetzelfde doel hebben doe je sneller dan dingen vergelijken die niet hetzelfde doel hebben. Als je auto's vergelijkt kijk je ook naar de motor. Daar binnen zitten technieken die verschillen, maar uiteindelijk heeft die motor toch maar 1 doel en dat is pk's leveren. Zo ook de texture units. Maar goed, doet er verder ook niet toe.
:? :? :?
Met die 56 texture units bereikt nV virtually free AF. Het gaat mij om de free AF... hoe ze 't flikken kan me werkelijk aan mijn reyt oxideren, zolang 't maar geflikt wordt, niet enorm veel meer stroom vreet en niet ten koste gaat van andere dingen (zoals IQ).
Hoeveel van die 56 texture units lagen te slapen bij deze specifieke test vind ik niet boeiend. Hoeveel texture units van de 56 uit G92 gesloopt moeten worden om eenzelfde 14% performancehit als RV670 te veroorzaken boeit me ook niet.
PS: lees 'boeit me niet' als 'welliswaar interessant, maar domweg scheer onbelangrijk'. Resultaat telt.
Dat is dan een verschil in interesse. :) Ik vind het zelf zeer boeiend om te zien hoe iets bereikt wordt. Vergelijkingen zullen er altijd gemaakt worden wat betreft techniek. En vaak zie je dat er veel leentjebuur gespeeld wordt door de IHV (bv de hoekafhankelijke AF uit de X800 serie die nVidia probeerde te kopieren in de G70/G71 helaas met shimmering of DST/PCF in de X1900 serie die AMD van nVidia geleend had). Om dan precies te weten wat voor effect dat kan hebben is het juist belangrijk om te weten hoe de techniek in elkaar zit en dat je de juiste dingen met elkaar kan vergelijken. Stel dat AMD straks in de R700 komt met shaderdomains... wat voor invloed zal dat hebben op de R600 architectuur als de R700 daar nog op voortborduurt. Leuke dingen om over na te denken.
Sneller tegen gelijkblijvende (of hogere) IQ en gelijkblijvend (of lager) stroomverbruik == beter.
Wat voor jou beter is, hoeft voor een ander niet zo te zijn. Ik zou er daarnaast nog prijs en featureset aan toe willen voegen.

GF8800GT is sneller dan de HD3870. IQ is vergelijkbaar (met een voordeel voor AF in NV, maar een voordeel voor AMD met Trilinear). Stroomverbruik ligt hoger (zowel idle als load).

Is de GF8800GT daarom beter? En als je dan de rest mee neemt... Temperatuur ligt veel hoger. Prijs is lager. Featureset is minder (HDMI Audio, UVD, DX10.1).

Als je voor performance gaat is de GF8800GT beter. Maar d'r komt nog zo veel meer kijken.
Helaas, u mag toch niet door voor de koelkast ;)
Hoge eisen stellen met betrekking tot performance en IQ (en met name de combinatie van die 2) heeft niets met e-peen te maken. Dit was ATi namelijk op het lijf geschreven tot voor niet zo lang geleden, en toen ook de hoofdtoon van dit topic. Inmiddels is dat dus al verworden tot "e-peen"? Whatever float's ATi's boat nietwaar? :/
Nee, e-peen is het feit dat sommige mensen bevestiging zoeken dat hun kaart sneller is dan de concurrentie (of het nou AMD is of nVidia). Hier zie je vaak dat sommige mensen extra bevestiging moeten hebben dat hun GF8800GT(X)/Ultra sneller is dan een HD2900XT. Dat is e-peen... een streling voor je virtuele ego.
Excessive emotional and ego investment in an online message board or forum; a marked tendency to continue to argue one's point even after losing a debate in such a forum.
Daaronder valt dus ook het feit dat de HD2900XT in CF alle CF records had gebroken of het simpele feit dat het voor sommigen een kick is als NV/AMD (doorhalen wat niet van toepassing is) even een mindere kaart released waardoor hun favoriete merk weer even boven aan staat (alhoewel dit meer fanboisme is).
Features zijn leuk, maar dat een 150+ Euri graphics card koffie kan zetten, en als je er een webcam aan vastknoopt en een stokje in steekt het Oostberlijns triangelconcert kan dirigeren vindt ik niet bepaald maatgevend voor een aankoopbeslissing. Gameperformance voert dan gewoon de hoofdmoot.
Klopt. Helemaal gelijk. Maar de een is tevreden met 30fps in de meeste games, terwijl een ander minimaal 60fps wil en een ander weer 100fps wil. Daarnaast is voor de een AA belangrijk, voor een ander niet... en voor een ander weer AF... of beide. Gameperformance als maatgevende aankoopbeslissing varieert dus per persoon en is niet alleen datgene wat jij vindt, maar wat ieder voor zichzelf vindt.

Voor €150 weet ik het dan wel. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Cheetah schreef op maandag 12 november 2007 @ 18:18:
[...]
Nee dat kun je niet. De opbouw van de texture units, de configuratie waarin ze staan, de verhouding waarin adressing en filtering texturing units staan, de kloksnelheden... sterker nog, de hele manier van tellen van texture units kan afwijkend zijn.
Je gaat me niet vertellen dat een R600/RV670 texture unit volledig 100% identiek en uitwisselbaar is met een G80/G92 texture unit.
Ze zijn idd niet identiek, die van ati zijn ietwat krachtiger bij het filteren van fp16 (1 per klokpuls), voor de rest zijn ze identiek qua performance. Natuurlijk speelt de efficientie van de texture caches ook mee bij de performatie van TU's.
Goed, dus hier krijg ik een reprimande over de 24 (nV G71) vs 48 (ATi R580) verhouding die ik hanteerde.
Correct volgens jou was: 24*2 vs 16*3 (ofwel 48:48)
eigenlijk is het:
G91: 24 * 2 * (Vec2+Vec2 of Vec3+Scalar)
R580: 16 * 3 * (Vec3+scalar)
De R580 was beter omdat het een betere shader scheduller had. (en een meer bandbreedte als ik het me goed herinner)
:? :? :?
Anyway, met hun texture config bereikt nV virtually "free" AF. Het gaat mij om de free AF... hoe ze 't flikken kan me werkelijk aan mijn reyt oxideren, zolang 't maar geflikt wordt, niet enorm veel meer stroom vreet en niet ten koste gaat van andere dingen (zoals IQ).
Hoeveel van die 56 texture units lagen te slapen bij deze specifieke test vind ik niet boeiend. Hoeveel texture units van de 56 uit G92 gesloopt moeten worden om eenzelfde 14% performancehit als RV670 te veroorzaken boeit me ook niet. Nog afgezien van dat 't onmogelijk is om dat te testen...
PS: lees 'boeit me niet' als 'welliswaar interessant, maar domweg scheer onbelangrijk'. Resultaat telt.
Wat weliswaar vergeten wordt is dat de G92 te weinig geheugen bandbreedte heeft om die 56 TU's te voeden. Die TU's gaan enkel volledige belast worden als er uitsluitend uit de texture cache gelezen wordt. Die cache is niet groot maar als je zeer veel AF toepast wordt op een kleine hoeveelheid geheugen zeer veel texture operaties uitgevoerd & tada gratis 16x AF. Erg mooi maar je zal die texture units voor niets anders kunnen gebruiken.

Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op maandag 12 november 2007 @ 16:26:
Er werd gezegd dat 'niemand' het interessant vind hoe de 16 texture units van de RV670 zich verhouden ten opzichte van 56 in de G92, maar hoe de kaart het in zn geheel doet. Dan komt het er in mijn boekje op neer dat er eigenlijk gezegd wordt: het maakt me niet uit hoe die GPU de fps op het beeld tovert, als-ie het maar doet en als-ie het maar sneller doet dan de ander.
QFT.


Kijk hier is nog zo'n statement
Hoeveel van die 56 texture units lagen te slapen bij deze specifieke test vind ik niet boeiend. Hoeveel texture units van de 56 uit G92 gesloopt moeten worden om eenzelfde 14% performancehit als RV670 te veroorzaken boeit me ook niet.
Met een soort van disclaimer in t klein?
Nog afgezien van dat 't onmogelijk is om dat te testen...
PS: lees 'boeit me niet' als 'welliswaar interessant, maar domweg scheer onbelangrijk'. Resultaat telt.
Wat een eigenaardige betekenis van 'niet boeien' :z
Schrijf dan op dat jij t scheer onbelangrijk vindt, in plaats van "niet boeiuuh'. Of was t toch weer interessant?

Acties:
  • 0 Henk 'm!

  • Waterpolo
  • Registratie: September 2007
  • Laatst online: 23-03-2024
Het is trouwens best mooi als ik even de prijzen er terug bij pak. En dan met namelijk de HD3850, 512 MB met actieve koeling dan zou die op een prijs uitkomen van net geen 175 euro. Echter bij Zercom is hij al te pre-orderen voor 167,10 euro. DIt betekent dus dat als ik de prijs van de HD3870 mag geloven dat hij inderdaad onder de 100 euro te krijgen gaat zijn.

Daarnaast wil ik me toch ook even mengen in de discussie of de achterliggende techniek van een videokaart nu wel of niet belangrijker is dat de prestaties. Persoonlijk denk ik dat het een combinatie van 2 is. Want de techniek die op jou videoplank zit, zegt toch ook iets over hoe lang hij het in de toekomst vol kan gaan houden. Dus indirect ook iets over de prestaties in de toekomst, dus zitten prestaties en techniek indirect aan elkaar verbonden. Zo kan de huidige techniek op het moment een mindere prestaties geven, maar in verhouding met een kaart die momenteel meer prestaties levert wel meer het prestatiesniveau blijven handhaven.

Hopelijk is het zo een beetje duidelijk wat ik bedoel ;)

\\Edit: @hieronder: Het is heel simpel, als je het wilt vergelijken moet je iemand hebben die met een 8800GT even de Crysis benchmark draait en vervolgens een screenie neemt op hetzelfde moment als dat het is gedaan voor de HD3870. Hierdoor zal je het dan vervolgens wel eerlijk kunnen vergelijken. Alleen de settings moeten dan nog overeenkomen en dat kan wel eens lastig worden.

[ Voor 15% gewijzigd door Waterpolo op 12-11-2007 19:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 12 november 2007 @ 16:51:
Inderdaad, de Nvidia zit nog in de wolken.

Geweldig hoe je weer genept wordt.

Word er een beetje misselijk van al dat marketing gedoe. Ik koop gewoon de goedkoopste. Dat kleine verschil in snelheid merk je in de parktijk toch niet.

Frank
Dat is ook geen goede toon, maar ik begrijp het wel. De beste marketing ben jezelf en jij bepaald welke screenshot het mooiste is. Wel valt me op dat de bomenrij bovenaan bij een minder scherp is. Het lijkt me eerder een DX9 vs DX10 content eerlijk gezecht. Alhoewel DX9 games ook mooie misteffecten kunnen hebben.

Zeker geen eerlijk plaatje en daarom heb ik een idee.

Het is een vraag die ik uitbesteed, maar lees even verder.

Het is de bedoeling dat 2 mensen op dit forum met 2 soorten kaarten. Dus Jan met Nvidia en iemand met een ATi kaart. Beide mensen moeten in het bezit zijn van een volledige 3Dmark06 versie en beide mensen maken een shot van dezelfde frame in de HDR testen. Dan pas hebben we eerlijke content in huis en eerder hecht ik geen waarde aan die plaatjes. Ik ruik een flamewar en dat zou jammer zijn want beide merken hebben zo hun eigen voordelen en het is maar net wat jouw smaak is.

Wel heel intressant :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Die Crysis foto's zijn echt totaal nutteloos. twee totaal verschillende afbeeldingen dus je kunt daar niets over zeggen.

Maar De AA performance van de HD3870 ziet er goed uit. Hopelijk gaan andere review sites dit bevestigen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Even terug komen op die 2 frames verschil, en let wel zonder AA enabled.

Op een average van 14,77 en 16,77 is dat toch wat groter dan het lijkt, namelijk 12 % sneller.

1280x1024, no AA 16 DX10 16 frames/sec, erm ja... 8)7

Acties:
  • 0 Henk 'm!

Verwijderd

Door MauSS:
Sinds wanneer is Crysis het enigste spel dat er gespeeld wordt? die game-engine is gewoon apart, het mag er dan wel mooi uit zien maar vind het wel overdreven... ik ken spellen die er net zo mooi uitzien en toch veel beter lopen ;)
Het ging er om dat niet alle spellen met een crossfire 3870 opstelling op allerhoogst met een resolutie van 1900x1200 gespeeld konden worden. Crysis was/is daar een voorbeeld van, lezen is kunst ;) . En dan spreek je je zelf ook nog eens tegen, eerst zeg je dat crysis er overdreven mooi uitziet. Maar je kent nog genoeg spellen die er net zo mooi uitzien? 8)7
Door MauSS:
een hele nieuwe pc voor maar 3 spelletjes? is een PS3 of X360 dan niet wat voor jou? lijkt me zo zonder geld als je een nieuwe pc koopt als je er maar 3 spelletjes op doet..
Again lezen is een kunst: De poster boven mij zij dat hij met een sli setup van 2x8800GT alleen COD4 ging spelen. Toen gaf ik aan dat als ik zon setup zou aanschaffen ik niet voor spellen ging die tegen de jaar wisseling alweer zijn achterhaald. Maar dat ik graag "next-gen" spellen zou spelen met als voorbeeld de 3 genoemde titels. En ik heb mijn pc echt niet om alleen spelletjes te spelen hoor? Ik weet niet hoe je daar bij komt? Misschien ook verkeerd gelezen ;)

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Verwijderd schreef op maandag 12 november 2007 @ 19:44:
...
Op een average van 14,77 en 16,77 is dat toch wat groter dan het lijkt, namelijk 12 % sneller.
Dat is natuurlijk te gemakkelijk. Gamen op 14 óf 16 frames is niet echt speelbaar. :+
Je kunt hier dus niet generaliserend stellen dat Crysis 12% beter draait op een 8800GT.

Pas als er benchmarks uit zijn die op meerdere resolutie's en verschillende IQ's zijn getest zou je conclusie's kunnen trekken.

[ Voor 25% gewijzigd door Indy91 op 12-11-2007 20:01 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Astennu schreef op maandag 12 november 2007 @ 19:28:

Maar De AA performance van de HD3870 ziet er goed uit. Hopelijk gaan andere review sites dit bevestigen.
Ziet er goed uit? Vind ik niet. :X

Op 1280x1024 scoort die setup 20.300, en met 8x AA en 16xAF nog maar 12.800. Dat is bijna 37% performance verlies!!!

Mijn 8800GT's in SLi scoren default 15.800 en op 1280x1024 met 8xAA en 16xAF nog steeds 12.390. Wat neerkomt op een performanceverlies van maar 21%. ;)

1280x1024 8xAA 16XAF:

Afbeeldingslocatie: http://i7.tinypic.com/6lto9ko.jpg

En dat met een CPU die 1GHz langzamer draait en van huize uit al 5 tot 10% trager is. Kun je nagaan wat mijn setup scoort met mijn CPU op 4,0GHz (of 4,4GHz, wat meer overeenkomt qua performance). ;)

Met AA en AF aan levert de HD3870 CF tov de 8800GT's in SLi dus nog even 16% extra performance in. En dat met een CPU klokverschil van 1GHz!!!

En zeg nou niet dat het door de drivers komt; de 8800GT is ook net uit en heeft ook nog maar 1 "GOEIE" driver. ;)

[ Voor 6% gewijzigd door Format-C op 12-11-2007 20:48 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

@Rappie

Jij test op 4xAA en zij op 8x, dus nu klopt het niet. Test jij ook even op 8x en dan kunnen we het verschil zien.

Sorry ik zie nu pas aan het plaatje dat jij ook met 8xAA hebt getest.

[ Voor 24% gewijzigd door Tyranium op 12-11-2007 20:45 ]


Acties:
  • 0 Henk 'm!

  • Phyxion
  • Registratie: April 2004
  • Niet online

Phyxion

_/-\o_

RappieRappie schreef op maandag 12 november 2007 @ 20:38:
[...]


Ziet er goed uit? Vind ik niet. :X

Op 1280x1024 scoort die setup 20.300, en met 8x AA en 16xAF nog maar 12.800. Dat is bijna 37% performance verlies!!!

Mijn 8800GT's in SLi scoren default 15.800 en op 1280x1024 met 4xAA en 16xAF nog steeds 12.390. Wat neerkomt op een performanceverlies van maar 21%. ;)

1280x1024 4xAA 16XAF:

[afbeelding]

En dat met een CPU die 1GHz langzamer draait en van huize uit al 5 tot 10% trager is. Kun je nagaan wat mijn setup scoort met mijn CPU op 4,0GHz (of 4,4GHz, wat meer overeenkomt qua performance). ;)

Met AA en AF aan levert de HD3870 CF tov de 8800GT's in SLi dus nog even 16% extra performance in.

En zeg nou niet dat het door de drivers komt; de 8800GT is ook net uit en heeft ook nog maar 1 "GOEIE" driver. ;)
Appels en peren, 8xFSAA vs 4xFSAA, dat zegt natuurlijk helemaal niks wel als je het zo vergelijkt.

'You like a gay cowboy and you look like a gay terrorist.' - James May


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

8xAA...

Hersteld. Zie screenshot. Tikfoutje. ;)

[ Voor 87% gewijzigd door Format-C op 12-11-2007 20:46 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

RappieRappie schreef op maandag 12 november 2007 @ 20:44:
8xAA...

Hersteld. Zie screenshot. Tikfoutje. ;)
Het staat er nog steeds verkeerd in je stukje tekst 8)7

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Tyranium schreef op maandag 12 november 2007 @ 20:46:
[...]


Het staat er nog steeds verkeerd in je stukje tekst 8)7
Nee hoor... O-)

Die CPU die zijn gebruiken scoort 2000!!! meer dan die van mij. Echter gebruik ik MSI´s OC. Maar dat neemt niet weg dat het een fikse performancedrop is die die HD3870´s laten zien met veel AA en AF. Op hoge reso´s zal het wel helemaal feest zijn... Not.

[ Voor 43% gewijzigd door Format-C op 12-11-2007 20:51 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Gelukkig :)
Maar het doel van een texture unit is gelijk of je nou nVidia heet of AMD of Intel. Hoe dat doel bereikt wordt kan anders zijn, maar hetzelfde doel wordt uiteindelijk wel bereikt.
[...]
Dingen vergelijken die hetzelfde doel hebben doe je sneller dan dingen vergelijken die niet hetzelfde doel hebben. Als je auto's vergelijkt kijk je ook naar de motor. Daar binnen zitten technieken die verschillen, maar uiteindelijk heeft die motor toch maar 1 doel en dat is pk's leveren. Zo ook de texture units.
Precies, dus wat is uiteindelijk belangrijk als we gaan vergelijken? Hoe de texture units het ervanaf brengen bij het bereiken van hun doel... ook wel genoemd: resultaat :)

Wat is een belangrijk doel van texture units: texture filtering (ook wel AF).
Dus de bijpassende vraag: welk resultaat boeken de 2 texture unit configuraties van resp. RV670 en G92 bij het doen van hetgeen waarvoor ze gemaakt zijn (ook wel doel)?
Antwoord daarop is @16xAF in 3DM06: nV 0,1% drop, ATi 14% drop.

Het heeft lang geduurd, maar dan zijn we het er toch over eens dat het resultaat 't belangrijkst is? :)
Jij kwam met het voorbeeld G71 = 24, R580 = 48, dus G71 is efficienter. Maar die 24 bij de G71 zijn de fragment pipelines, terwijl die 48 bij de R580 geen fragment pipes zijn, maar ALUs verdeeld over 16 fragment pipelines.
Zucht, nee het was helemaal mijn bedoeling niet om G71 tot 'efficienter' te verklaren dan R580.
Enige wat ik wilde aantonen met die post was dat je niet 2 getallen passende in een specifieke architectuur uit de hoed kan toveren, die tegenover elkaar kan zetten, en dan uitspraken kan gaan doen over efficiency.
En dan zeker niet in de context: RV670 heeft 16 TU's, G92 heeft er 56. RV670 doet 14% drop en G92 0,1%. Dus RV670 heeft 'efficientere' TU's (:?). Deze argumentatie is gewoon non-sequitur.
Ik wilde je dat alleen maar laten zien met die vergelijkingen ;)
Ik vind het zelf zeer boeiend om te zien hoe iets bereikt wordt.
Ik ook, zoals ik ook in de aanvulling schrijf.
De specifieke invulling van de techniek is in mijn interesse echter verre ondergeschikt aan in hoeverre de techniek zijn doel bereikt. Ofwel het resultaat dat ermee geboekt wordt.
Wat voor jou beter is, hoeft voor een ander niet zo te zijn.
Oh, hoeveel mensen hebben we hier dan die het niet belangrijk vinden hoe hun videokaart waarvoor ze net 150-250 (of meer) voor neergeteld hebben presteert? :?
GF8800GT is sneller dan de HD3870. IQ is vergelijkbaar (met een voordeel voor AF in NV, maar een voordeel voor AMD met Trilinear). Stroomverbruik ligt hoger (zowel idle als load).

Is de GF8800GT daarom beter? En als je dan de rest mee neemt... Temperatuur ligt veel hoger. Prijs is lager. Featureset is minder (HDMI Audio, UVD, DX10.1).

Als je voor performance gaat is de GF8800GT beter. Maar d'r komt nog zo veel meer kijken.
LOL :D
Je beseft wel dat wel precies deze discussie gevoerd hebben bij 8800GTS vs 2900XT, waarbij de GTS het zonder IQ aflegde, maar met IQ (AA/AF) aan vaak nog beter deed ook? Ik geloof mijn ogen niet om al een maand na dato precies de omgekeerde argumentatie te zien... en toen ging het zelfs om vele tientallen watt's verschil plus luidruchtig vs silent ;)
Welkom in 't ATi topic ;)
oeLangOetan schreef op maandag 12 november 2007 @ 18:57:
Ze zijn idd niet identiek, die van ati zijn ietwat krachtiger bij het filteren van fp16 (1 per klokpuls), voor de rest zijn ze identiek qua performance. Natuurlijk speelt de efficientie van de texture caches ook mee bij de performatie van TU's.
Thanks voor de aanvulling :)
Wat weliswaar vergeten wordt is dat de G92 te weinig geheugen bandbreedte heeft om die 56 TU's te voeden. Die TU's gaan enkel volledige belast worden als er uitsluitend uit de texture cache gelezen wordt. Die cache is niet groot maar als je zeer veel AF toepast wordt op een kleine hoeveelheid geheugen zeer veel texture operaties uitgevoerd & tada gratis 16x AF. Erg mooi maar je zal die texture units voor niets anders kunnen gebruiken.
Maar dat is ook niet erg, want daar zijn ze voor bedoeld.
G92 heeft specifieke optimalisaties in de core, waaronder deze textureconfiguratie, om goede AA en AF performance te leveren tegen een relatief geringe bandbreedte. Maar dan zijn we weer terug bij doel en resultaat, wat ik zo belangrijk vind (en anderen weer niet zo heel erg) :P

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

RappieRappie schreef op maandag 12 november 2007 @ 20:47:
Die CPU die zijn gebruiken scoort 2000!!! meer dan die van mij.
Thanks 4 the benchmark :)

Als je de CPU enigzins minder in beschouwing wilt nemen kun je best de SM2 en SM3 scores pakken. Dat is respectievelijk:
3870 Crossfire: 5008 (SM2) ; 4902 (SM3)
8800GT SLI: 5470 (SM2) ; 4537 (SM3)

Overigens schaalt 3870 CF momenteel blijkbaar beter in 3DMark06 dan 8800GT in SLI.
@8xAA/16xAF doet de 3870 een 82% gain met CF (stock 62%). Ben benieuwd of ze dat ook in games voor elkaar krijgen, dat zou mooi zijn. De big-boys zullen beide wel een nieuwe driver releasen morgen of overmorgen :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
RappieRappie schreef op maandag 12 november 2007 @ 20:38:
[...]


Ziet er goed uit? Vind ik niet. :X

Op 1280x1024 scoort die setup 20.300, en met 8x AA en 16xAF nog maar 12.800. Dat is bijna 37% performance verlies!!!

Mijn 8800GT's in SLi scoren default 15.800 en op 1280x1024 met 8xAA en 16xAF nog steeds 12.390. Wat neerkomt op een performanceverlies van maar 21%. ;)

1280x1024 8xAA 16XAF:

[afbeelding]

En dat met een CPU die 1GHz langzamer draait en van huize uit al 5 tot 10% trager is. Kun je nagaan wat mijn setup scoort met mijn CPU op 4,0GHz (of 4,4GHz, wat meer overeenkomt qua performance). ;)

Met AA en AF aan levert de HD3870 CF tov de 8800GT's in SLi dus nog even 16% extra performance in. En dat met een CPU klokverschil van 1GHz!!!

En zeg nou niet dat het door de drivers komt; de 8800GT is ook net uit en heeft ook nog maar 1 "GOEIE" driver. ;)
Het lijkt mij zo slecht nog niet.... goed, die performance drop is procentueel groter, maar eenmaal met AA/AF aan presteert de kaart zo'n beetje gelijk aan de 8800GT in 3DMark06.
Dus gemiddeld veel beter, aangezien zonder AA/AF een veeel hogere score wordt gehaald in vergelijking met die 8800 OC SLI's van jou.\

Genoeg nietszeggende crappy 3DMarks die veel te veel leunt op CPU prestaties, tijd voor echte game vegelijkingen ;)

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Illidan schreef op maandag 12 november 2007 @ 21:27:
Het lijkt mij zo slecht nog niet.... goed, die performance drop is procentueel groter, maar eenmaal met AA/AF aan presteert de kaart zo'n beetje gelijk aan de 8800GT in 3DMark06.
Dus gemiddeld veel beter, aangezien zonder AA/AF een veeel hogere score wordt gehaald in vergelijking met die 8800 OC SLI's van jou.
CF schaalt vooralsnog een stuk beter in 3DMark06 dan SLI :)
Genoeg nietszeggende crappy 3DMarks die veel te veel leunt op CPU prestaties, tijd voor echte game vegelijkingen ;)
Jup, en op resoluties die SLI/CF waardig zijn. Dus 1600x1200, 1920x1200 met AA/AF :P

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 19:54

WoutF

Hoofdredacteur
Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken.
Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden.
Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.
Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn,
Een discussie over de efficiëntie van de texture units hoort hier niet thuis (volgens de TS iig). Deze topicreeks is flink aan het ontsporen de laatste tijd. Voor het bespreken van GPU architecturen en vergelijkingen hebben ze op Beyond3D een heel actief subforum. :)

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
is flink aan het ontsporen de laatste tijd.
Niet de laatste tijd, dat is altijd al zo geweest. Verder is de discussie over texture units interessant, daar leer je nog wat van. Voortdurend over nieuws praten gaat gewoon niet.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 19:54

WoutF

Hoofdredacteur
Hacku schreef op maandag 12 november 2007 @ 21:38:
[...]


Niet de laatste tijd, dat is altijd al zo geweest. Verder is de discussie over texture units interessant, daar leer je nog wat van. Voortdurend over nieuws praten gaat gewoon niet.
Laat dan iemand de topictitel aanpassen en haal meteen al die regels weg uit de topicstart :)

Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Hacku schreef op maandag 12 november 2007 @ 21:38:
[...]


Niet de laatste tijd, dat is altijd al zo geweest. Verder is de discussie over texture units interessant, daar leer je nog wat van. Voortdurend over nieuws praten gaat gewoon niet.
Lol ja idd, want je krijgt dan toch alleen maar gespeculeer over dit en dat...

Maargoed ik volg dat niet meer als het zo diep in gaat op die textures enzo, mij wat te moeilijk :P

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
WoutF schreef op maandag 12 november 2007 @ 21:36:

Een discussie over de efficiëntie van de texture units hoort hier niet thuis (volgens de TS iig). Deze topicreeks is flink aan het ontsporen de laatste tijd. Voor het bespreken van GPU architecturen en vergelijkingen hebben ze op Beyond3D een heel actief subforum. :)
Niet mee eens. Als leek leer ik ervan, ook al snap ik niet altijd alles.
Je kunt wel volstaan met in een nieuws forum linkjes plaatsen naar andere websites die zojuist iets "nieuwswaardig" geplaatst hebben, maar als dat het enige is dan is deze topic binnen de kortste keren morsdood.

En dat er erg veel vergelijkingen worden getrokken met de concurrent, daar ontkom je niet aan. Dat gebeurd in het nV forum ook (ok, misschien iets minder, maar goed, nV heeft op de HighEnd markt al zo lang geen echte concurrentie, tja dan valt er niets te vergelijken, kunne zij ook niets aan doen :o )

[ Voor 18% gewijzigd door Illidan op 12-11-2007 21:49 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Cheetah schreef op maandag 12 november 2007 @ 21:05:
[...]
Maar dat is ook niet erg, want daar zijn ze voor bedoeld.
G92 heeft specifieke optimalisaties in de core, waaronder deze textureconfiguratie, om goede AA en AF performance te leveren tegen een relatief geringe bandbreedte. Maar dan zijn we weer terug bij doel en resultaat, wat ik zo belangrijk vind (en anderen weer niet zo heel erg) :P
De vraag is natuurlijk of dat dat goed gebruik van die-space is.

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Ik ben die discussie van die AA drop inmiddels wel weer een beetje zat. Het is wel duidelijk dat de hardware AA van de G80 generatie (G92 kun je daar ook gewoon bij schalen) sneller is met AA berekenen dan de shaders van de R600 architectuur.

Daartegenover staat dat de shaderbased AA performance van de R600 generatie beter is dan die van de G80 generatie (zie de omstreden CoJ DX10 benchmark, waar de HD2900 de 8800GTX verslaat). In de zeer nabije toekomst zullen spellen waarschijnlijk toch op shaderbased AA gaan zitten, omdat die gewoon veel flexibeler is en een mooiere beeldkwaliteit kan produceren. En wie weet zien we dan vaker het patroon wat die CoJ benchmark laat zien.

Hardware AA loopt op zijn eind, en heeft veel beperkingen als het gaat om consistentie in AA berekenen. Zie ook de datasheet van AMD waarin duidelijk wordt gemaakt dat DX10.1 met shaderbased AA veel praktischer is bij het ontwerpen van games. De makers van de game kunnen dan zelf hun invullen geven aan de AA, iets wat bij hardware AA-resolve niet mogelijk is. Dit is omdat hardware AA op elke (generatie) videokaarten net weer wat anders werkt, waardoor het voor de programmeurs niet zinvol is om bepaalde features in te bouwen. Sommige kaarten ondersteunen het immers wel en andere weer niet.

Bovendien heeft hardware AA ook beperkingen als het gaat om HDR + AA. Daarom is het ook zeker vanuit het enthousiast oogpunt aan te moedigen dat AMD al snel overstapt op een goede programmeerbare AA resolve. Een ander voordeel van de programmeerbaarheid van shaderbased AA is dat makers van spellen selectieve AA kunnen toepassen, die alleen die gedeeltes van het beeld anti-aliasen waar het nodig is (bijvoorbeeld hekwerk, bomen, kabels) en dingen als de ondergrond en de lucht overslaan. Dit kan ook een verlichting op de GPU load geven, waardoor een hogere FPS of een hogere AA instelling gekozen kan worden.

De performance van de HD3800 serie is imho zeker niet slecht, en dankzij zijn geavanceerde stroombesparingsfeatures is het zeker een interessant alternatief voor de consument. Een groot deel van de tijd dat de PC aan staat is deze toch idle, en daar is het verschil met de 8800GT vrij groot.

[ Voor 17% gewijzigd door frankknopers op 12-11-2007 22:27 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
frankknopers schreef op maandag 12 november 2007 @ 22:21:

en dankzij zijn geavanceerde stroombesparingsfeatures is het zeker een interessant alternatief voor de consument. Een groot deel van de tijd dat de PC aan staat is deze toch idle, en daar is het verschil met de 8800GT vrij groot.
Ik heb dit ff gemist; wat is die geavanceerde stroombesparingsfeature precies, en belangrijker: hoeveel verschilt het met de 8800GT?

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 18:18
Illidan schreef op maandag 12 november 2007 @ 22:26:
[...]


Ik heb dit ff gemist; wat is die geavanceerde stroombesparingsfeature precies, en belangrijker: hoeveel verschilt het met de 8800GT?
Powerplay.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
WoutF schreef op maandag 12 november 2007 @ 21:39:
[...]

Laat dan iemand de topictitel aanpassen en haal meteen al die regels weg uit de topicstart :)
Dit topic heette vroeger anders... namelijk het "ATi Nieuws & Discussie Forum". Daarin past in principe alles wat betrekking heeft op ATi videokaarten inclusief de architectuur... Of het nou nieuwtjes zijn of het bespreken van de verscheidene AA methodes of hoe de texture units in elkaar zitten... Het hoort allemaal in dit topic thuis. Problemen met videokaarten horen hier echter niet. Zo is het altijd al gegaan vanaf de start in 2004. De informatieve waarde en nieuwswaarde voeren horen hier boventoon te voeren.

De naam is verandert in "ATi Nieuwsdiscussie" om de nadruk te leggen op ATi en haar GPUs. Het woord "discussie" werd te los genomen en eindigde vaak meer in een flamewar/trollfest met te veel onzinnige vergelijkingen tussen de concurrenten (de mijne is sneller etc!). Vergelijkingen... daar ontkom je niet aan, maar zoals de topicregels ook al zeggen... als je het netjes, op een vriendelijke toon en vooral beargumenteerd doet, dan is daar niks mis mee.

Misschien is de naam een beetje 'ongelukkig' gekozen in dat verband en wordt het tijd om het weer terug te veranderen aangezien er nu meerdere "Algemene Nieuws & Discussie Topics" zijn opgestart, zoals het NV topic, Samsung topic en AMD topic, die prima draaien onder de 'oude naam' die dit topic vroeger ook had (tot deeltje 25).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Illidan schreef op maandag 12 november 2007 @ 22:26:
[...]


Ik heb dit ff gemist; wat is die geavanceerde stroombesparingsfeature precies, en belangrijker: hoeveel verschilt het met de 8800GT?
Volgens mij staat dat gewoon in de startpost hoor...

Anyways. De technologie die in de HD3800 serie zit is Powerplay. Deze feature is afkomstig van de laptopvideokaarten van ATI/AMD, en maakt het mogelijk om on-the-fly voltages, kloksnelheden en PCI-E bandbreedte te reguleren. Het kan zelfs bepaalde onderdelen van de GPU op standby zetten, net zoals de slaapstand van moderne processors. Het voordeel is dat je videokaart nooit meer stroom gebruikt dan strikt noodzakelijk is, wat vooral bij light load en idle veel energie kan besparen. Volgens mij heeft CJ hier al een post over gemaakt, waarin hij zegt dat de videokaart met Powerplay verschillende PCI-E lanes kan uitschakelen wanneer de bandbreedte niet nodig is.

Powerplay is dus niet hetzelfde als de 2D en de 3D speed die we al langer kennen, maar is dus een techniek die in de GPU zelf zit die alle eerdergenoemde dingen zelf kan reguleren. De GPU kan dus 3D applicaties herkennen, ook als je in een venstertje op je (2D) bureaublad draait.

Zie dit voorbeeldje. Ik weet heel zeker dat de 8800GT die idle wattages niet kan benaderen..

Afbeeldingslocatie: http://www.hardware.info/images/news/powerplay-hd3800.jpg

[ Voor 4% gewijzigd door frankknopers op 12-11-2007 22:36 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op maandag 12 november 2007 @ 21:45:
De vraag is natuurlijk of dat dat goed gebruik van die-space is.
Zoals gezegd: dat hangt samen met doel en resultaat.
Doel was een architectuur die tegen relatief geringe bandbreedte goede AA & AF performance kon neerzetten. Ten behoeve van o.m. AF is de hoeveelheid Texture Adressing units en verhouding van de TA en TF units aangepast. Resultaten met AA zijn goed (GTX heeft 1,5x zo veel bandbreedte en toch schaalt GT vrij goed mee - tot op zeker hoogte) en met AF (0,1% hit @16x) vooralsnog zeer goed te noemen...
frankknopers schreef op maandag 12 november 2007 @ 22:21:
Ik ben die discussie van die AA drop inmiddels wel weer een beetje zat. Het is wel duidelijk dat de hardware AA van de G80 generatie (G92 kun je daar ook gewoon bij schalen) sneller is met AA berekenen dan de shaders van de R600 architectuur.
We hadden het over Anisotropic Filtering ofwel AF performance hoor ;)
Da's iets anders dan Anti Aliasing (ook wel AA), hoewel ze wel vaak in tandem gebruikt worden :)
Daartegenover staat dat de shaderbased AA performance van de R600 generatie beter is dan die van de G80 generatie (zie de omstreden CoJ DX10 benchmark, waar de HD2900 de 8800GTX verslaat).
Oh :? Ancient history blijft toch telkens weer verassend lang hangen.
Goes to show dat de eerste indruk altijd toch 't meest indrukwekkend is blijkbaar...

Afbeeldingslocatie: http://www.pcper.com/images/reviews/463/7.10-single/coj-1600-bar.jpg

Afbeeldingslocatie: http://www.pcper.com/images/reviews/463/7.10-single/coj-1920-bar.jpg

Zoals je ziet speelt de 2900XT al enige maanden gewoon lief tussen GTS en GTX in CoJ hoor, en qua min-fps zelfs een flink stukje onder die 2... Als SLI/CF erbij wordt gehaald trekt de GTS gelijk @avg.
dankzij zijn geavanceerde stroombesparingsfeatures is het zeker een interessant alternatief voor de consument
Ik blijf het toch telkens weer verassend vinden om dergelijke argumentatie te lezen van een 2900XT CF bezitter...
2900XT CF... stroombesparing... (oh well never mind) ;)

[ Voor 8% gewijzigd door Cheetah op 12-11-2007 22:55 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Hmm, 34W voor de 3870 in idle is idd niet veel, ik zal straks googelen naar de idle resultaten van de 8800GT, benieuwd of het verschil idd zo groot is.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:40

Apoca

Array Technology Industry

Cheetah schreef op maandag 12 november 2007 @ 22:47:
[...]
Ik blijf het toch telkens weer verassend vinden om dergelijke argumentatie te lezen van een 2900XT CF bezitter... 2900XT CF... stroombesparing... never mind ;)
Het is me wat he..

Begrijp me niet verkeerd, het is goed dat ze aan stroombesparing doen zowel AMD als nV. Maar ja zou dat een reden zijn om een bepaald type nu echt links te laten liggen?

[ Voor 21% gewijzigd door Apoca op 12-11-2007 23:47 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

Pagina: 1 ... 4 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is GoT en geen kleuterschool... dus:

- geen basic vraagjes die makkelijk via (in-topic) search te vinden zijn
- geen gezever over winkels of levertijden
- post on-topic, onderbouwd en vriendelijk of post niet
- vergelijkingen met non-ATi kaarten mag altijd, maar ga daarbij ongeacht resultaten niet trollen
- als je een ander uitmaakt voor fanboy kun je direct een Officiele Waarschuwing verwachten