Acties:
  • 0 Henk 'm!

  • Grozno
  • Registratie: Februari 2006
  • Laatst online: 21:58

Grozno

acts without consequence!

Zo werkt het toch juist wel?
Waarom een 5890 uitbrengen als de 5870 nog prima verkoopt?

Edit: laat, maar ander argument. Reinman maakt z'n ondertitel waar :P

[ Voor 29% gewijzigd door Grozno op 29-10-2009 11:23 ]

Advocatus ineptias | Free Speech Online


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 20-06 12:51

Splinter Cell

Glasvezel MASTER RACE

HD 5870X2 (HD 5970) Benchmarks and Images

Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2009/10/29/1256807523-310.jpg
http://alienbabeltech.com/main/?p=12606

[ Voor 21% gewijzigd door Splinter Cell op 29-10-2009 11:26 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
frankknopers schreef op donderdag 29 oktober 2009 @ 11:15:
[...]

Ik denk dat je voor rond de 500 euro die HD5950 kunt krijgen. Bij een niet officieel aangekondigd product denk ik aan een dual gpu videokaart die niet door AMD zelf wordt verkocht, een beetje zoals de HD4850 X2 destijds van Sapphire. Een eventuele full-featured HD5970 zou dan makkelijk naar 600 euro kunnen als deze echt 2x zo snel is als een HD5870.

Een HD5890 kun je denk ik nog wel even op wachten, er is nu nog weinig reden om die op de markt te brengen..
Je denkt te moeilijk. Niet doen. Er staat op dit moment maar 1 Hemlock model op de planning.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

CJ schreef op donderdag 29 oktober 2009 @ 11:34:
[...]


Je denkt te moeilijk. Niet doen. Er staat op dit moment maar 1 Hemlock model op de planning.
Jammer, geen HD5950 dus? :(. Nu weet ik dat ze AIB's dat mogen doen enzo, maar dan doet alleen Sapphire dat en dat vind ik gewoon jammer.

Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 20-06 12:51

Splinter Cell

Glasvezel MASTER RACE

Een anonieme bron weet aan Tweakers.net te meldden dat de HD 5950 in feite een HD 5870 is, maar dan met zes mini-displayport-uitgangen. De kaart stond eerder bekend als de six-edition. Wanneer deze videokaart uitkomt en voor welke prijs is nog niet bekend.
nieuws: Radeon HD 5970-benchmarks gelekt en HD 5950 is geen dual-gpu-kaart

Acties:
  • 0 Henk 'm!

  • kluyze
  • Registratie: Augustus 2004
  • Niet online
Volgens het artikel op de FP komt er wel een 5950 maar dat zou dan de 5870 eyefinity six worden.

nieuws: Radeon HD 5970-benchmarks gelekt en HD 5950 is geen dual-gpu-kaart

Wel vreemd, stel er komt dan nog een 5890, en er gaat daarvan een six versie van komen, welk type nummer zou die dan krijgen? 5960? Ook vind ik dat 5950 doet vermoeden dat die niet heel high-end is, een xx50 kaart is meestal trager als een xx70 of xx90. Wat ook het geval is tov de 5970 maar het gaat toch de snelste single gpu zijn, afgezien van een eventuele 5890. Dan zou ik eerder de 5970 de six versie van de 5870 maken, zou in mijn ogen veel logischer zijn. Maar wie ben ik natuurlijk.

Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 20-06 12:51

Splinter Cell

Glasvezel MASTER RACE

Ik denk dat die HD5890 gewoon een soort van HD4890 gaat worden, een mogelijke tegenhanger op de Fermi.

[ Voor 5% gewijzigd door Splinter Cell op 29-10-2009 11:55 ]


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
frankknopers schreef op donderdag 29 oktober 2009 @ 02:18:
[...]

Wat noem je nou precies afzettersprijzen? De frustratie dat de HD5800 kaarten sinds de launch in prijs zijn gestegen is begrijpelijk, maar zelfs dan is het nog steeds een hele mooie deal. Eindelijk een snelle videokaart die ook nog eens zuinig en stil is en die qua prijs niet buitensporig is.
Afzettersprijzen die je betaalt als je NU een 5xxx kaart wil. Die dingen zijn volgens de pricewatch zo'n beetje nergens op voorraad, ja, bij Komplett zag ik een 5850 voor meer dan 300 euro. Dat is afzetterij.

Vandaar dat ik spreek over een 'cardboard launch'. :)

Specs


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
RappieRappie schreef op donderdag 29 oktober 2009 @ 09:10:
Het was misschien een beetje zwart wit wat ik neerzette. ;) Het was een beetje cynisch bedoeld.

Het is gewoon heel simpel; AMD kan niet aan de vraag voldoen, dus verhogen ze de prijs zodat er minder vraag is, en ze wel aan de vraag kunnen voldoen. Tegen de tijd dat de HD5800 goed leverbaar is, zal de prijs wel weer dalen...

In dit geval heeft het meer te maken met een shortage dan met uitknijpen van klanten.

Er is nagenoeg nergens een HD5800 meer te krijgen momenteel.

AMD kan dit beter snel fixen, want ze lopen nu kapitalen mis.
Die kapitalen die ze mislopen fixen ze juist met de prijsverhoging. En die prijs gaat pas substantieel dalen als ze weer last van nVidia krijgen. :P

Typisch om te zien trouwens hoe de prijsverhogingen van AMD verdedigd worden, als een ander bedrijf dit doet is het huis te klein. Objectief blijven is blijkbaar erg moelijk :+

Specs


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Naluh! schreef op donderdag 29 oktober 2009 @ 12:08:
[...]

Afzettersprijzen die je betaalt als je NU een 5xxx kaart wil. Die dingen zijn volgens de pricewatch zo'n beetje nergens op voorraad, ja, bij Komplett zag ik een 5850 voor meer dan 300 euro. Dat is afzetterij.

Vandaar dat ik spreek over een 'cardboard launch'. :)
Ik vind dat je erg overdreven bezig bent. Komplett had de HD5870 voor 500+ in de lijst staan dacht ik. Niet echt representatief.

Ja de HD5xxx kaarten zijn wat duurder dan verwacht/gehoopt, dat vind ik ook minder, maar het beweegt zich binnen een acceptable bandbreedte.

De hele goedkope shops werkten altijd al met lokkertjes (zowel bij nV als AMD) die ze pas na veel langere tijd waar kunnen maken.

Om zo'n lokker bodem prijs als standaard te nemen en dan de rest afzetters te noemen slaat nergens op.

Mensen die perse voor een dubbeltje op de laagste rij wilden zitten zijn nu onterecht pissed op AMD imo.

[ Voor 5% gewijzigd door Help!!!! op 29-10-2009 12:21 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
CJ schreef op donderdag 29 oktober 2009 @ 11:34:
[...]


Je denkt te moeilijk. Niet doen. Er staat op dit moment maar 1 Hemlock model op de planning.
Wel grappig dat als 725 de echte clocks worden dat de X2 kaarten in verhouding steeds trager worden dan hun single card tegenhangers:

HD3870 = 775 MHz - HD3870 X2 = 825 MHz = 50 MHz sneller dan single

HD4870 = 750 MHz - HD4870 X2 = 750 MHz = Even snel als single

HD5870 = 850 MHz - HD5970 (HD5870 X2) = 725 MHz = 125 MHz trager

Ik hoop niet dat dit zich door gaat zetten in de toekomst :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 196662

Jouw objectiviteit hebben we al gezien Naluh!.

Meeste tweakers reageren zo omdat we 8800GTX'n kochten aan €1200 voor een paar. Of een 6800ultra voor €650.
Snelste graka op de wereld gaat van €300 naar €320? Nobody cares en zeker niet omdat je in alle sectoren kan zien dat prijzen terug stijgen. Iets wat momenteel vrij positief is na 2jaar vele ontslagrondes.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op donderdag 29 oktober 2009 @ 12:21:
[...]


Wel grappig dat als 725 de echte clocks worden dat de X2 kaarten in verhouding steeds trager worden dan hun single card tegenhangers:

HD3870 = 775 MHz - HD3870 X2 = 825 MHz = 50 MHz sneller dan single

HD4870 = 750 MHz - HD4870 X2 = 750 MHz = Even snel als single

HD5870 = 850 MHz - HD5970 (HD5870 X2) = 725 MHz = 125 MHz trager

Ik hoop niet dat dit zich door gaat zetten in de toekomst :P
Ik ook niet. Hoe zou zo'n ding met negatieve klokspeeds presteren... :P

Ben overigens tot nu toe erg tevreden met de HD5870. Zuinig,stil, presteert goed :)
Enig ding is dat ik een paar keer in meer of mindere mate corruptie in beeld heb in 2D.
Driver of hardware fout :? Ik kijk het nog wel ff aan. Tot nu toe weinig last van gehad.

[ Voor 18% gewijzigd door Help!!!! op 29-10-2009 12:27 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
De prijs was best laag voor de nieuwste high-end kaart. Daarom maal ik er niet echt om dat de prijs met 15-20 euro stijgt. Stel dat AMD reeds de hoofdprijs zou vragen (zeg 500-600 euro) en dan gooien ze er nog eens 15-20 euro bovenop, dan had je veel meer mensen gehoord.

Dat is volgens mij gewoon het hele verschil.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 21:01

Edmin

Crew Council

get on my horse!

Modbreak:Het gebash van de laatste paar weken moet maar eens afgelopen zijn. De eerstvolgende die nu nog het woord 'fanboy' denkt te moeten posten of op andere manieren op de man moet posten (zowel in dit topic als elders binnen VB), draag ik direct voor voor een ban.

U bent gewaarschuwd!

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Astennu schreef op donderdag 29 oktober 2009 @ 12:21:
[...]


Wel grappig dat als 725 de echte clocks worden dat de X2 kaarten in verhouding steeds trager worden dan hun single card tegenhangers:

HD3870 = 775 MHz - HD3870 X2 = 825 MHz = 50 MHz sneller dan single

HD4870 = 750 MHz - HD4870 X2 = 750 MHz = Even snel als single

HD5870 = 850 MHz - HD5970 (HD5870 X2) = 725 MHz = 125 MHz trager

Ik hoop niet dat dit zich door gaat zetten in de toekomst :P
Die naamgevingen lijken ook helemaal nergens op. :/

Noem die dual kaart nu gewoon X2. Dat is veel duidelijker imho.


5850
5870
5950
5970

Hier is niet uit af te leiden dat de 5970 een dual GPU kaart betreft. :S Noem hem dan HD5870X2 od HD5970X2.

Daar komt bij dat ik het best vreemd vind dat die dual kaart zulke lage clocks heeft. Dat slaat toch nergens op? Als je ziet hoe laag de temps van 1 HD5870 zijn, dan zou de koeling het probleem niet hoeven zijn lijkt me. En quao powerconsumption zou hij ongeveer net zoveel stroom zuipen als een GTX295, dus ik snap er werkelijk niks van.

Of ze doen dit expres om later een eventuele dual Fermi te kunnen counteren.

[ Voor 16% gewijzigd door Format-C op 29-10-2009 12:33 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 21-05 11:53
Of de clockspeeds zijn nog niet final... ;)

Acties:
  • 0 Henk 'm!

Anoniem: 134818

AMD smokescreen :P.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
RappieRappie schreef op donderdag 29 oktober 2009 @ 12:31:
[...]

Die naamgevingen lijken ook helemaal nergens op. :/

Noem die dual kaart nu gewoon X2. Dat is veel duidelijker imho.


5850
5870
5950
5970

Hier is niet uit af te leiden dat de 5970 een dual GPU kaart betreft. :S Noem hem dan HD5870X2 od HD5970X2.
En bij de GTX295 is wel af te leiden dat het om een dual GPU kaart gaat?

De naamgeving is nu gebaseerd op performance. Er zijn genoeg mensen die dachten dat een HD4890 sneller was dan een HD4870X2 ondanks dat er X2 achter de ene kaart stond en dat kwam puur en alleen omdat de ene kaart een 90 had en de ander een 70. 90 is toch immers hoger (en dus sneller) dan 70?

Er komt veel meer bij kijken bij de naamgeving. Ik kan me goed voorstellen dat iemand die dit topic niet volgt, uitgaat dat een hoger modelnummer ook sneller betekent. NV had dat goed begrepen met de GTX295. Het maakt voor de meeste mensen ook niet uit of het een dual GPU kaart is of niet. Het gaat ze om performance en dan zal het ze worst wezen hoe die performance bereikt wordt.

Kijk hier op het forum is iedereen kritisch en heeft altijd wel wat te zeuren (dat is inherent aan forums), maar kijk ook verder dan technische sites. Jan modaal komt niet op dit soort sites. Die gaan naar de winkel en vragen om de snelste kaart. Een verkoper heeft dan veel minder moeite om te verkopen dat een HD5970 sneller is dan een eventueel toekomstige HD5890, dan wanneer het HD5870X2 had geheten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
Het is juist slim om die kaart niet X2 te noemen.

Veel mensen hebben bij een X2 toch nog altijd het gevoel dat het soms niet echt goed werkt, dat het soms slecht schaalt, enzovoorts. Door die kaart niet X2 te noemen voorkom je dat gedeeltelijk (tweakers weten natuurlijk wel dat er 2 gpu's onder motorkap zitten). Het past ook bij een strategie waar je er vanuit gaat dat het er niet toe doet of een videokaart nou 1, 2, 3, of 100 gpu's aan boord heeft om een bepaalde performance te halen.

Uiteindelijk wil je gewoon dat het allemaal transparant wordt: je wilt een product waarbij de schaling niet afhankelijk is van de software ondersteuning of profielen voor games, maar dat het `gewoon werkt'. Als het `gewoon werkt' dan heeft het ook geen enkele zin om dat ding X2 te noemen, je geeft hem gewoon een hoger nummertje waarmee je aangeeft: `deze is sneller'.

Trouwens: als de kaart 5870X2 zou heten, zou het dan niet een beetje gek zijn dat de cores/mem niet op dezelfde kloksnelheden lopen als bij de gewone 5870? Als de kloksnelheid hoger ligt (zoals bij de 3870X2) dan hoor je niemand klagen natuurlijk. Als de kloksnelheid gelijk ligt (zoals bij de HD4870X2) dan is er ook niets aan de hand. Breng je een HD5870X2 uit met lagere kloksnelheden dan de HD5870, dan krijg je scheve gezichten. Marketing technisch gezien is dat gewoon niet handig.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
CJ schreef op donderdag 29 oktober 2009 @ 12:59:
[...]


En bij de GTX295 is wel af te leiden dat het om een dual GPU kaart gaat?

De naamgeving is nu gebaseerd op performance. Er zijn genoeg mensen die dachten dat een HD4890 sneller was dan een HD4870X2 ondanks dat er X2 achter de ene kaart stond en dat kwam puur en alleen omdat de ene kaart een 90 had en de ander een 70. 90 is toch immers hoger (en dus sneller) dan 70?

Er komt veel meer bij kijken bij de naamgeving. Ik kan me goed voorstellen dat iemand die dit topic niet volgt, uitgaat dat een hoger modelnummer ook sneller betekent. NV had dat goed begrepen met de GTX295. Het maakt voor de meeste mensen ook niet uit of het een dual GPU kaart is of niet. Het gaat ze om performance en dan zal het ze worst wezen hoe die performance bereikt wordt.

Kijk hier op het forum is iedereen kritisch en heeft altijd wel wat te zeuren (dat is inherent aan forums), maar kijk ook verder dan technische sites. Jan modaal komt niet op dit soort sites. Die gaan naar de winkel en vragen om de snelste kaart. Een verkoper heeft dan veel minder moeite om te verkopen dat een HD5970 sneller is dan een eventueel toekomstige HD5890, dan wanneer het HD5870X2 had geheten.
Klopt. Alleen ik vind het gerucht over de 5950 op de FP wel hardnekkig: Dat de HD5870 Six nu HD5950 zou heten. Door de naam zou je zeggen dat deze sneller is. Maar het enige verschil is 6 DP aansluitingen voor meer monitoren.

5970 kan ik prima mee leven. Wel een beetje jammer van de clock speeds (mits die ook final worden). Ik had liever gezien dat die 5950 zou heten. Maar goed het is geen ramp. Maar 2x HD5870 in CF zal dus sneller zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Anoniem: 196662 schreef op donderdag 29 oktober 2009 @ 12:22:
Jouw objectiviteit hebben we al gezien Naluh!.

Meeste tweakers reageren zo omdat we 8800GTX'n kochten aan €1200 voor een paar. Of een 6800ultra voor €650.
Snelste graka op de wereld gaat van €300 naar €320? Nobody cares en zeker niet omdat je in alle sectoren kan zien dat prijzen terug stijgen. Iets wat momenteel vrij positief is na 2jaar vele ontslagrondes.
Wat waren de begin prijzen van de 4870x2 en de Radeon X1900 XTX ?

Acties:
  • 0 Henk 'm!

  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

5970 kan ik prima mee leven. Wel een beetje jammer van de clock speeds (mits die ook final worden). Ik had liever gezien dat die 5950 zou heten. Maar goed het is geen ramp. Maar 2x HD5870 in CF zal dus sneller zijn.
Zal wel in lijn met de temps liggen, dat ze niet dezelfde clockspeeds kunnen komen.
Ik neem aan dat 2 GPU's meer warmte afgeven. :+

Acties:
  • 0 Henk 'm!

  • kluyze
  • Registratie: Augustus 2004
  • Niet online
Astennu schreef op donderdag 29 oktober 2009 @ 13:11:
[...]
Ik had liever gezien dat die 5950 zou heten. Maar goed het is geen ramp. Maar 2x HD5870 in CF zal dus sneller zijn.
Maar 2 5850's zouden trager moeten zijn, die heeft dezelfde klok maar minder stream processors dus 5950 zou eigenlijk ook geen goede naam zijn. Misschien 5960 8)7 met de optie om later nog steeds een volwaardige 5870x2 als 5970 te kunnen verkopen.

Het is waar dat voor de gemiddelde gebruiker op deze ronde bol het voornamelijk de nummertjes zijn die het hem doen. Maar nu ga je weer mogen opletten. Ik bv wil liever de snelste single gpu oplossing. Dan ga ik eerst mogen zoeken tussen de 59x0 reeks om te zien welke kaart nu wel of niet een multi-gpu kaart is. Niet zo veel werk maar toch weer wat extra. Voor mij telt het wel hoe die kaart aan die performantie komt. En daar waren de oudere namen wel beter op gericht. Maar in de ogen van AMD is het natuurlijk beter om je meer te richten op de meerdereheid dan naar de mindere tweakers te kijken.

Acties:
  • 0 Henk 'm!

Anoniem: 196662

Anoniem: 304087 schreef op donderdag 29 oktober 2009 @ 13:19:
[...]


Wat waren de begin prijzen van de 4870x2 (€400) en de Radeon X1900 XTX (€500) ?
Kan je makkelijk in de pricewatch opzoeken weet je...

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 304087 schreef op donderdag 29 oktober 2009 @ 13:19:
[...]


Wat waren de begin prijzen van de 4870x2 en de Radeon X1900 XTX ?
2009: HD5870: $379 (€329-€349)
2008: HD4870X2: $549 (€449-€499)
2008: HD4870: $299 (€279)
2007: HD3870: $219
2007: HD2900XT: $399
2006: X1950XTX: $449 (€399)
2006: X1900XTX: $649 (€649)
2005: X1800XT: $549
2004: X850XT PE: $549
2003: 9800XT: $499
2002: 9700Pro: $399

We hebben nu dus voor €50 (HD4670) de performance van een videokaart die in 2006 voor $649 (X1900XTX) werd gelanceerd.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dat bedoel ik. Die prijzen zijn ook niet mals en vergelijk baar met de gtx295 en 8800gtx

Ontopic
Nu de grote hamvraag. Is de pcie 2.0 16x nu geen lichte bottlenek voor de 5970.
Er gaat namelijk best veel rekenkracht door dat smalle straatje

Acties:
  • 0 Henk 'm!

Anoniem: 134818

4 lanes is al voldoende voor een hit van 5% met een enkele HD5870, i daubt it dus. Want hij communiceert nog via zijn PLX chip.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
BoRRel82 schreef op donderdag 29 oktober 2009 @ 13:20:
[...]

Zal wel in lijn met de temps liggen, dat ze niet dezelfde clockspeeds kunnen komen.
Ik neem aan dat 2 GPU's meer warmte afgeven. :+
Dit is het denk ik ook ja. HD5870 heeft piek een hoger verbruik dan een HD4890. Die al weer hoger zat dan een HD4870. Dus ik kan me voorstellen dat dat moeilijk te coolen wordt als je twee van die chips op die clocks cool moet houden. Een HD5850 zit qua piek verbruik meer op HD4870 levels. Dus dit zal wel de rede zijn. In de toekomst kunnen die clocks misschien wel omhoog als de yields beter worden of als er misschien een soort van RV890 chip komt die wat hogere clocks mogelijk maakt.
Anoniem: 304087 schreef op donderdag 29 oktober 2009 @ 13:46:
Dat bedoel ik. Die prijzen zijn ook niet mals en vergelijk baar met de gtx295 en 8800gtx

Ontopic
Nu de grote hamvraag. Is de pcie 2.0 16x nu geen lichte bottlenek voor de 5970.
Er gaat namelijk best veel rekenkracht door dat smalle straatje
Mja dan heb je het over de oudere kaarten. De nVidia kaarten zoals de GF88xx, GTX280/GTX285 en de GTX295 zitten @launch aanzienlijk hoger dan de ATi kaarten. Ze hebben die prijs onder druk van concurrentie naar beneden gedaan. En ATi launched zonder concurrentie al voor redelijke prijzen. Wellicht wel hoger dan als nVidia wel een DX11 kaart had gehad. Maar het had veel erger kunnen zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 304087 schreef op donderdag 29 oktober 2009 @ 13:46:
Dat bedoel ik. Die prijzen zijn ook niet mals en vergelijk baar met de gtx295 en 8800gtx
De 8800GTX koste 600+ euro bij intro. Dat is wel wat anders dan 450+. De GTX295 was een reactie kaart(als in hij was later dan de HD4870X2), dus die moest wel een lagere intro prijs hebben(relatief, anders kan hij niet concurreren. Geld ook voor de HD2900 en de HD3870). De GTX 280 kwam ook met een intro prijs van 600+ euro.

2009: HD5870: $379 (€329-€349)
2008: GTX 295:$... (€499)
2008: HD4870X2: $549 (€449-€499)
2008: HD4870: $299 (€279)
2008: GTX 280:$650(€600)
2007: HD3870: $219
2007: HD2900XT: $399
2006: 8800GTX: $650


Vergelijkbaar? Ja het zijn allebei euro's. Zit er nog een redelijk verschil tussen? Ja. Betalen Ultra Enthousiasts en Early adopters altijd veel? Ja.

Oudere kaarten vergelijken is op dit moment gewoon zinloos. Dat was voor ATI zijn strategie (moest) aanpaste.

[ Voor 5% gewijzigd door Anoniem: 134818 op 29-10-2009 14:07 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Ik snap dat hele gezeur over prijzen niet. Vroeger kocht ik een X800Pro maanden na lancering in een 'aanbieding' voor 199 euro. Nu koop je voor dat geld een 2e hands HD4870 X2 die relatief gezien veel hoger is gepositioneerd in de gehele markt. Reken ook het effect van inflatie mee en je bouwt nu voor 1500 een belachelijke high-end PC. Anno 2004 was je dat bedrag al kwijt wilde je een beetje leuk games spelen en dan had je nog niks speciaals. :P

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

Conclusie; ze zijn altijd te duur :9 :9 :o Maar gezien het feit dat de productie technologie ook niet heeft stil gestaan kunnen de kaartjes wat goedkoper worden aangeboden. Al ben ik wel bang dat die 5970 € 550 gaat kosten.. :X

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

CJ schreef op donderdag 29 oktober 2009 @ 12:59:
[...]


De naamgeving is nu gebaseerd op performance.
O ja?

HD5950 en HD5870 zijn toch hetzelfde? Je kan alleen meer monitoren op de HD5950 aansluiten. Noem het ding dan gewoon HD5870EE (Eyfinity Edition) ofzo. Of gewoon HD5870SIX. :?

Ik vind dat de namen té dicht op elkaar liggen op de 1 of andere manier. 5850/5870/5950/5970 vind ik persoonlijk gewoon niet duidelijk.

Ze kunnen die dual kaart ook geen HD5870X2 noemen, omdat die veel lager geklokt is dan een HD5870. Ook kan HD5850X2 niet omdat de chips op de dual kaart meer streamprocessors hebben dan een HD5850. Hij zou eigenlijk HD5860X2 moeten heten. :P Of gewoon HD5870X2.

5950 doet suggereren dat het heel iets anders is dan een HD5870, terwijl dat qua performance niet zo is.

En HD5970 doet gewoon vermoeden dat het om een single chip gaat om de een of andere manier. Ik weet het niet. Ik zou het niet zo gedaan hebben.

-En nVidia laat ik buiten beschouwing, want daar heb ik het niet over.


Edit; ik begin me ook af te vragen of die HD5970 wel zo populair gaat worden als de HD4870X2. Dit omdat die clocks zo laag zijn. Een hoop enthousiasts zullen denk ik liever 2 HD5870's in CF zetten. Bijkomende ellende; als je triple CF wil draaien gaat je HD5870 @ 850/1200 ook nog op 725/1000 draaien. :S

[ Voor 15% gewijzigd door Format-C op 29-10-2009 14:34 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Jullie moeten hier eens meer gamen en gebruik maken van die kaarten ipv er zoveel woorden aan vuil te maken :+

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

peakaboo schreef op donderdag 29 oktober 2009 @ 14:26:
Jullie moeten hier eens meer gamen en gebruik maken van die kaarten ipv er zoveel woorden aan vuil te maken :+
LOL.

Gooi alle fora dan maar dicht. _O-

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

peakaboo schreef op donderdag 29 oktober 2009 @ 14:26:
Jullie moeten hier eens meer gamen en gebruik maken van die kaarten ipv er zoveel woorden aan vuil te maken :+
Hallo, anders heb ik op mijn werk niets te doen :D

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

RappieRappie schreef op donderdag 29 oktober 2009 @ 14:20:
[...]

O ja?

HD5950 en HD5870 zijn toch hetzelfde? Je kan alleen meer monitoren op de HD5950 aansluiten. Noem het ding dan gewoon HD5870 EE (Eyfinity Edition) ofzo. :?

Ik vind dat de namen té dicht op elkaar liggen op de 1 of andere manier. 5850/5870/5950/5970 vind ik persoonlijk gewoon niet duidelijk.

Ze kunnen die dual kaart ook geen HD5870X2 noemen, omdat die veel lager geklokt is dan een HD5870. Ook kan HD5850X2 niet omdat de chips op de dual kaart meer streamprocessors hebben dan een HD5850. Hij zou eigenlijk HD5860X2 moeten heten. :P Of gewoon HD5870X2.
Ik vond de HD5970 nog niet eens zo'n slechte naam, gezien het feit dat het noch een dubbele HD5870 noch een HD5850 is. Wel jammer dat AMD deze serie dan direct verwaterd door de Eyefinity Six ook in de HD5900 serie te gooien.

Wat wil HD5900 dan precies zeggen? De kaarten met de hoogste prijzen? Had die Eyefinity Six dan gewoon HD5870 Six genoemd, wel zo duidelijk. Kunnen ze later ook nog een HD5970 Six of een triple slot HD5870 Twelve maken :P

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
RappieRappie schreef op donderdag 29 oktober 2009 @ 14:20:
[...]

O ja?

HD5950 en HD5870 zijn toch hetzelfde? Je kan alleen meer monitoren op de HD5950 aansluiten. Noem het ding dan gewoon HD5870 EE (Eyfinity Edition) ofzo. :?
Je gaat uit van naamgeving uit geruchten voor de HD5950? Ik zou gewoon wachten tot de echte namen officieel bekend zijn ipv me druk te maken om speculatie. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

CJ schreef op donderdag 29 oktober 2009 @ 14:37:
[...]


Je gaat uit van naamgeving uit geruchten voor de HD5950? Ik zou gewoon wachten tot de echte namen officieel bekend zijn ipv me druk te maken om speculatie. ;)
Mogelijke Conclusie: De Six word geen HD5950 :P

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Geen woorden en conclusies in m'n mond stoppen AUB. Anders post ik hier helemaal niks meer.... heb geen zin om straks allemaal kwade telefoontjes te krijgen. Je weet hoe dat hier online gaat. Voor je het weet staat het op een ander internationaal groot forum dat ik iets gedaan/gezegd heb, terwijl dat niet zo is. En daar heb ik zeker nu op dit moment echt geen zin in. Wat ik post is gewoon een logische gedachtengang. Niets meer, niets minder.

[ Voor 54% gewijzigd door CJ op 29-10-2009 14:46 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Je hoeft niets meer te zeggen.

Ik weet genoeg. ;) Ik beloof geen conclusies te trekken. :+

[ Voor 52% gewijzigd door Format-C op 29-10-2009 14:48 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Nou dat bedoel ik dus, minder lullen en meer gamen nu en lekker wachten op de officiele bekendmaking en dan kijken we wel weer verder :W

Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 19-06 08:01

TGEN

Hmmmx_

RappieRappie schreef op donderdag 29 oktober 2009 @ 14:47:
Ik weet genoeg. ;) Ik beloof geen conclusies te trekken. :+
Contradictio in terminis ;).

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Anoniem: 134818 schreef op donderdag 29 oktober 2009 @ 14:31:
[...]

Hallo, anders heb ik op mijn werk niets te doen :D
Op je werk moet je werken ouwe!

Acties:
  • 0 Henk 'm!

Anoniem: 134818

peakaboo schreef op donderdag 29 oktober 2009 @ 14:56:
[...]


Op je werk moet je werken ouwe!
Doe ik ook :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 134818 schreef op donderdag 29 oktober 2009 @ 14:40:
[...]


Mogelijke Conclusie: De Six word geen HD5950 :P
De kaart met 6 displayport aansluitingen zal nooit alleen HD5950 gaan heten zonder toevoeging van iets van Six of Six Edition, dat zou namelijk veel te onduidelijk zijn. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

peakaboo schreef op donderdag 29 oktober 2009 @ 14:54:
Nou dat bedoel ik dus, minder lullen en meer gamen nu en lekker wachten op de officiele bekendmaking en dan kijken we wel weer verder :W
Strak plan. :)

[ Voor 72% gewijzigd door Format-C op 29-10-2009 15:41 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Ik sluit me bij CJ aan. Gewoon even afwachten. Hetzelfde met de clocks van hemlock. 125 MHz lager is namelijk wel behoorlijk wat. Wellicht valt het mee en zitten de clocks toch op 800 Mhz of zo.

Hetzelfde met de naamgeving. Niets is nog 100% zeker.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 323633

ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Dit is gewoon niet de strategie die AMD volgt. Juist door de huidige strategie is AMD in staat om de highend kaarten veel goedkoper aan te bieden. Ze kunnen nu immers een kleinere chip maken, die gemakkelijker te ontwerpen is, waarbij door het kleinere oppervlak ook minder kans is op fouten. Als AMD nog steeds grote monolitische chips zou maken (zoals nVidia nu nog doet), reken er dan maar op dat je nog steeds de hoofdprijs zou betalen.

Voorlopig (if ever) zal AMD niet terug gaan naar monolitische chips.
Wel kan het natuurlijk zo zijn dat er ergens rond maart 2010 een geupdate versie van de HD5870 komt die nog wat meer gestroomlijnt is en daardoor wat sneller (net zoals met de HD4890).

The Flying Dutchman


Acties:
  • 0 Henk 'm!

Anoniem: 323633

ja hoor ik heb nu 10x gepost en 0x is iemand het met me eens .. dit forum is gewoon degene met de hoogste postcounts heeft gelijk... over 10 jaar wanneer ik dus volwassen ben en slim dan laat ik zien hoe het anders kan

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Vind ik eigenlijk ook.
Niks mis met dual chips te ontwikkelen, maar niet volgens die toch wat lompe AFR methode met hoge pieken en diepere dalen in framerate. (en de helft van je geheugen niet effectief te gebruiken, micro-stuttering , matige schaling af en toe, hele snelle CPU nodig waar dat bij een snelle single kaart nooit een issue is..)

Ik hoop ook dat ATI of Nvidia de volgende generatie met wat anders komt, shared memory en GPU's die samen werken voor dezelfde frame en niet elk hun eigen frames berekenen.

edit: Mask; Dus als je het niet onvoorwaardelijk eens bent met de strategie van ATI kun je niet nadenken? ;)

[ Voor 5% gewijzigd door anathema op 29-10-2009 17:49 ]

anathema


Acties:
  • 0 Henk 'm!

Anoniem: 323633

oke 1 iemand dan

Acties:
  • 0 Henk 'm!

Anoniem: 126513

Wel heeft de professionele wereld en haar software goed gewerkt en doet dat nu nog steeds met multi GPU setups.
Dus het blijkt toch grotendeels een software issue.

Die prijzen zijn toch zeer acceptabel zonder directe concurrentie, ik had ook liever een HD5850 onder de 200 euro gezien, maar ze zijn het helaas wel waard.
Sterker nog, AMD concurreert meteen op haar eigen voorgaande kaarten met de HD5750 en de HD5770, een soort van HD4xxx performance kaartjes met DX11 (Tesselation!!!), eigenlijk zelfs iets beter, zonder DX11 meegerekend. Dit is natuurlijk ook voor MS Windows 7, en ik verwacht de budget serie eigenlijk ook best snel, en is voor OEM misschien al in de circulatie. De HD4770 en de HD4890 waren toch nog niet zo oud dacht ik zo, en die zijn nu eigenlijk al vervangen.

edit:
Nou ja, als je naar de laatste verhalen van de concurrent gaat kijken, vanaf kuchk.. de G80, mooie GPU wel, maar sommige dingen...

Nog iets over AMD's strategie, kleiner vierkantje, dit gaat zeker weer fluctueren, let maar op, maar was het niet zo dat de concurrent, nog één op dit moment, 2 grote GPU's bij elkaar moest gooien, om de 2 kleine GPU oplossing van de deze speler te verslaan in de high end, ik denk dat nVidia liever de GTX295 gelaten zou hebben als de HD4870X2 niet zo goed had uitgepakt.

oja, nog een nieuwe Folding@Home GPU3 client, GPU_15 op komst.
http://folding.typepad.co...otomol-and-gpu3-core.html

[ Voor 30% gewijzigd door Anoniem: 126513 op 29-10-2009 17:52 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Zo gaat dat niet in zijn werk voor meer reken kracht.
Het zijn niet alen ghz-en maar ook het aantal shader units en al die poes pas
wat ik zelf ook allemaal niet snap. Om die snelheid en rekenkracht te krijgen
waar jij het over hebt is niet op te lossen op kaarten van deze tijd daar voor worden
de kaarten te duur en te groot. Wat wel kan zijn weer totaal andere chips enzv.
Tot nu toe zit je gewoon nog vast aan cfx of 2 gpu's op één kaart.

Snap het dan dat het mischien wel helemaal onmogelijk is hoe jij het graag wil zien

[ Voor 4% gewijzigd door Anoniem: 304087 op 29-10-2009 17:52 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Het lijkt me duidelijk dat je probeert te zeggen dat je op de HD5890 (RV890?) gaat wachten. Ik denk echter dat het gros al lang blij is met een kleinere, zuinigere, koelere, goedkopere chip die nog steeds praktisch alles op max kan draaien met fatsoenlijke fps.

Verder, wat de naamgeving betreft. 'Uit betrouwbare bron vernomen' stelt over het algemeen niet al te veel voor en is over het algemeen niet meer dan een pageview-zinnetje. Als we alles wat Fuad 'uit betrouwbare bron' had vernomen ook daadwerkelijk waarheid hadden zien worden, dan was de wereld ondertussen overspoeld met goedkope Fermi-kaarten en moeten we 600+ euro betalen voor een HD5870, om maar even een paar dingen te noemen.

De HD5970 voor een dual-gpu oplossing vind ik persoonlijk helemaal geen verkeerde keuze verder. De namen zijn namelijk toch niets meer of minder dan marketing voor de massa. Hier weet men wel welke core(s) erachter schuilen, wat hun kloksnelheden zijn, hoeveel shader-units die heeft etc etc etc. De gewone consument wil echter gewoon het hoogste getalletje dat zijn portomonnee toelaat.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:20:
ja hoor ik heb nu 10x gepost en 0x is iemand het met me eens .. dit forum is gewoon degene met de hoogste postcounts heeft gelijk... over 10 jaar wanneer ik dus volwassen ben en slim dan laat ik zien hoe het anders kan
Nee daar heeft het in dit geval niet mee te maken. nVidia en ATi waren 2 jaar terug beide met hetzelfde bezig. Zo'n snel mogelijke chip maken. Waardoor ze extreem groot werden. Daarbij kreeg je hoge kosten doordat de chips groot waren. Ze ook erg warm werden waardoor je dus goede cooling nodig had. AMD stond er na de HD2900 XT niet goed voor. Dus het is in dit geval maar goed dat ze het roer omgegooid hebben.

Wat ze gedaan hebben is de HD2900 XT als basis gepakt. Het ontwerp getweaked waardoor het veel kleiner kon. Toen ook nog de boel op een nieuw productie proces laten maken namelijk 55nm ipv 80nm. Hierdoor werd alles nog een stuk kleiner. Toen hebben ze er ook nog wat extra features in gestopt zoals DX10.1 en een betere UVD. En toen had je de HD3870.

Een kaart die net zo goed presteerde als de HD2900 XT. Met meer features. Die veel minder stroom verbruikte en veel goedkoper te maken was. Dus tegen een aantrekkelijkere prijs aangeboden kon worden.

En twee van deze chips samen konden het beste van nVidia op dat moment had (de 8800 Ultra) Verslaan. (dit was de HD3870 X2). En dat voor dezelfde als niet een lagere prijs.

Dus wat wil je nog meer ? hier door kunnen ze de concurrentie gewoon een stapje voor blijven. En daardoor betalen wij nu relatief weinig voor hele snelle kaarten. Als de HD4870 (de door ontwikkeling van de 3870) er niet was geweest hadden wij lang 450-550 euro moeten betalen voor de GTX280.

Misschien is het niet stoer. (al vind ik twee chips op een kaart stoerder dan een groten maar dat is een mening. Niet dat het iets uit maakt :P uiteindelijk gaat het om prijs/prestatie/watt) Maar het werkt wel en heeft veel teweeg gebracht in de vga markt. Ik ben ook benieuwd of nVidia nu dingen aan zijn strategie verandert heeft. Maar daar komen we pas bij de volgende generatie nVidia kaarten achter.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Dat is precies wat nVidia aan het doen is en kijk wat het resultaat is. Geen DX11 hardware bij de Windows 7 launch en pas leverbaar ergens volgende jaar. En als ie leverbaar is is het nog maar de vraag hoe goed ie leverbaar is (yields op 40nm...) en wat je ervoor mag betalen.

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-06 20:13

RuddyMysterious

a smorgasbord of waywardness

Ik vind het vrij logisch dat DAAMIT (;)) gaat voor een ontwerp dat best geschikt is voor de mid tot high-end markt, en dat ze de top-end markt bedienen, niet door hun top-end ontwerp te castreren zoals nVidia dat tot nu toe altijd al gedaan heeft, maar door verschillende high-end chips samen te proppen en hopen dat het softwarematig in orde komt, wat het meestal wel doet.

Dus, aan ubertweakotine, dat je liever top-end ontwerpen ziet is pech, want ATI stemt zijn ontwerpen blijkbaar af op een economisch gezien minder risicovol model, en keert de rollen om van top-end en mid/high-end. Gezien het feit dat het met ATI momenteel beter gaat dan met nVidia kan ik alleen maar hun keuze beamen, voor zover hun succes, en het ongeluk van nVidia, voortkomt uit die ontwerpbeslissingen natuurlijk.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Astennu schreef op donderdag 29 oktober 2009 @ 18:11:
[...]

Ik ben ook benieuwd of nVidia nu dingen aan zijn strategie verandert heeft. Maar daar komen we pas bij de volgende generatie nVidia kaarten achter.
Toch kleven er echt wat wat nadelen aan de AFR crossfire (en SLI), die ik net heb benoemd, maar ook bijvoorbeeld CJ wel heeft aangehaald in de vergelijking HD5870-4870X2 bijvoorbeeld. Daar wordt toch wel heel erg over heen gepraat hier, maar is wel een reden dat de grote monolitische GPU's van nvidia bestaansrecht hebben wat mij betreft.
Als die er niet waren had ik wellicht een HD5770 in crossfire gezet, nu ben ik veel blijer met mn HD5870.

anathema


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De ubergrote megachip met superpower mag dan wel als een oplossing klinken, maar kijk dan eens naar de GT200. Dat is zo'n grote chip en nog gooien mensen er 2 van in SLI, om maar meer performance te krijgen. Je kunt dus gemakkelijk stellen dat een single-chip oplossing nooit en te nimmer genoeg power kan leveren om de eeuwige dorst van sommige mensen te lessen.

In een dergelijk geval is het wellicht dus (en zo heeft mogen blijken met zowel HD4k alswel de HD5k en in iets mindere mate de HD3k) verstandiger om voor een kleinere chip te gaan, die wel genoeg power kan leveren voor het gros van de mensen, maar niet onevenredig groot/duur is om dit te bewerkstelligen.

In ieder geval durft ik de weddenschap wel aan te gaan dat, al had AMD/ATI de HD5870 gemaakt met een chip die even groot is als de GT300/GT200, met veel meer shader-units en grotere geheugenbus dan de huidige, dat er nog altijd mensen zouden zijn die er 2 van willen hebben om net die paar extra frames uit die ene game/benchmark te kunnen persen

Acties:
  • 0 Henk 'm!

Anoniem: 264799

Ik weet niet hoe je een chip zo groot als de gt200 gaat koelen, maar stil zal het niet zijn op lucht. De gt200 is toch zo groot omdat hij ook cuda, PhysX en nog wat dingen kan en anders werkt dan de 5870? Het is ook niet zo een game optimised chip zoals de AMD dat is geloof ik.
Ik vind de 5870 vrijwel 2x 4870 als ik de specs en performance zie. (kijk naar de temperatuur en de performance, powerusage) Dat de chip physiek niet veel groter is geworden dankzij de overgang naar 40nm maakt toch geen klap uit? Het is een grote chip imo, alleen niet absoluut en natuurlijk niet groot genoeg voor sommige mensen.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 00:08
Schaamteloos gejat van xtremesystems:
China successfully developed "Milky Way One" Supercomputer

Afbeeldingslocatie: http://i301.photobucket.com/albums/nn79/zalbard/radeon.jpg
Equipped with 6,144 Intel CPUs and 5,120 AMD GPUs

[ Voor 7% gewijzigd door Blastpe op 29-10-2009 21:57 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
http://alienbabeltech.com/main/?p=12606
Our source who wishes to be known as DJ (kind of ironic that Nvidia leaks come for a source named .....
_/-\o_


edit
foto's deleted ;oud nieuws

[ Voor 211% gewijzigd door Bullus op 29-10-2009 23:15 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 21:01

Edmin

Crew Council

get on my horse!

(kind of ironic that Nvidia leaks come for a source named CJ!)
ROFL de POFL

Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 23:00

Apoca

Array Technology Industry

Vraag me af of CJ wel zo blij is om overal op het i-net zijn naam te zien :/

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024

ATi 5770 Bottleneck Investigation

Afbeeldingslocatie: http://alienbabeltech.com/main/wp-content/uploads/2009/10/Text1.png
Afbeeldingslocatie: http://alienbabeltech.com/main/wp-content/uploads/2009/10/Graph1.png

Conclusion

The results generated today seem to disprove the commonly accepted idea that the 5770 is primarily held back by memory bandwidth. In actual fact ATi seems to have equipped the card with enough bandwidth to make it a reasonably balanced part overall.

Also based on the results generated today, if you’re trying to get more performance from your 5770, you should clock the core as high possible.
http://alienbabeltech.com/main/?p=12474&page=3

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
AMD has moved a number of DirectX 9 ATI Radeon graphics accelerators products to a legacy driver support structure. This change impacts Windows XP, Windows Vista, and Linux distributions. AMD has moved to a legacy software support structure for these graphics accelerator products in an effort to better focus development resources on future products. The following products have been moved to the legacy software support structure (including Mobile and All-in-Wonder Variants):

ATI Radeon 9500 Series
ATI Radeon 9550 Series
ATI Radeon 9600 Series
ATI Radeon 9700 Series
ATI Radeon 9800 Series
ATI Radeon X300 Series
ATI Radeon X550 Series
ATI Radeon X600 Series
ATI Radeon X700 Series
ATI Radeon X800 Series
ATI Radeon X850 Series
ATI Radeon X1050 Series
ATI Radeon X1300 Series
ATI Radeon X1550 Series
ATI Radeon X1600 Series
ATI Radeon X1650 Series
ATI Radeon X1800 Series
ATI Radeon X1900 Series
ATI Radeon Xpress Series
ATI Radeon X1200 Series
ATI Radeon X1250 Series
ATI Radeon X2100 Series

Note: AMD’s DirectX 9 ATI Radeon graphics accelerators are not officially supported under Windows 7. If the user chooses to, they can install the ATI Catalyst Windows Vista graphics driver under Windows 7. Please be aware that none of the new Windows 7 graphics driver (WDDM 1.1) features are supported (as the Windows Vista level graphics driver is limited to WDDM 1.0 level support). Using the ATI Catalyst Windows Vista driver under Windows 7 is not officially supported by AMD, and as such AMD will not provide any form of customer support for users running in this configuration

Any customers using a combination of a ATI Radeon HD 2000 Series, ATI Radeon HD 3000 Series, or ATI Radeon HD 4000 Series product with any of the legacy products listed above in a single PC system must use the ATI Catalyst 9.3 or earlier driver. All future ATI Catalyst releases made available past the ATI Catalyst 9.3 release will not include support for the legacy products listed above or any of the features associated with those legacy products.

AMD may periodically provide Windows XP and Windows Vista driver updates (for the products listed above) for critical fixes only. No new features will be provided in future driver updates. The Linux ATI Catalyst driver will only be supported in Linux distributions prior to February 2009 for the legacy products listed above.
http://www.ngohq.com/news...rectx-9-radeon-cards.html

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 20-06 12:51

Splinter Cell

Glasvezel MASTER RACE

Nog even terugkomend op die Hemlock benchmark:
—-Editor’s Note: These benchmarks of an unreleased engineering sample have been removed at AMD’s request and are not at all representative of final hardware’s performance. AMD was quick to let ABT know that the board, the drivers and the BIOS are not finalized. Also, please note that according to AMD, the following leaked pictures are not the final card as this is an engineering sample.

-Mark Poppin
Duidelijk dus.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
anathema schreef op donderdag 29 oktober 2009 @ 18:34:
[...]

Toch kleven er echt wat wat nadelen aan de AFR crossfire (en SLI), die ik net heb benoemd, maar ook bijvoorbeeld CJ wel heeft aangehaald in de vergelijking HD5870-4870X2 bijvoorbeeld. Daar wordt toch wel heel erg over heen gepraat hier, maar is wel een reden dat de grote monolitische GPU's van nvidia bestaansrecht hebben wat mij betreft.
Als die er niet waren had ik wellicht een HD5770 in crossfire gezet, nu ben ik veel blijer met mn HD5870.
Je hoort mij ook niet zeggen dat die grote cores geen bestaans recht hebben. Maar dat de manier die AMD nu gebruikt wel erg flexiebel is. Tuurlijk zijn CF en SLI niet perfect maar als het werkt is een HD4870 X2 toch wel een stukje (8-10%) sneller dan de 5870. Niet slecht in mijn ogen.
Daar was ik ook al achter. Core overclocking schaalt veel beter. En blijft een boost geven. Hier is iets anders aan de hand. Misschien hetzelfde als bij de HD58x0. Wat ik eerder ook al eens gezegd heb: Het zou me niets verbazen als we er met drivers 10-20% performance bij gaan krijgen. Waar de HD48xx deze boosts in het verleden al gehad heeft.

[ Voor 31% gewijzigd door Astennu op 30-10-2009 00:43 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 58485

Astennu schreef op vrijdag 30 oktober 2009 @ 00:40:
[...]


Je hoort mij ook niet zeggen dat die grote cores geen bestaans recht hebben. Maar dat de manier die AMD nu gebruikt wel erg flexiebel is. Tuurlijk zijn CF en SLI niet perfect maar als het werkt is een HD4870 X2 toch wel een stukje (8-10%) sneller dan de 5870. Niet slecht in mijn ogen.
Grote cores hebben ook nadelen. Die zullen ongetwijfeld wel geroepen zijn. De aanschaf van een X2 kan prima, mits jij vind dat je ook die perfomance nodig hebt. Er zijn ook high-end single-chip kaarten van Ati op de markt op dit moment die al retesnel zijn.

En als het economisch gezien nu voordeliger is om 2 chips op 1 PCB te plakken dan is er toch niets aan de hand? Nvidia heeft zichzelf enigzins in de enorme kosten gestoken, door extreem complexe chips te gaan bouwen, terwijl het een tikkie eenvoudiger kan.

Overigens de Radeon HD 5970, betekend dus dat dit de final opvolger is (De "X2") en er geen nog snellere serie van de 5xxx series zal komen?

Acties:
  • 0 Henk 'm!

  • masterchi
  • Registratie: Juli 2007
  • Laatst online: 22-06-2023
De oorzaak dat de 5870 in de regel minder presteerd dan de 4870x2 hoeft niet alleen aan de drivers te liggen. Het kan zijn dat het parallelisme binnen een enkele frame te laag is om de 1600 shader units efficient genoeg te benutten. Rasterized graphics is een van de meest parallelle applicaties, maar aan alles zit een limiet. Wanneer men dichter bij de limieten van het parallelisme komt gaat de schaalbaarheid en daarmee de efficientie omlaag. Dit is ook te zien met normale processoren. Er zitten altijd verplichte synchronizatie punten en meer execution units geeft gewoon relatief meer overhead. Verder zitten er altijd sequentiele stukken in het algoritme.

Bij een X2 variant wordt gebruik gemaakt van AFR welke dus op twee frames tegelijk werkt. Dit betekent dus maximaal 2x het parallelisme. Echter AFR heeft weer zijn nadelen dat (correct me if i am wrong) er verschillen in complexiteit tussen opvolgende frames de efficientie doet inzakken. De workload op de gpus is niet gelijk.

Kortom 1600 shaders aan een frame laten werken is altijd minder efficient dan 800. Wanneer het efficientie verschil te groot wordt zal de 4870x2 sneller zijn. Dat is in de meeste spellen nu het geval. Echter spellen worden steeds shader intensiever waardoor er meer parallel werk is binnen een frame. Dus ik verwacht dat in toekomstige spellen de 5870 weer sneller zal zijn.

Verder speelt ook natuurlijk het verschil in geheugen bandbreedte een rol, maar dat streep ik voor het gemak maar even weg tegen het core clock verschil.

[ Voor 4% gewijzigd door masterchi op 30-10-2009 01:18 . Reden: type fouten ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Anoniem: 58485 schreef op vrijdag 30 oktober 2009 @ 00:52:
[...]


Grote cores hebben ook nadelen. Die zullen ongetwijfeld wel geroepen zijn. De aanschaf van een X2 kan prima, mits jij vind dat je ook die perfomance nodig hebt. Er zijn ook high-end single-chip kaarten van Ati op de markt op dit moment die al retesnel zijn.

En als het economisch gezien nu voordeliger is om 2 chips op 1 PCB te plakken dan is er toch niets aan de hand? Nvidia heeft zichzelf enigzins in de enorme kosten gestoken, door extreem complexe chips te gaan bouwen, terwijl het een tikkie eenvoudiger kan.

Overigens de Radeon HD 5970, betekend dus dat dit de final opvolger is (De "X2") en er geen nog snellere serie van de 5xxx series zal komen?
Hoeft niet er is nog ruimte voor een HD5890 en HD5990. Dus het kan best dat er nog wat snellers komt. Maar het kan ook zijn dat een Dubbele RV870 op 850 MHz de max gaat worden. Of misschien zelfs lagere clocks. Zie ook de HD4870 X2 wat de snelste kaart is gebleven uit de HD4xxx serie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
masterchi schreef op vrijdag 30 oktober 2009 @ 01:08:
De oorzaak dat de 5870 in de regel minder presteerd dan de 4870x2 hoeft niet alleen aan de drivers te liggen. Het kan zijn dat het parallelisme binnen een enkele frame te laag is om de 1600 shader units efficient genoeg te benutten. Rasterized graphics is een van de meest parallelle applicaties, maar aan alles zit een limiet. Wanneer men dichter bij de limieten van het parallelisme komt gaat de schaalbaarheid en daarmee de efficientie omlaag. Dit is ook te zien met normale processoren. Er zitten altijd verplichte synchronizatie punten en meer execution units geeft gewoon relatief meer overhead. Verder zitten er altijd sequentiele stukken in het algoritme.

Bij een X2 variant wordt gebruik gemaakt van AFR welke dus op twee frames tegelijk werkt. Dit betekent dus maximaal 2x het parallelisme. Echter AFR heeft weer zijn nadelen dat (correct me if i am wrong) er verschillen in complexiteit tussen opvolgende frames de efficientie doet inzakken. De workload op de gpus is niet gelijk.

Kortom 1600 shaders aan een frame laten werken is altijd minder efficient dan 800. Wanneer het efficientie verschil te groot wordt zal de 4870x2 sneller zijn. Dat is in de meeste spellen nu het geval. Echter spellen worden steeds shader intensiever waardoor er meer parallel werk is binnen een frame. Dus ik verwacht dat in toekomstige spellen de 5870 weer sneller zal zijn.

Verder speelt ook natuurlijk het verschil in geheugen bandbreedte een rol, maar dat streep ik voor het gemak maar even weg tegen het core clock verschil.
Op zich klopt je redenatie wel ongeveer denk ik, maar ik denk niet dat de 1600 shaders niet gevuld kunnen worden met een enkele frame van miljoenen pixels. Dus voordat de grens optreed die jij beschrijft zullen we nog wel wat meer shaders nodig hebben. Ik kan me niet voorstellen dat 800 vs 1600 shaders dit verschil veroorzaakt.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
edit: nvm

[ Voor 97% gewijzigd door spNk op 30-10-2009 09:43 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-06 20:13

RuddyMysterious

a smorgasbord of waywardness

The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 08:42:
Op zich klopt je redenatie wel ongeveer denk ik, maar ik denk niet dat de 1600 shaders niet gevuld kunnen worden met een enkele frame van miljoenen pixels. Dus voordat de grens optreed die jij beschrijft zullen we nog wel wat meer shaders nodig hebben. Ik kan me niet voorstellen dat 800 vs 1600 shaders dit verschil veroorzaakt.
Kan je dat onderbuikgevoel baseren op ervaringen of kennis? Want zoniet, dan ziet het er niet echt naar uit dat mensen je op je woord moeten geloven. ;)

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Sja neem daarbij dat hoe slechter de optimalisatie is, hoe minder stream processors van de stream processing unit werk.

Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ati/4800/ilp.png

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
DevilsProphet schreef op vrijdag 30 oktober 2009 @ 09:45:
[...]

Kan je dat onderbuikgevoel baseren op ervaringen of kennis? Want zoniet, dan ziet het er niet echt naar uit dat mensen je op je woord moeten geloven. ;)
Ik kan wel een voorbeeldje geven waaruit blijkt dat het onwaarschijnlijk is dat de 1600 cores niet aan het werk zijn omdat er teveel parrallelisatie is.

Op een HD5870 bestaan 320 shaderunits met ieder 5 streamcores (oftewel 320 x 5 = 1600 cores). Één zo'n shaderunit can dus een aantal instructies tegelijk uitvoeren omdat er meerdere streamcores in een shaderunit zitten (dit is al zo sinds de HD2xxx zover ik weet, en om alle cores aan het werk te zetten moet je in een shader programma dan ook proberen gebruik te maken van al die cores).

Een operatie waarbij je een een kleurvector (rgba) vermenigvuldigt met een bepaalde floating point variabele (dit is een veelvoorkomende operatie in een shader programma), dan moeten er 4 vermenigvuldigingen plaatvinden (iedere kleurcomponent moet met de floating point waarde worden vermenigvuldigt om de nieuwe vector te berekenen). Op deze manier kun je al 4 van de 5 streamcores aan het werk zetten.

Normaal gesproken gebeurt er nog veel meer in een shader programma, zo'n programma kan gemakkelijk uit honderden instructies bestaan. Het is de programmeur zijn taak om ervoor te zorgen het programma zo goed mogelijk parallel geschreven is zodat de 5 streamcores aan het werk kunnen blijven, maar dit was ook al zo bij de HD2xxx, HD3xxx en de HD4xxx. Dus wat dat betreft is er geen verschil (behalve dan dat het met de HD5xxx iets eenvoudiger is geworden om parallelle code te schrijven omdat de 4 eenvoudige streamcores een aantal meer verschillende operaties kunnen uitvoeren die voorheen alleen door de 5e streamcore gedaan kon worden).

Ok... er zijn dus 320 shaderunits (met 5 streamcores) die elk aan het rekenen zijn voor één pixeltje (simpel gezegd). Dus, voor iedere pixel wordt (over het algemeen meerdere keren) een shader programma uitgevoerd. Welk shaderprogramma dat precies is, hangt van het materiaal af dat je aan het renderen bent, of het post-processing effect dat je aan het berekenen bent bijvoorbeeld. Dit is om even een beeld te krijgen van de schaalgrootte: stel je hebt een resolutie van 1680x1050 en voor iedere pixel moet 4 keer een shader programma draaien (is niet onredelijk, voor AAA games is dit waarschijnlijk nog veel meer). Dan heb je dus 1680x1050x4 ~= 7 miljoen runs van shader programma's in één frame. Dit moet verdeelt worden over 320 shader units...

Bedenk daarbij dat het zo is dat als je in je programma tegen de gpu zegt:
`render op coordinaat x,y een vierkantje van 10x10 pixels'
Dat de rest van de gpu op dat moment niet uit zijn neus staat te vreten tot die 100 pixels gerenderd zijn. Commando's die van de cpu naar de gpu gegeven worden zijn meestal `non-blocking', wat betekend dat je gelijk een nieuwe opdracht kunt geven zonder dat je hoeft te wachten tot de vorige opdracht klaar is (dus je kunt ook gelijk de opdracht geven om ergens anders op het scherm een stukje van 10x10 pixels te renderen).

Kortom... aangezien het aantal shader programma's dat moet draaien in de ordegrootte van miljoen ligt, en het aantal shader programma's die tegelijkertijd uitgevoerd kunnen worden (als in: dat er daadwerkelijk dingen berekend worden) bij de HD4870 gelijk is aan 160 en bij de HD5870 gelijk is aan 320, denk ik dat het nogal onwaarschijnlijk is dat de mate van parallellisatie een bottleneck is voor de HD5870.

bronnen:
ATI_Radeon_HD_2000_programming_guide.pdf
AnandTech: AMD's Radeon HD5870

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • masterchi
  • Registratie: Juli 2007
  • Laatst online: 22-06-2023
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 10:23:
[...]
Ok... er zijn dus 320 shaderunits (met 5 streamcores) die elk aan het rekenen zijn voor één pixeltje (simpel gezegd). Dus, voor iedere pixel wordt (over het algemeen meerdere keren) een shader programma uitgevoerd. Welk shaderprogramma dat precies is, hangt van het materiaal af dat je aan het renderen bent, of het post-processing effect dat je aan het berekenen bent bijvoorbeeld. Dit is om even een beeld te krijgen van de schaalgrootte: stel je hebt een resolutie van 1680x1050 en voor iedere pixel moet 4 keer een shader programma draaien (is niet onredelijk, voor AAA games is dit waarschijnlijk nog veel meer). Dan heb je dus 1680x1050x4 ~= 7 miljoen runs van shader programma's in één frame. Dit moet verdeelt worden over 320 shader units...
Eigenlijk kan je de RV870 beter vergelijken met een 20-core processor ipv 320. Er is een thread command processor die op dit niveau de 20 cores van de GPU aanstuurt. Ik denk dat er inderdaad wel genoeg werk is om 20-cores te gebruiken. Maar het feit blijft dat er 2x zo weinig werk is per core. De overhead daarentegen blijft hetzelfde in vorm van bijvoorbeeld shader programma's inladen. Ook moeten er nu 20 cores aangestuurd worden dus de thread command processor(of hoe dat ding ook heet) heeft meer te doen en dit stuk is sequentieel.

Verder als die er 4 shader programmas op een pixel moet opereren binnen een frame zal dat wel in een sequentiele volgorde moeten. Als het in verschillende volgorde gaat gebeuren krijg je corrupte output. Dus het parallisme gaat niet omhoog wanneer er meer shading per pixel moet worden gedaan.

Ook is de pixel shading stap niet de enige stap in de graphics pipeline. Andere stappen zijn bijvoorbeeld vertex shading, geometry shading, rasterization, texturemapping en clipping. De stappen in de pipeline gebeuren achter elkaar. Ik ben geen expert van wat er in deze stappen moet gebeuren, maar het is redelijk om te denken dat niet alle stappen in graphics pipeline even parallel zijn. Dus gemiddeld zal er een lagere speedup zijn dan pixel shading bijvoorbeeld. Ik hoop dat iemand hier licht op kan schijnen. Ik heb wel een vakje Computer Graphics gevolgd, maar ik weet niet welke stappen er op de GPU gebeuren en welke op de CPU. Bijvoorbeeld iets als polygon sorting om te bepalen welke objecten zichtbaar zijn, is een redelijk sequentiele actie.

Als laatste ga je niet een pixel of vertex per keer sturen om te shaden naar een (van de 20) cores, maar stuur je een group van 1024 of iets dergelijks. Je wilt je batch sizes zo groot mogelijk houden om opstart overhead zo klein mogelijk te houden. Hierdoor zal het praktische parallelisme een groot stuk lager zijn. Vaak zie je dat bij lage resoluties een graphics kaart niet helemaal tot zijn recht komt. Dat heeft niet alleen te maken met de CPU bottleneck.

Maar nogmaals ik ben geen expert op gebied van graphics. Mijn achtergrond ligt meer in parallel programming en computer architecture. Ik wil alleen aangeven dat het aantal shader units verdubbelen in de vorm van welke we zien in rv670->rv770->rv870 een zelfde soort actie is als het aantal cores in een CPU verdubbelen. Eens houdt het nut er van op en hoe dichter we tegen de practische limieten lopen meer efficientie verlies er is. Volgens mij was de rv770 ook niet 2.5 keer zo snel als de rv670. Meer in de buurt van 2. Een nog mooier voorbeeld is dat een hd5850 op clocks van hd5870 niet 10% langzamer is, maar meer in de buurt van enkele procenten. (geen bron, maar had het ergens gelezen)

[ Voor 10% gewijzigd door masterchi op 30-10-2009 12:40 . Reden: extra eind stuk ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
_/-\o_ *O* Toch iemand die mijn testje waardeerd
Bullus schreef op vrijdag 23 oktober 2009 @ 16:36:
Hardware
Settings
Render: direct3d11
Mode: 1680x1050 4xAA fullscreen
Shaders: high
Textures: high
Filter: trilinear
Anisotropy: 16x
Occlusion: enabled
Refraction: enabled
Volumetric: enabled
MSI 5850 @ 725/1000
Heaven Demo v1.0
FPS: 25.7
Scores: 646


Met OC 850/1200 @5870 clocks
Heaven Demo v1.0
FPS: 30.1 = -3.6% tov 5870
Scores: 758


Met OC 950/1200
Heaven Demo v1.0
FPS: 31.9
Scores: 803


Met OC 950/1200 + DX10
Heaven Demo v1.0
FPS: 49.5 = + 55% tov DX11
Scores: 1248
Settings
Render: direct3d10
Mode: 1680x1050 4xAA fullscreen
Shaders: high
Textures: high
Filter: trilinear
Anisotropy: 16x
Occlusion: enabled
Refraction: enabled
Volumetric: enabled


Volgens mijn testje zal de 5970 maar 3.6 % sneller zijn als een 5850 (wel als single gpu bekeken en volgens dit testje), oftewel langzamer zijn als een stock 5870.Maar ATI zal wel wat verzinnen dat de 5970 sneller of even snel zal zijn als een dual cfx 5870. Kijkend naar het verleden;2x3870/3870X2, 2x4870/4870X2.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
masterchi schreef op vrijdag 30 oktober 2009 @ 12:29:
[...]


Eigenlijk kan je de RV870 beter vergelijken met een 20-core processor ipv 320. Er is een thread command processor die op dit niveau de 20 cores van de GPU aanstuurt. Ik denk dat er inderdaad wel genoeg werk is om 20-cores te gebruiken. Maar het feit blijft dat er 2x zo weinig werk is per core. De overhead daarentegen blijft hetzelfde in vorm van bijvoorbeeld shader programma's inladen. Ook moeten er nu 20 cores aangestuurd worden dus de thread command processor(of hoe dat ding ook heet) heeft meer te doen en dit stuk is sequentieel.
Daarom is de thread dispatcher ook verbeterd als ik me het artikel van Anandtech goed herinner (zie bron vermeld in eerdere post). Ga er maar vanuit dat dit soort zaken ook allemaal aangepakt zijn, anders kan je inderdaad met een bottleneck komen te zitten (het is al een tijd geleden dat ik dat artikel van Anand heb gelezen, maar daar wordt heel uitvoerig besproken welke zaken verbeterd zijn). AMD begrijpt wel dat als je het aantal shader units verdubbelt, dat je er dan wel voor moet zorgen dat die shader units het werk snel genoeg aangeleverd moeten krijgen.
Verder als die er 4 shader programmas op een pixel moet opereren binnen een frame zal dat wel in een sequentiele volgorde moeten. Als het in verschillende volgorde gaat gebeuren krijg je corrupte output. Dus het parallisme gaat niet omhoog wanneer er meer shading per pixel moet worden gedaan.
Dat klopt natuurlijk, maar de gpu hoeft niet te wachten tot pixel B klaar is met pass 1 voordat hij kan beginnen met pass 2 op pixel A (die pass 1 al eerder voltooid had). Deels heb je hier als programmeur ook een verantwoordelijkheid.
Ook is de pixel shading stap niet de enige stap in de graphics pipeline. Andere stappen zijn bijvoorbeeld vertex shading, geometry shading, rasterization, texturemapping en clipping. De stappen in de pipeline gebeuren achter elkaar. Ik ben geen expert van wat er in deze stappen moet gebeuren, maar het is redelijk om te denken dat niet alle stappen in graphics pipeline even parallel zijn.
Het uitvoeren van deze stappen is inderdaad sequentieel in plaats van parallel. Overigens kost de pixel shading stap over het algemeen wel de meeste rekenkracht van alle stappen. Ga maar eens na:

vertex shading: misscchien 100.000 polygonen in een frame?
geometry shading: doe je op die 100.000 polygonen (of een gedeelte ervan)
fragment shading: doe je op alle pixels op het scherm (~1.7 miljoen bij 1680x1050) en vaak zijn deze programma's ook nog eens de meest complexe omdat je hier lichteffecten toe gaat voegen, etc. (naar schatting is een gemiddelde fragment shader zeker 10x zo complex als een gemiddelde vertex/geometry shader). Vergeet daarnaast niet dat je waarschijnlijk overhead hebt: polygon A wordt gerenderd, de fragment shader wordt toegepast op de pixels van polygon A, maar vervolgens komt er een polygon B die polygon A geheel bedekt, al het werk voor niets! Hhier zijn technieken voor om dit zoveel mogelijk te voorkomen, want dit is verschrikkelijk duur: je kunt een early z-pass doen, dit betekend alle polygonen naar de gpu sturen en het enige wat je doet is de z-buffer vullen. Vervolgens stuur je alle polygonen nogmaals naar de gpu, de z-buffer zorgt er nu voor dat alle pixels die niet zichtbaar zijn ook niet naar de fragment shader gestuurd worden (let op: het is dus goedkoper om alle polygonen twee keer naar de gpu te sturen om zo die overhead te voorkomen! Dit geeft wel aan hoeveel tijd er gemiddeld in een fragment shader gaat zitten denk ik).

Vervolgens ga je vaak nog allerlei post-processing effecten toepassen (out-of-focus blur, haze, druppels op de camera, bedenk het maar zo gek...) die ook allemaal per pixel zijn.
Dus gemiddeld zal er een lagere speedup zijn dan pixel shading bijvoorbeeld. Ik hoop dat iemand hier licht op kan schijnen. Ik heb wel een vakje Computer Graphics gevolgd, maar ik weet niet welke stappen er op de GPU gebeuren en welke op de CPU. Bijvoorbeeld iets als polygon sorting om te bepalen welke objecten zichtbaar zijn, is een redelijk sequentiele actie.
Ik heb een vak advanced computer graphics gevolgd en als hobby ben ik bezig met het programmeren in OpenGL en programmeer ik ook gpgpu dingen. Polygon sorting wordt niet gedaan op de gpu. De gpu is een dom ding die alles gewoon naar het scherm knalt. Er is echter een z-buffer op de gpu, in die z-buffer wordt de z waarde van de dichtsbijzijnde pixel onthouden. De rasterizer zorgt er vervolgens voor dat als een pixel/fragment een z-waarde heeft verder weg ligt dan de huidige dichtstbijzijnde pixel/fragment, niet gerenderd wordt. Daarom zie je toch altijd het juiste object vooraan terwijl de volgorde waarin polygonen gerenderd worden willekeurig is (en daarom kun je dus een techniek toepassen als early-z-pass). Een geoptimaliseerd programma sorteerd (meestal op object niveau) op de cpu, of eventueel met gpgpu technieken (dit zal meer en meer met OpenCL/DirectX compute gedaan gaan worden waarschijnlijk) (dat sorteren wordt gedaan om dubbel werk voor de gpu zoveel mogelijk te voorkomen... iets wat je niet ziet wil je liever gewoon niet renderen, dus als je een object dat dichtbij is eerst rendert, dan zal z-culling er in ieder geval voor zorgen dat achterliggende pixels gewoon overgeslagen worden). Wil je iets renderen wat doorzichtig is, dan is (weliswaar afhankelijk van de methode waarmee je de kleuren blend) de volgorde van polygonen wél van belang (je wilt de achterste polygon pixel eerst renderen, dan de op één na achterste, enz.). Anders komt de transparency niet realistisch over.
Als laatste ga je niet een pixel of vertex per keer sturen om te shaden naar een (van de 20) cores, maar stuur je een group van 1024 of iets dergelijks. Je wilt je batch sizes zo groot mogelijk houden om opstart overhead zo klein mogelijk te houden. Hierdoor zal het praktische parallelisme een groot stuk lager zijn. Vaak zie je dat bij lage resoluties een graphics kaart niet helemaal tot zijn recht komt. Dat heeft niet alleen te maken met de CPU bottleneck.
Dat zeg ik toch ook niet? Maar dan nog... ook al bevinden al je objecten zich in één grote batch (ideaal, hoef je niet op die langzame processor te wachten!), dan zal de gpu (de thread dispatcher waarschijnlijk) al die objecten verdelen over de beschikbare shader units om:

vertex shading -> geometry shading -> tesselation -> rasterization -> fragment shading -> blending

te doen (kan zijn dat ik iets mis in de pipeline of de volgorde achteraan niet helemaal 100% klopt). Natuurlijk: als je maar één polygon hebt, dan kun je die maar aan één shader unit geven om de vertex shading te doen. Maar hoe vaak zal het nou voorkomen dat je slechts één polygon hebt? Tegenwoordig heb je eerder duizenden of tienduizenden polygonen in een scene (als het er geen 100.000 zijn).

Stel dat je een batch hebt met 10.000 polygonen, dan zal de thread dispatcher de polygonen over de 320 shader units verdelen. Vervolgens doen die vertex shading, en eventueel wordt er nog meer geometry gegenereerd in de geometry shader en de tesselator. Daarna zal de rasterizer er pixeltjes (of fragments als anti aliasing gebruikt wordt) van maken die allemaal via de thread-dispatcher weer hun weg vinden naar de shader units om de fragment shader stap uit te voeren.
Maar nogmaals ik ben geen expert op gebied van graphics. Mijn achtergrond ligt meer in parallel programming en computer architecture. Ik wil alleen aangeven dat het aantal shader units verdubbelen in de vorm van welke we zien in rv670->rv770->rv870 een zelfde soort actie is als het aantal cores in een CPU verdubbelen. Eens houdt het nut er van op en hoe dichter we tegen de practische limieten lopen meer efficientie verlies er is. Volgens mij was de rv770 ook niet 2.5 keer zo snel als de rv670. Meer in de buurt van 2. Een nog mooier voorbeeld is dat een hd5850 op clocks van hd5870 niet 10% langzamer is, maar meer in de buurt van enkele procenten. (geen bron, maar had het ergens gelezen)
Ik weet er hobbymatig (en gedeeltelijk ook vanuit mijn opleiding) redelijk veel van af denk ik. Maar ik zal mezelf ook geen expert noemen. Ik denk toch dat het even anders ligt dan bij een cpu. Natuurlijk is er ergens een limiet, maar rasterization is zo'n enorm parallel proces (voornamelijk door het grote aantal pixels en het grote aantal polygonen in een scene die je door de z-buffer in willekeurige volgorde kunt renderen) dat we nog lang niet aan die limieten zitten.

Ik denk dat je er vanuit kunt gaan dat een gpu in een typische game met veel gemak duizenden threads tegelijk kan gebruiken.
DevilsProphet schreef op vrijdag 30 oktober 2009 @ 09:45:
[...]

Kan je dat onderbuikgevoel baseren op ervaringen of kennis? Want zoniet, dan ziet het er niet echt naar uit dat mensen je op je woord moeten geloven. ;)
Ben je ondertussen overtuigd? ;)
Mijn `onderbuik' gevoel is voornamelijk gebasseerd op kennis van typische waarden in games (hoeveel polygonen heb je, hoeveel instructies kost het om een shader programma uit te voeren, hoe maak je lichteffecten en hoe creeër je post-processing effecten), daarnaast gebruik ik wat ik weet over de pipeline van de gpu (die kennis is niet 100%, maar wat ik weet komt in ieder geval wel aardig in de richting denk ik).

Zoals je ziet kost het een flinke lap tekst om dit alles te onderbouwen, vandaar dat ik in eerste instantie de zaak afgedaan had met een `ik denk niet dat het zo is'. ;)

[ Voor 5% gewijzigd door The Flying Dutchman op 30-10-2009 14:05 ]

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • masterchi
  • Registratie: Juli 2007
  • Laatst online: 22-06-2023
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 13:54:

Dat zeg ik toch ook niet? Maar dan nog... ook al bevinden al je objecten zich in één grote batch (ideaal, hoef je niet op die langzame processor te wachten!), dan zal de gpu (de thread dispatcher waarschijnlijk) al die objecten verdelen over de beschikbare shader units om:

vertex shading -> geometry shading -> tesselation -> rasterization -> fragment shading -> blending

te doen (kan zijn dat ik iets mis in de pipeline of de volgorde achteraan niet helemaal 100% klopt). Natuurlijk: als je maar één polygon hebt, dan kun je die maar aan één shader unit geven om de vertex shading te doen. Maar hoe vaak zal het nou voorkomen dat je slechts één polygon hebt? Tegenwoordig heb je eerder duizenden of tienduizenden polygonen in een scene (als het er geen 100.000 zijn).
Dat kwam anders over dan gepland. Ik wilde duidelijk maken dat er een verschil is tussen praktisch en theoretisch parrallelisme. En dat parrallelisme op verschillende niveaus moet worden wordt uitgebuit. Als je de vergelijking trekt met een CPU heb je instruction level en thread level parallelism. Dus hoeveel shader units je ook hebt een speed-up van een miljoen zul je niet zien. Ik met je eens dat de limieten van rasterized rendering nog niet bereikt zijn. Maar ook in dit geval zal de schaling niet 100% zijn. De uiteindelijke schaling hangt van veel factoren af.

Met mijn verhaal wilde ik een andere logischere hypothese geven over de beperkte performance winst van de rv870 tegenover rv770. Er werd veel gesuggereerd dat de drivers de enige oorzaak waren. Ik weet ook niet precies wat er in de drivers geoptimaliseerd kan worden. Ik was van de veronderstelling dat de shader programma's beter gecompiled worden met nieuwe driver revisies zodat de simd core beter benut is. In dit geval zal er weinig winst nog te boeken zijn omdat de simd basis vrijwel hetzelfde is. Wellicht worden de directx calls beter gescheduling door de thread dispatcher beter aan te sturen. Ik wilde het niet de drivers de schuld geven, omdat ik simpelweg niet precies weet wat daar aan de hand is.

Het kan natuurlijk aan heel veel dingen liggen. Overal in het systeem zitten sequentiele stukken. Het kunnen de drivers, de games, thread dispatcher, cpu, pciexpress latency, videomemory latency, joins van de GPU threads etc.. Het is lastig om precies te zeggen wat nu de bottleneck is.Maar als je kijkt naar de benchmarks van de game Risen dan is die wel ongeveer 2x zo snel als een 4870. Daarom denk ik dat de GPU zelf niet genoeg benut kan worden.

http://www.pcgameshardwar...-Radeon-HD-5850/Practice/

Misschien kan ik je nog net geen expert noemen, maar je zit er duidelijk in. Misschien kan je een andere visie geven, die de huidige performance verhoudingen verklaard?

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
masterchi schreef op vrijdag 30 oktober 2009 @ 15:15:
[...]


Dat kwam anders over dan gepland. Ik wilde duidelijk maken dat er een verschil is tussen praktisch en theoretisch parrallelisme. En dat parrallelisme op verschillende niveaus moet worden wordt uitgebuit. Als je de vergelijking trekt met een CPU heb je instruction level en thread level parallelism. Dus hoeveel shader units je ook hebt een speed-up van een miljoen zul je niet zien. Ik met je eens dat de limieten van rasterized rendering nog niet bereikt zijn. Maar ook in dit geval zal de schaling niet 100% zijn. De uiteindelijke schaling hangt van veel factoren af.

Met mijn verhaal wilde ik een andere logischere hypothese geven over de beperkte performance winst van de rv870 tegenover rv770. Er werd veel gesuggereerd dat de drivers de enige oorzaak waren. Ik weet ook niet precies wat er in de drivers geoptimaliseerd kan worden. Ik was van de veronderstelling dat de shader programma's beter gecompiled worden met nieuwe driver revisies zodat de simd core beter benut is. In dit geval zal er weinig winst nog te boeken zijn omdat de simd basis vrijwel hetzelfde is. Wellicht worden de directx calls beter gescheduling door de thread dispatcher beter aan te sturen. Ik wilde het niet de drivers de schuld geven, omdat ik simpelweg niet precies weet wat daar aan de hand is.

Het kan natuurlijk aan heel veel dingen liggen. Overal in het systeem zitten sequentiele stukken. Het kunnen de drivers, de games, thread dispatcher, cpu, pciexpress latency, videomemory latency, joins van de GPU threads etc.. Het is lastig om precies te zeggen wat nu de bottleneck is.Maar als je kijkt naar de benchmarks van de game Risen dan is die wel ongeveer 2x zo snel als een 4870. Daarom denk ik dat de GPU zelf niet genoeg benut kan worden.

http://www.pcgameshardwar...-Radeon-HD-5850/Practice/

Misschien kan ik je nog net geen expert noemen, maar je zit er duidelijk in. Misschien kan je een andere visie geven, die de huidige performance verhoudingen verklaard?
Ik wil de drivers ook niet direct de schuld geven. We zien vaker dat mensen bij release van een kaart nog fikse verbeteringen verwachten in verband met driver updates. In de praktijk valt dit op korte termijn vaak tegen in mijn beleving. Natuurlijk heb je sommige games waar duidelijk iets mee aan de hand is (een grote performance drop oid) die snel gefixed worden. Maar verder laat AMD over het algemeen veel meer een langzaam stijgende lijn zien wat betreft performance verbeteringen in drivers (hoe vaak hebben we van AMD nou wonder drivers gezien vlak na de release van een nieuwe grafische kaart die op iedere game procenten winst boekten? Ik kan het me niet herinneren... wel zien we altijd een duidelijk verschil tussen release drivers en drivers van een jaar na release: een langzaam stijgende lijn dus).

Zelf heb ik me ook wel afgevraagd hoe het nou kan dat de HD5870 niet altijd even snel is als de HD4870X2. Misschien valt dit gedeeltelijk te verklaren met bij de HD4870X2 beide gpu's tegelijk data uit hun eigen memory pool kunnen halen, terwijl de HD5870 het moet doen met één blok geheugen (en dus effectief toch bandbreedte mist). Echter de resultaten die behaald worden met het overklokken van het geheugen van de HD5870, ondersteunen deze theorie ook niet direct voor zover ik begrepen heb (als bandbreedte het probleem was, dan zou overklokken van het geheugen ervoor moeten zorgen dat de kaart significant sneller wordt).

Om toch nog even terug te komen op de drivers... die drivers moeten ervoor zorgen dat de shader programma's omgezet worden in binaries die op de gpu draaien. Hoewel de shader units van de HD4870 en de HD5870 veel op elkaar lijken, kan het misschien toch wel zo zijn dat de drivers op dit gebied nog steekjes laten vallen. Of misschien zijn het niet de drivers, maar is het meer de game die geoptimaliseerd is voor de HD4870, maar niet voor de HD5870 (maar eerlijk gezegd denk ik dat een shader programma dat het goed doet op een HD4870 het ook gewoon goed zou moeten doen op een HD5870).

Het is dus nogal koffiedik kijken wat er nou eigenlijk aan de hand is... daarbij keek ik nog eens even naar het artikel van Anandtech en kwam ik het volgende tegen:
The second change to the texture units is to improve their interpolation speed by not doing interpolation. Interpolation has been moved to the SPs (this is part of DX11’s new Pull Model) which is much faster than having the texture unit do the job. The result is that a texture unit Cypress has a greater effective fillrate than one under RV770, and this will show up under synthetic tests in particular where the load-it and forget-it nature of the tests left RV770 interpolation bound.
Dit is interessant: bij de RV770 deden de texture units dus een taak die nu door de streamprocessors gedaan moet worden. Dit heeft als resultaat dat de texture units sneller hun werk kunnen doen, maar betekend dus ook dat de streamprocessors er een extra taak bij gekregen hebben ten opzichte van de RV770. Misschien is dit een richting waarin de verschillen gezocht moeten worden? Dit zou misschien kunnen betekenen dat bij games die heel veel texture fetches doen de performance van een HD5870 minder stijgt ten opzicht van een HD4870 dan je zou verwachten (aan de andere kant: bij de HD4870 was misschien de texture fetch zelf een bottleneck geweest bij dit soort games).

Verder lees je in het artikel van Anand toch terug dat vrijwel alles in de RV870 is verdubbelt ten opzichte van de RV770. Dus is het gewoon heel moeilijk om te zeggen hoe het verschil tussen HD5870 en HD4870X2 verklaard kan worden zonder precies te weten wat de voornaamste bottlenecks in de games waar het verschil optreed zijn.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Envy007
  • Registratie: Juni 2003
  • Laatst online: 28-11-2023
40nm problemen zijn terug bij TSMC, dit gaat AMD niet helpen om de kaarten in de winkels te krijgen.

http://www.digitimes.com/news/a20091030PD209.html
TSMC 40nm yield issues resurface, CEO promises fix by year-end

Taiwan Semiconductor Manufacturing Company (TSMC) has revealed it recently run into issues with its 40nm process technology impacting yields. Company chairman and CEO Morris Chang pledged the issue will be solved within the quarter.

TSMC said it has seen yield rates for its 40nm node drop to 40% due chamber matching issues. Main customers for TSMC's 40nm processes are GPU vendors AMD, which recently launched its new 40nm-based Radeon 5870 series, and Nvidia, who is scheduled to launch its 40nm-based GT300 series of chips in December, according to previous reports. TSMC's recent issues may impact the shipping schedules of the GPU vendors, market watchers commented.

During TSMC's July 2009 investors conference, Chang revealed that yield rates for 40nm processes had improved to 60%, up from as low as 20-30% in the second quarter of 2009.

In other news, TSMC has released its October 2009 investors report in which company CFO Lora Ho said, "Due to stronger demand for 40nm and 65nm technologies, TSMC 2009 capex has risen further and is expected to be around US$2.7 billion." Accordingly, TSMC's fourth-quarter capex may total around US$1.34 billion, up from US$971 million alloted in the third quarter and US$224 million in the second quarter.

TSMC revealed that 45/40nm accounted for 4% of the company's third-quarter revenues, compared to 1% in the first and second quarters. TSMC said it aims to push up the sales proportion to 10% by the end of 2009.
Geen idee wat 'chamber matching issues' zijn, maar het zou de oorzaak zijn.

Ben erg benieuwd waar AMD op dit moment zijn ontwerp voor de volgende generatie aan het testen is, GF of TSMC.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20:44
iemand al wat nieuws tegen gekomen over de lucid hydra chip? volgens anand's artikel zouden we veel meer horen over 30 dagen, en das inmiddels 37 dagen geleden....

be4n zo benieuwd wat dat ding kan toevoegen aan huidige cf/sli setups!

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
Als ik AMD was zou ik met het oog op de huidige problemen zo snel mogelijk zorgen dat ik die chips bij GF liet maken. Wie weet zien we in 2010 een kleine update van de RV870? Een RV890 gemaakt bij Global Foundries op het 32nm proces?

Vast niet, maar de gedacht is leuk ;).

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Nou nee vast niet inderdaad, RV870 is ontworpen voor het procede bij TSMC, Voordat ze 32 Nm bulk silicon op de rit hebben en AMD hun ontwerp aan heeft gepast zijn we misschien wel 1,5 jaar verder.

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
meljor schreef op vrijdag 30 oktober 2009 @ 16:30:
iemand al wat nieuws tegen gekomen over de lucid hydra chip? volgens anand's artikel zouden we veel meer horen over 30 dagen, en das inmiddels 37 dagen geleden....
-The_Mask- in "[Discussie] multi-core Intel's: Core 2 &..."

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 16:35:
Als ik AMD was zou ik met het oog op de huidige problemen zo snel mogelijk zorgen dat ik die chips bij GF liet maken. Wie weet zien we in 2010 een kleine update van de RV870? Een RV890 gemaakt bij Global Foundries op het 32nm proces?

Vast niet, maar de gedacht is leuk ;).
32nm Zou ik niet teveel op rekenen, maar als ik AMD was zou ik in het ontwikkelingsproces van een eventuele RV890 wel proberen om het design aan te passen aan de techniek van Global Foundries. Ik weet natuurlijk niet hoeveel inspanning dat gaat kosten, maar TSMC heeft inmiddels al een half jaar de tijd gehad om hun 40nm process op de rails te krijgen. Als het ze nu nog niet gelukt is verlies ik wel enigszins het vertrouwen in TSMC en waarschijnlijk AMD ook wel.

specs


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Depep schreef op vrijdag 30 oktober 2009 @ 18:07:
Ik weet natuurlijk niet hoeveel inspanning dat gaat kosten, maar TSMC heeft inmiddels al een half jaar de tijd gehad om hun 40nm process op de rails te krijgen.
Maak daar maar rustig een jaar van, aangezien de eerste 40nm kaarten eigenlijk al een half jaar eerder verwacht werden dan ze uiteindelijk op de markt kwamen. Het ziet er inderdaad niet erg goed uit voor TSMC's 40nm proces. De vraag is alleen of alle 40nm ontwerpen hier echt onder te lijden hebben, of dat bepaalde ontwerpen vatbaarder zijn dan anderen.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20:44
WEER vertraagd?? had het kunnen weten: het was ook veel te stil rondom deze chip.
behalve wat vage omschrijvingen en een enkele demo is er nog weinig te zien geweest van de lucid hydra....

jammer, jammer, jammerrrr

thanx for the link mask :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Is vooral driver gerelateerd en ze hebben de samenwerking nodig van ATI/AMD en nVidia om het werkend te krijgen en die (of één van de twee) schijnen niet echt heel happig te zijn. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
Depep schreef op vrijdag 30 oktober 2009 @ 18:07:
[...]


32nm Zou ik niet teveel op rekenen, maar als ik AMD was zou ik in het ontwikkelingsproces van een eventuele RV890 wel proberen om het design aan te passen aan de techniek van Global Foundries. Ik weet natuurlijk niet hoeveel inspanning dat gaat kosten, maar TSMC heeft inmiddels al een half jaar de tijd gehad om hun 40nm process op de rails te krijgen. Als het ze nu nog niet gelukt is verlies ik wel enigszins het vertrouwen in TSMC en waarschijnlijk AMD ook wel.
Maar zal Global Foundries wel half proces nodes (40nm, 28nm) maken? Of doen ze alleen de normale proces nodes (45nm, 32nm)? Omdat ik er even vanuit ging dat GF geen half proces nodes doet (misschien ook wel, ik weet het eigenlijk niet), moest de stap wel naar 32nm omdat 45nm een stap terug zou zijn.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Met in gedachte het toekomstige fusion, waarbij AMD gebruik wil maken van CPU-core en GPU-core op hetzelfde proces, is het geen vreemde aanname dat ze in ieder geval spoedig hun budget/igp gpu's al vast op 32nm zouden willen bakken, temeer omdat de eerste fusion-producten ook op dat proces gebakken gaan worden.

Het zou ook een verklarende reden kunnen zijn waarom de budget/igp producten van de 5k lijn pas volgend jaar worden uitgebracht, aangezien GF bijvoorbeeld vanaf dat moment 32nm-bulk zou moeten kunnen leveren.

Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Ik denk niet dat de chip ontwerpen al aangepast zijn op hun 32 Nm. Ze kunnen echter al wel vast aan de slag met de deal van ARM die ze gemaakt hebben. Ik denk niet dat chip sets de eerste producten zijn die ze zelf gaan produceren, dat ontwerp zit al veel langer in de pijplijn en die hebben een vrij lange levens cyclus. Maar misschien heeft het onlangs bekend gemaakte uitstel wel te maken met deze overgang en zullen die wel het eerste eigen product op mass sillicon zijn

(EDIT) Het is dus maar de vraag of de SB 8xx serie van begin af aan ontworpen is voor 32 Nm. Tenminste, het lijkt me dat net als met GPU's je geen hele node kunt verkleinen met het zelfde ontwerp.

[ Voor 28% gewijzigd door Hekking op 31-10-2009 10:13 ]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

Anoniem: 304087

-The_Mask- schreef op vrijdag 30 oktober 2009 @ 19:26:
[...]

Is vooral driver gerelateerd en ze hebben de samenwerking nodig van ATI/AMD en nVidia om het werkend te krijgen en die (of één van de twee) schijnen niet echt heel happig te zijn. ;)
Ook logies van ati/nv
Ik denk persoonlijk dat het niets word met deze chip vanwege de drivers en ati/nv
Ook zal de performance altijd minder zijn dan 2 dezelfde kaarten lijkt mij

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20:44
natuurlijk presteren 2 dezelfde kaarten altijd beter, het gaat er juist om dat het mooi is als je een andere kaart KAN combineren. bovendien beloven ze bijna 100% schaling en dit haal je bijna nooit met sli en cf, dus ook niet met 2 dezelfde kaarten.

jij hebt dus 2x 5870: die schijnen met de lucid chip dus nog sneller te worden.

meest belangrijke lijkt me eigenlijk nog de haalbare minimum frames. mooi voorbeeld is 4870 in cf, die zijn vaak sneller dan 1x 5870, maar qua minimum frames heel vaak juist langzamer. ben benieuwd hoe dat gaat met een Lucid chip.....

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 15:54:
[...]
Om toch nog even terug te komen op de drivers... die drivers moeten ervoor zorgen dat de shader programma's omgezet worden in binaries die op de gpu draaien. Hoewel de shader units van de HD4870 en de HD5870 veel op elkaar lijken, kan het misschien toch wel zo zijn dat de drivers op dit gebied nog steekjes laten vallen. Of misschien zijn het niet de drivers, maar is het meer de game die geoptimaliseerd is voor de HD4870, maar niet voor de HD5870 (maar eerlijk gezegd denk ik dat een shader programma dat het goed doet op een HD4870 het ook gewoon goed zou moeten doen op een HD5870).
De rv870 mist ook een aantal instructies tov de rv770. De integerperformance is wel verhoogd maar hedendaagse games maken daar weinig gebruik van.

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 18-06 15:24

Ultraman

Moderator Harde Waren

Boefje

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 7 8 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!