Acties:
  • 0 Henk 'm!

Anoniem: 134818

4 lanes is al voldoende voor een hit van 5% met een enkele HD5870, i daubt it dus. Want hij communiceert nog via zijn PLX chip.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
BoRRel82 schreef op donderdag 29 oktober 2009 @ 13:20:
[...]

Zal wel in lijn met de temps liggen, dat ze niet dezelfde clockspeeds kunnen komen.
Ik neem aan dat 2 GPU's meer warmte afgeven. :+
Dit is het denk ik ook ja. HD5870 heeft piek een hoger verbruik dan een HD4890. Die al weer hoger zat dan een HD4870. Dus ik kan me voorstellen dat dat moeilijk te coolen wordt als je twee van die chips op die clocks cool moet houden. Een HD5850 zit qua piek verbruik meer op HD4870 levels. Dus dit zal wel de rede zijn. In de toekomst kunnen die clocks misschien wel omhoog als de yields beter worden of als er misschien een soort van RV890 chip komt die wat hogere clocks mogelijk maakt.
Anoniem: 304087 schreef op donderdag 29 oktober 2009 @ 13:46:
Dat bedoel ik. Die prijzen zijn ook niet mals en vergelijk baar met de gtx295 en 8800gtx

Ontopic
Nu de grote hamvraag. Is de pcie 2.0 16x nu geen lichte bottlenek voor de 5970.
Er gaat namelijk best veel rekenkracht door dat smalle straatje
Mja dan heb je het over de oudere kaarten. De nVidia kaarten zoals de GF88xx, GTX280/GTX285 en de GTX295 zitten @launch aanzienlijk hoger dan de ATi kaarten. Ze hebben die prijs onder druk van concurrentie naar beneden gedaan. En ATi launched zonder concurrentie al voor redelijke prijzen. Wellicht wel hoger dan als nVidia wel een DX11 kaart had gehad. Maar het had veel erger kunnen zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 304087 schreef op donderdag 29 oktober 2009 @ 13:46:
Dat bedoel ik. Die prijzen zijn ook niet mals en vergelijk baar met de gtx295 en 8800gtx
De 8800GTX koste 600+ euro bij intro. Dat is wel wat anders dan 450+. De GTX295 was een reactie kaart(als in hij was later dan de HD4870X2), dus die moest wel een lagere intro prijs hebben(relatief, anders kan hij niet concurreren. Geld ook voor de HD2900 en de HD3870). De GTX 280 kwam ook met een intro prijs van 600+ euro.

2009: HD5870: $379 (€329-€349)
2008: GTX 295:$... (€499)
2008: HD4870X2: $549 (€449-€499)
2008: HD4870: $299 (€279)
2008: GTX 280:$650(€600)
2007: HD3870: $219
2007: HD2900XT: $399
2006: 8800GTX: $650


Vergelijkbaar? Ja het zijn allebei euro's. Zit er nog een redelijk verschil tussen? Ja. Betalen Ultra Enthousiasts en Early adopters altijd veel? Ja.

Oudere kaarten vergelijken is op dit moment gewoon zinloos. Dat was voor ATI zijn strategie (moest) aanpaste.

[ Voor 5% gewijzigd door Anoniem: 134818 op 29-10-2009 14:07 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Ik snap dat hele gezeur over prijzen niet. Vroeger kocht ik een X800Pro maanden na lancering in een 'aanbieding' voor 199 euro. Nu koop je voor dat geld een 2e hands HD4870 X2 die relatief gezien veel hoger is gepositioneerd in de gehele markt. Reken ook het effect van inflatie mee en je bouwt nu voor 1500 een belachelijke high-end PC. Anno 2004 was je dat bedrag al kwijt wilde je een beetje leuk games spelen en dan had je nog niks speciaals. :P

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

Conclusie; ze zijn altijd te duur :9 :9 :o Maar gezien het feit dat de productie technologie ook niet heeft stil gestaan kunnen de kaartjes wat goedkoper worden aangeboden. Al ben ik wel bang dat die 5970 € 550 gaat kosten.. :X

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

CJ schreef op donderdag 29 oktober 2009 @ 12:59:
[...]


De naamgeving is nu gebaseerd op performance.
O ja?

HD5950 en HD5870 zijn toch hetzelfde? Je kan alleen meer monitoren op de HD5950 aansluiten. Noem het ding dan gewoon HD5870EE (Eyfinity Edition) ofzo. Of gewoon HD5870SIX. :?

Ik vind dat de namen té dicht op elkaar liggen op de 1 of andere manier. 5850/5870/5950/5970 vind ik persoonlijk gewoon niet duidelijk.

Ze kunnen die dual kaart ook geen HD5870X2 noemen, omdat die veel lager geklokt is dan een HD5870. Ook kan HD5850X2 niet omdat de chips op de dual kaart meer streamprocessors hebben dan een HD5850. Hij zou eigenlijk HD5860X2 moeten heten. :P Of gewoon HD5870X2.

5950 doet suggereren dat het heel iets anders is dan een HD5870, terwijl dat qua performance niet zo is.

En HD5970 doet gewoon vermoeden dat het om een single chip gaat om de een of andere manier. Ik weet het niet. Ik zou het niet zo gedaan hebben.

-En nVidia laat ik buiten beschouwing, want daar heb ik het niet over.


Edit; ik begin me ook af te vragen of die HD5970 wel zo populair gaat worden als de HD4870X2. Dit omdat die clocks zo laag zijn. Een hoop enthousiasts zullen denk ik liever 2 HD5870's in CF zetten. Bijkomende ellende; als je triple CF wil draaien gaat je HD5870 @ 850/1200 ook nog op 725/1000 draaien. :S

[ Voor 15% gewijzigd door Format-C op 29-10-2009 14:34 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Jullie moeten hier eens meer gamen en gebruik maken van die kaarten ipv er zoveel woorden aan vuil te maken :+

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

peakaboo schreef op donderdag 29 oktober 2009 @ 14:26:
Jullie moeten hier eens meer gamen en gebruik maken van die kaarten ipv er zoveel woorden aan vuil te maken :+
LOL.

Gooi alle fora dan maar dicht. _O-

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

peakaboo schreef op donderdag 29 oktober 2009 @ 14:26:
Jullie moeten hier eens meer gamen en gebruik maken van die kaarten ipv er zoveel woorden aan vuil te maken :+
Hallo, anders heb ik op mijn werk niets te doen :D

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

RappieRappie schreef op donderdag 29 oktober 2009 @ 14:20:
[...]

O ja?

HD5950 en HD5870 zijn toch hetzelfde? Je kan alleen meer monitoren op de HD5950 aansluiten. Noem het ding dan gewoon HD5870 EE (Eyfinity Edition) ofzo. :?

Ik vind dat de namen té dicht op elkaar liggen op de 1 of andere manier. 5850/5870/5950/5970 vind ik persoonlijk gewoon niet duidelijk.

Ze kunnen die dual kaart ook geen HD5870X2 noemen, omdat die veel lager geklokt is dan een HD5870. Ook kan HD5850X2 niet omdat de chips op de dual kaart meer streamprocessors hebben dan een HD5850. Hij zou eigenlijk HD5860X2 moeten heten. :P Of gewoon HD5870X2.
Ik vond de HD5970 nog niet eens zo'n slechte naam, gezien het feit dat het noch een dubbele HD5870 noch een HD5850 is. Wel jammer dat AMD deze serie dan direct verwaterd door de Eyefinity Six ook in de HD5900 serie te gooien.

Wat wil HD5900 dan precies zeggen? De kaarten met de hoogste prijzen? Had die Eyefinity Six dan gewoon HD5870 Six genoemd, wel zo duidelijk. Kunnen ze later ook nog een HD5970 Six of een triple slot HD5870 Twelve maken :P

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
RappieRappie schreef op donderdag 29 oktober 2009 @ 14:20:
[...]

O ja?

HD5950 en HD5870 zijn toch hetzelfde? Je kan alleen meer monitoren op de HD5950 aansluiten. Noem het ding dan gewoon HD5870 EE (Eyfinity Edition) ofzo. :?
Je gaat uit van naamgeving uit geruchten voor de HD5950? Ik zou gewoon wachten tot de echte namen officieel bekend zijn ipv me druk te maken om speculatie. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

CJ schreef op donderdag 29 oktober 2009 @ 14:37:
[...]


Je gaat uit van naamgeving uit geruchten voor de HD5950? Ik zou gewoon wachten tot de echte namen officieel bekend zijn ipv me druk te maken om speculatie. ;)
Mogelijke Conclusie: De Six word geen HD5950 :P

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Geen woorden en conclusies in m'n mond stoppen AUB. Anders post ik hier helemaal niks meer.... heb geen zin om straks allemaal kwade telefoontjes te krijgen. Je weet hoe dat hier online gaat. Voor je het weet staat het op een ander internationaal groot forum dat ik iets gedaan/gezegd heb, terwijl dat niet zo is. En daar heb ik zeker nu op dit moment echt geen zin in. Wat ik post is gewoon een logische gedachtengang. Niets meer, niets minder.

[ Voor 54% gewijzigd door CJ op 29-10-2009 14:46 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Je hoeft niets meer te zeggen.

Ik weet genoeg. ;) Ik beloof geen conclusies te trekken. :+

[ Voor 52% gewijzigd door Format-C op 29-10-2009 14:48 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Nou dat bedoel ik dus, minder lullen en meer gamen nu en lekker wachten op de officiele bekendmaking en dan kijken we wel weer verder :W

Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 15:22

TGEN

Hmmmx_

RappieRappie schreef op donderdag 29 oktober 2009 @ 14:47:
Ik weet genoeg. ;) Ik beloof geen conclusies te trekken. :+
Contradictio in terminis ;).

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Anoniem: 134818 schreef op donderdag 29 oktober 2009 @ 14:31:
[...]

Hallo, anders heb ik op mijn werk niets te doen :D
Op je werk moet je werken ouwe!

Acties:
  • 0 Henk 'm!

Anoniem: 134818

peakaboo schreef op donderdag 29 oktober 2009 @ 14:56:
[...]


Op je werk moet je werken ouwe!
Doe ik ook :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 134818 schreef op donderdag 29 oktober 2009 @ 14:40:
[...]


Mogelijke Conclusie: De Six word geen HD5950 :P
De kaart met 6 displayport aansluitingen zal nooit alleen HD5950 gaan heten zonder toevoeging van iets van Six of Six Edition, dat zou namelijk veel te onduidelijk zijn. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

peakaboo schreef op donderdag 29 oktober 2009 @ 14:54:
Nou dat bedoel ik dus, minder lullen en meer gamen nu en lekker wachten op de officiele bekendmaking en dan kijken we wel weer verder :W
Strak plan. :)

[ Voor 72% gewijzigd door Format-C op 29-10-2009 15:41 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Ik sluit me bij CJ aan. Gewoon even afwachten. Hetzelfde met de clocks van hemlock. 125 MHz lager is namelijk wel behoorlijk wat. Wellicht valt het mee en zitten de clocks toch op 800 Mhz of zo.

Hetzelfde met de naamgeving. Niets is nog 100% zeker.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 323633

ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Dit is gewoon niet de strategie die AMD volgt. Juist door de huidige strategie is AMD in staat om de highend kaarten veel goedkoper aan te bieden. Ze kunnen nu immers een kleinere chip maken, die gemakkelijker te ontwerpen is, waarbij door het kleinere oppervlak ook minder kans is op fouten. Als AMD nog steeds grote monolitische chips zou maken (zoals nVidia nu nog doet), reken er dan maar op dat je nog steeds de hoofdprijs zou betalen.

Voorlopig (if ever) zal AMD niet terug gaan naar monolitische chips.
Wel kan het natuurlijk zo zijn dat er ergens rond maart 2010 een geupdate versie van de HD5870 komt die nog wat meer gestroomlijnt is en daardoor wat sneller (net zoals met de HD4890).

The Flying Dutchman


Acties:
  • 0 Henk 'm!

Anoniem: 323633

ja hoor ik heb nu 10x gepost en 0x is iemand het met me eens .. dit forum is gewoon degene met de hoogste postcounts heeft gelijk... over 10 jaar wanneer ik dus volwassen ben en slim dan laat ik zien hoe het anders kan

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 19:26
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Vind ik eigenlijk ook.
Niks mis met dual chips te ontwikkelen, maar niet volgens die toch wat lompe AFR methode met hoge pieken en diepere dalen in framerate. (en de helft van je geheugen niet effectief te gebruiken, micro-stuttering , matige schaling af en toe, hele snelle CPU nodig waar dat bij een snelle single kaart nooit een issue is..)

Ik hoop ook dat ATI of Nvidia de volgende generatie met wat anders komt, shared memory en GPU's die samen werken voor dezelfde frame en niet elk hun eigen frames berekenen.

edit: Mask; Dus als je het niet onvoorwaardelijk eens bent met de strategie van ATI kun je niet nadenken? ;)

[ Voor 5% gewijzigd door anathema op 29-10-2009 17:49 ]

anathema


Acties:
  • 0 Henk 'm!

Anoniem: 323633

oke 1 iemand dan

Acties:
  • 0 Henk 'm!

Anoniem: 126513

Wel heeft de professionele wereld en haar software goed gewerkt en doet dat nu nog steeds met multi GPU setups.
Dus het blijkt toch grotendeels een software issue.

Die prijzen zijn toch zeer acceptabel zonder directe concurrentie, ik had ook liever een HD5850 onder de 200 euro gezien, maar ze zijn het helaas wel waard.
Sterker nog, AMD concurreert meteen op haar eigen voorgaande kaarten met de HD5750 en de HD5770, een soort van HD4xxx performance kaartjes met DX11 (Tesselation!!!), eigenlijk zelfs iets beter, zonder DX11 meegerekend. Dit is natuurlijk ook voor MS Windows 7, en ik verwacht de budget serie eigenlijk ook best snel, en is voor OEM misschien al in de circulatie. De HD4770 en de HD4890 waren toch nog niet zo oud dacht ik zo, en die zijn nu eigenlijk al vervangen.

edit:
Nou ja, als je naar de laatste verhalen van de concurrent gaat kijken, vanaf kuchk.. de G80, mooie GPU wel, maar sommige dingen...

Nog iets over AMD's strategie, kleiner vierkantje, dit gaat zeker weer fluctueren, let maar op, maar was het niet zo dat de concurrent, nog één op dit moment, 2 grote GPU's bij elkaar moest gooien, om de 2 kleine GPU oplossing van de deze speler te verslaan in de high end, ik denk dat nVidia liever de GTX295 gelaten zou hebben als de HD4870X2 niet zo goed had uitgepakt.

oja, nog een nieuwe Folding@Home GPU3 client, GPU_15 op komst.
http://folding.typepad.co...otomol-and-gpu3-core.html

[ Voor 30% gewijzigd door Anoniem: 126513 op 29-10-2009 17:52 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Zo gaat dat niet in zijn werk voor meer reken kracht.
Het zijn niet alen ghz-en maar ook het aantal shader units en al die poes pas
wat ik zelf ook allemaal niet snap. Om die snelheid en rekenkracht te krijgen
waar jij het over hebt is niet op te lossen op kaarten van deze tijd daar voor worden
de kaarten te duur en te groot. Wat wel kan zijn weer totaal andere chips enzv.
Tot nu toe zit je gewoon nog vast aan cfx of 2 gpu's op één kaart.

Snap het dan dat het mischien wel helemaal onmogelijk is hoe jij het graag wil zien

[ Voor 4% gewijzigd door Anoniem: 304087 op 29-10-2009 17:52 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Het lijkt me duidelijk dat je probeert te zeggen dat je op de HD5890 (RV890?) gaat wachten. Ik denk echter dat het gros al lang blij is met een kleinere, zuinigere, koelere, goedkopere chip die nog steeds praktisch alles op max kan draaien met fatsoenlijke fps.

Verder, wat de naamgeving betreft. 'Uit betrouwbare bron vernomen' stelt over het algemeen niet al te veel voor en is over het algemeen niet meer dan een pageview-zinnetje. Als we alles wat Fuad 'uit betrouwbare bron' had vernomen ook daadwerkelijk waarheid hadden zien worden, dan was de wereld ondertussen overspoeld met goedkope Fermi-kaarten en moeten we 600+ euro betalen voor een HD5870, om maar even een paar dingen te noemen.

De HD5970 voor een dual-gpu oplossing vind ik persoonlijk helemaal geen verkeerde keuze verder. De namen zijn namelijk toch niets meer of minder dan marketing voor de massa. Hier weet men wel welke core(s) erachter schuilen, wat hun kloksnelheden zijn, hoeveel shader-units die heeft etc etc etc. De gewone consument wil echter gewoon het hoogste getalletje dat zijn portomonnee toelaat.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:20:
ja hoor ik heb nu 10x gepost en 0x is iemand het met me eens .. dit forum is gewoon degene met de hoogste postcounts heeft gelijk... over 10 jaar wanneer ik dus volwassen ben en slim dan laat ik zien hoe het anders kan
Nee daar heeft het in dit geval niet mee te maken. nVidia en ATi waren 2 jaar terug beide met hetzelfde bezig. Zo'n snel mogelijke chip maken. Waardoor ze extreem groot werden. Daarbij kreeg je hoge kosten doordat de chips groot waren. Ze ook erg warm werden waardoor je dus goede cooling nodig had. AMD stond er na de HD2900 XT niet goed voor. Dus het is in dit geval maar goed dat ze het roer omgegooid hebben.

Wat ze gedaan hebben is de HD2900 XT als basis gepakt. Het ontwerp getweaked waardoor het veel kleiner kon. Toen ook nog de boel op een nieuw productie proces laten maken namelijk 55nm ipv 80nm. Hierdoor werd alles nog een stuk kleiner. Toen hebben ze er ook nog wat extra features in gestopt zoals DX10.1 en een betere UVD. En toen had je de HD3870.

Een kaart die net zo goed presteerde als de HD2900 XT. Met meer features. Die veel minder stroom verbruikte en veel goedkoper te maken was. Dus tegen een aantrekkelijkere prijs aangeboden kon worden.

En twee van deze chips samen konden het beste van nVidia op dat moment had (de 8800 Ultra) Verslaan. (dit was de HD3870 X2). En dat voor dezelfde als niet een lagere prijs.

Dus wat wil je nog meer ? hier door kunnen ze de concurrentie gewoon een stapje voor blijven. En daardoor betalen wij nu relatief weinig voor hele snelle kaarten. Als de HD4870 (de door ontwikkeling van de 3870) er niet was geweest hadden wij lang 450-550 euro moeten betalen voor de GTX280.

Misschien is het niet stoer. (al vind ik twee chips op een kaart stoerder dan een groten maar dat is een mening. Niet dat het iets uit maakt :P uiteindelijk gaat het om prijs/prestatie/watt) Maar het werkt wel en heeft veel teweeg gebracht in de vga markt. Ik ben ook benieuwd of nVidia nu dingen aan zijn strategie verandert heeft. Maar daar komen we pas bij de volgende generatie nVidia kaarten achter.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Anoniem: 323633 schreef op donderdag 29 oktober 2009 @ 17:06:
ik vind dat ze beter 1 grote chip kunnen bouwen dan twee van de medium chips op 1 kaart dat is gewoon niet cool.... daarnaast de 4890 was juist wel cool, dat was 1 chip tot de max gepusht. ik koop liever een EXTREME single chip 5870 @ 1+ gigahertz CORE en 1,25 GIGAhertz memory dan een kaart met 2x medium geklokte 5870 snap je wat ik zeg?
Dat is precies wat nVidia aan het doen is en kijk wat het resultaat is. Geen DX11 hardware bij de Windows 7 launch en pas leverbaar ergens volgende jaar. En als ie leverbaar is is het nog maar de vraag hoe goed ie leverbaar is (yields op 40nm...) en wat je ervoor mag betalen.

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Ik vind het vrij logisch dat DAAMIT (;)) gaat voor een ontwerp dat best geschikt is voor de mid tot high-end markt, en dat ze de top-end markt bedienen, niet door hun top-end ontwerp te castreren zoals nVidia dat tot nu toe altijd al gedaan heeft, maar door verschillende high-end chips samen te proppen en hopen dat het softwarematig in orde komt, wat het meestal wel doet.

Dus, aan ubertweakotine, dat je liever top-end ontwerpen ziet is pech, want ATI stemt zijn ontwerpen blijkbaar af op een economisch gezien minder risicovol model, en keert de rollen om van top-end en mid/high-end. Gezien het feit dat het met ATI momenteel beter gaat dan met nVidia kan ik alleen maar hun keuze beamen, voor zover hun succes, en het ongeluk van nVidia, voortkomt uit die ontwerpbeslissingen natuurlijk.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 19:26
Astennu schreef op donderdag 29 oktober 2009 @ 18:11:
[...]

Ik ben ook benieuwd of nVidia nu dingen aan zijn strategie verandert heeft. Maar daar komen we pas bij de volgende generatie nVidia kaarten achter.
Toch kleven er echt wat wat nadelen aan de AFR crossfire (en SLI), die ik net heb benoemd, maar ook bijvoorbeeld CJ wel heeft aangehaald in de vergelijking HD5870-4870X2 bijvoorbeeld. Daar wordt toch wel heel erg over heen gepraat hier, maar is wel een reden dat de grote monolitische GPU's van nvidia bestaansrecht hebben wat mij betreft.
Als die er niet waren had ik wellicht een HD5770 in crossfire gezet, nu ben ik veel blijer met mn HD5870.

anathema


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De ubergrote megachip met superpower mag dan wel als een oplossing klinken, maar kijk dan eens naar de GT200. Dat is zo'n grote chip en nog gooien mensen er 2 van in SLI, om maar meer performance te krijgen. Je kunt dus gemakkelijk stellen dat een single-chip oplossing nooit en te nimmer genoeg power kan leveren om de eeuwige dorst van sommige mensen te lessen.

In een dergelijk geval is het wellicht dus (en zo heeft mogen blijken met zowel HD4k alswel de HD5k en in iets mindere mate de HD3k) verstandiger om voor een kleinere chip te gaan, die wel genoeg power kan leveren voor het gros van de mensen, maar niet onevenredig groot/duur is om dit te bewerkstelligen.

In ieder geval durft ik de weddenschap wel aan te gaan dat, al had AMD/ATI de HD5870 gemaakt met een chip die even groot is als de GT300/GT200, met veel meer shader-units en grotere geheugenbus dan de huidige, dat er nog altijd mensen zouden zijn die er 2 van willen hebben om net die paar extra frames uit die ene game/benchmark te kunnen persen

Acties:
  • 0 Henk 'm!

Anoniem: 264799

Ik weet niet hoe je een chip zo groot als de gt200 gaat koelen, maar stil zal het niet zijn op lucht. De gt200 is toch zo groot omdat hij ook cuda, PhysX en nog wat dingen kan en anders werkt dan de 5870? Het is ook niet zo een game optimised chip zoals de AMD dat is geloof ik.
Ik vind de 5870 vrijwel 2x 4870 als ik de specs en performance zie. (kijk naar de temperatuur en de performance, powerusage) Dat de chip physiek niet veel groter is geworden dankzij de overgang naar 40nm maakt toch geen klap uit? Het is een grote chip imo, alleen niet absoluut en natuurlijk niet groot genoeg voor sommige mensen.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 13:41
Schaamteloos gejat van xtremesystems:
China successfully developed "Milky Way One" Supercomputer

Afbeeldingslocatie: http://i301.photobucket.com/albums/nn79/zalbard/radeon.jpg
Equipped with 6,144 Intel CPUs and 5,120 AMD GPUs

[ Voor 7% gewijzigd door Blastpe op 29-10-2009 21:57 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
http://alienbabeltech.com/main/?p=12606
Our source who wishes to be known as DJ (kind of ironic that Nvidia leaks come for a source named .....
_/-\o_


edit
foto's deleted ;oud nieuws

[ Voor 211% gewijzigd door Bullus op 29-10-2009 23:15 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

(kind of ironic that Nvidia leaks come for a source named CJ!)
ROFL de POFL

Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 20:22

Apoca

Array Technology Industry

Vraag me af of CJ wel zo blij is om overal op het i-net zijn naam te zien :/

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024

ATi 5770 Bottleneck Investigation

Afbeeldingslocatie: http://alienbabeltech.com/main/wp-content/uploads/2009/10/Text1.png
Afbeeldingslocatie: http://alienbabeltech.com/main/wp-content/uploads/2009/10/Graph1.png

Conclusion

The results generated today seem to disprove the commonly accepted idea that the 5770 is primarily held back by memory bandwidth. In actual fact ATi seems to have equipped the card with enough bandwidth to make it a reasonably balanced part overall.

Also based on the results generated today, if you’re trying to get more performance from your 5770, you should clock the core as high possible.
http://alienbabeltech.com/main/?p=12474&page=3

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
AMD has moved a number of DirectX 9 ATI Radeon graphics accelerators products to a legacy driver support structure. This change impacts Windows XP, Windows Vista, and Linux distributions. AMD has moved to a legacy software support structure for these graphics accelerator products in an effort to better focus development resources on future products. The following products have been moved to the legacy software support structure (including Mobile and All-in-Wonder Variants):

ATI Radeon 9500 Series
ATI Radeon 9550 Series
ATI Radeon 9600 Series
ATI Radeon 9700 Series
ATI Radeon 9800 Series
ATI Radeon X300 Series
ATI Radeon X550 Series
ATI Radeon X600 Series
ATI Radeon X700 Series
ATI Radeon X800 Series
ATI Radeon X850 Series
ATI Radeon X1050 Series
ATI Radeon X1300 Series
ATI Radeon X1550 Series
ATI Radeon X1600 Series
ATI Radeon X1650 Series
ATI Radeon X1800 Series
ATI Radeon X1900 Series
ATI Radeon Xpress Series
ATI Radeon X1200 Series
ATI Radeon X1250 Series
ATI Radeon X2100 Series

Note: AMD’s DirectX 9 ATI Radeon graphics accelerators are not officially supported under Windows 7. If the user chooses to, they can install the ATI Catalyst Windows Vista graphics driver under Windows 7. Please be aware that none of the new Windows 7 graphics driver (WDDM 1.1) features are supported (as the Windows Vista level graphics driver is limited to WDDM 1.0 level support). Using the ATI Catalyst Windows Vista driver under Windows 7 is not officially supported by AMD, and as such AMD will not provide any form of customer support for users running in this configuration

Any customers using a combination of a ATI Radeon HD 2000 Series, ATI Radeon HD 3000 Series, or ATI Radeon HD 4000 Series product with any of the legacy products listed above in a single PC system must use the ATI Catalyst 9.3 or earlier driver. All future ATI Catalyst releases made available past the ATI Catalyst 9.3 release will not include support for the legacy products listed above or any of the features associated with those legacy products.

AMD may periodically provide Windows XP and Windows Vista driver updates (for the products listed above) for critical fixes only. No new features will be provided in future driver updates. The Linux ATI Catalyst driver will only be supported in Linux distributions prior to February 2009 for the legacy products listed above.
http://www.ngohq.com/news...rectx-9-radeon-cards.html

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 03-06 21:10

Splinter Cell

Glasvezel MASTER RACE

Nog even terugkomend op die Hemlock benchmark:
—-Editor’s Note: These benchmarks of an unreleased engineering sample have been removed at AMD’s request and are not at all representative of final hardware’s performance. AMD was quick to let ABT know that the board, the drivers and the BIOS are not finalized. Also, please note that according to AMD, the following leaked pictures are not the final card as this is an engineering sample.

-Mark Poppin
Duidelijk dus.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
anathema schreef op donderdag 29 oktober 2009 @ 18:34:
[...]

Toch kleven er echt wat wat nadelen aan de AFR crossfire (en SLI), die ik net heb benoemd, maar ook bijvoorbeeld CJ wel heeft aangehaald in de vergelijking HD5870-4870X2 bijvoorbeeld. Daar wordt toch wel heel erg over heen gepraat hier, maar is wel een reden dat de grote monolitische GPU's van nvidia bestaansrecht hebben wat mij betreft.
Als die er niet waren had ik wellicht een HD5770 in crossfire gezet, nu ben ik veel blijer met mn HD5870.
Je hoort mij ook niet zeggen dat die grote cores geen bestaans recht hebben. Maar dat de manier die AMD nu gebruikt wel erg flexiebel is. Tuurlijk zijn CF en SLI niet perfect maar als het werkt is een HD4870 X2 toch wel een stukje (8-10%) sneller dan de 5870. Niet slecht in mijn ogen.
Daar was ik ook al achter. Core overclocking schaalt veel beter. En blijft een boost geven. Hier is iets anders aan de hand. Misschien hetzelfde als bij de HD58x0. Wat ik eerder ook al eens gezegd heb: Het zou me niets verbazen als we er met drivers 10-20% performance bij gaan krijgen. Waar de HD48xx deze boosts in het verleden al gehad heeft.

[ Voor 31% gewijzigd door Astennu op 30-10-2009 00:43 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 58485

Astennu schreef op vrijdag 30 oktober 2009 @ 00:40:
[...]


Je hoort mij ook niet zeggen dat die grote cores geen bestaans recht hebben. Maar dat de manier die AMD nu gebruikt wel erg flexiebel is. Tuurlijk zijn CF en SLI niet perfect maar als het werkt is een HD4870 X2 toch wel een stukje (8-10%) sneller dan de 5870. Niet slecht in mijn ogen.
Grote cores hebben ook nadelen. Die zullen ongetwijfeld wel geroepen zijn. De aanschaf van een X2 kan prima, mits jij vind dat je ook die perfomance nodig hebt. Er zijn ook high-end single-chip kaarten van Ati op de markt op dit moment die al retesnel zijn.

En als het economisch gezien nu voordeliger is om 2 chips op 1 PCB te plakken dan is er toch niets aan de hand? Nvidia heeft zichzelf enigzins in de enorme kosten gestoken, door extreem complexe chips te gaan bouwen, terwijl het een tikkie eenvoudiger kan.

Overigens de Radeon HD 5970, betekend dus dat dit de final opvolger is (De "X2") en er geen nog snellere serie van de 5xxx series zal komen?

Acties:
  • 0 Henk 'm!

  • masterchi
  • Registratie: Juli 2007
  • Laatst online: 22-06-2023
De oorzaak dat de 5870 in de regel minder presteerd dan de 4870x2 hoeft niet alleen aan de drivers te liggen. Het kan zijn dat het parallelisme binnen een enkele frame te laag is om de 1600 shader units efficient genoeg te benutten. Rasterized graphics is een van de meest parallelle applicaties, maar aan alles zit een limiet. Wanneer men dichter bij de limieten van het parallelisme komt gaat de schaalbaarheid en daarmee de efficientie omlaag. Dit is ook te zien met normale processoren. Er zitten altijd verplichte synchronizatie punten en meer execution units geeft gewoon relatief meer overhead. Verder zitten er altijd sequentiele stukken in het algoritme.

Bij een X2 variant wordt gebruik gemaakt van AFR welke dus op twee frames tegelijk werkt. Dit betekent dus maximaal 2x het parallelisme. Echter AFR heeft weer zijn nadelen dat (correct me if i am wrong) er verschillen in complexiteit tussen opvolgende frames de efficientie doet inzakken. De workload op de gpus is niet gelijk.

Kortom 1600 shaders aan een frame laten werken is altijd minder efficient dan 800. Wanneer het efficientie verschil te groot wordt zal de 4870x2 sneller zijn. Dat is in de meeste spellen nu het geval. Echter spellen worden steeds shader intensiever waardoor er meer parallel werk is binnen een frame. Dus ik verwacht dat in toekomstige spellen de 5870 weer sneller zal zijn.

Verder speelt ook natuurlijk het verschil in geheugen bandbreedte een rol, maar dat streep ik voor het gemak maar even weg tegen het core clock verschil.

[ Voor 4% gewijzigd door masterchi op 30-10-2009 01:18 . Reden: type fouten ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Anoniem: 58485 schreef op vrijdag 30 oktober 2009 @ 00:52:
[...]


Grote cores hebben ook nadelen. Die zullen ongetwijfeld wel geroepen zijn. De aanschaf van een X2 kan prima, mits jij vind dat je ook die perfomance nodig hebt. Er zijn ook high-end single-chip kaarten van Ati op de markt op dit moment die al retesnel zijn.

En als het economisch gezien nu voordeliger is om 2 chips op 1 PCB te plakken dan is er toch niets aan de hand? Nvidia heeft zichzelf enigzins in de enorme kosten gestoken, door extreem complexe chips te gaan bouwen, terwijl het een tikkie eenvoudiger kan.

Overigens de Radeon HD 5970, betekend dus dat dit de final opvolger is (De "X2") en er geen nog snellere serie van de 5xxx series zal komen?
Hoeft niet er is nog ruimte voor een HD5890 en HD5990. Dus het kan best dat er nog wat snellers komt. Maar het kan ook zijn dat een Dubbele RV870 op 850 MHz de max gaat worden. Of misschien zelfs lagere clocks. Zie ook de HD4870 X2 wat de snelste kaart is gebleven uit de HD4xxx serie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
masterchi schreef op vrijdag 30 oktober 2009 @ 01:08:
De oorzaak dat de 5870 in de regel minder presteerd dan de 4870x2 hoeft niet alleen aan de drivers te liggen. Het kan zijn dat het parallelisme binnen een enkele frame te laag is om de 1600 shader units efficient genoeg te benutten. Rasterized graphics is een van de meest parallelle applicaties, maar aan alles zit een limiet. Wanneer men dichter bij de limieten van het parallelisme komt gaat de schaalbaarheid en daarmee de efficientie omlaag. Dit is ook te zien met normale processoren. Er zitten altijd verplichte synchronizatie punten en meer execution units geeft gewoon relatief meer overhead. Verder zitten er altijd sequentiele stukken in het algoritme.

Bij een X2 variant wordt gebruik gemaakt van AFR welke dus op twee frames tegelijk werkt. Dit betekent dus maximaal 2x het parallelisme. Echter AFR heeft weer zijn nadelen dat (correct me if i am wrong) er verschillen in complexiteit tussen opvolgende frames de efficientie doet inzakken. De workload op de gpus is niet gelijk.

Kortom 1600 shaders aan een frame laten werken is altijd minder efficient dan 800. Wanneer het efficientie verschil te groot wordt zal de 4870x2 sneller zijn. Dat is in de meeste spellen nu het geval. Echter spellen worden steeds shader intensiever waardoor er meer parallel werk is binnen een frame. Dus ik verwacht dat in toekomstige spellen de 5870 weer sneller zal zijn.

Verder speelt ook natuurlijk het verschil in geheugen bandbreedte een rol, maar dat streep ik voor het gemak maar even weg tegen het core clock verschil.
Op zich klopt je redenatie wel ongeveer denk ik, maar ik denk niet dat de 1600 shaders niet gevuld kunnen worden met een enkele frame van miljoenen pixels. Dus voordat de grens optreed die jij beschrijft zullen we nog wel wat meer shaders nodig hebben. Ik kan me niet voorstellen dat 800 vs 1600 shaders dit verschil veroorzaakt.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
edit: nvm

[ Voor 97% gewijzigd door spNk op 30-10-2009 09:43 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 08:42:
Op zich klopt je redenatie wel ongeveer denk ik, maar ik denk niet dat de 1600 shaders niet gevuld kunnen worden met een enkele frame van miljoenen pixels. Dus voordat de grens optreed die jij beschrijft zullen we nog wel wat meer shaders nodig hebben. Ik kan me niet voorstellen dat 800 vs 1600 shaders dit verschil veroorzaakt.
Kan je dat onderbuikgevoel baseren op ervaringen of kennis? Want zoniet, dan ziet het er niet echt naar uit dat mensen je op je woord moeten geloven. ;)

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Sja neem daarbij dat hoe slechter de optimalisatie is, hoe minder stream processors van de stream processing unit werk.

Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ati/4800/ilp.png

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
DevilsProphet schreef op vrijdag 30 oktober 2009 @ 09:45:
[...]

Kan je dat onderbuikgevoel baseren op ervaringen of kennis? Want zoniet, dan ziet het er niet echt naar uit dat mensen je op je woord moeten geloven. ;)
Ik kan wel een voorbeeldje geven waaruit blijkt dat het onwaarschijnlijk is dat de 1600 cores niet aan het werk zijn omdat er teveel parrallelisatie is.

Op een HD5870 bestaan 320 shaderunits met ieder 5 streamcores (oftewel 320 x 5 = 1600 cores). Één zo'n shaderunit can dus een aantal instructies tegelijk uitvoeren omdat er meerdere streamcores in een shaderunit zitten (dit is al zo sinds de HD2xxx zover ik weet, en om alle cores aan het werk te zetten moet je in een shader programma dan ook proberen gebruik te maken van al die cores).

Een operatie waarbij je een een kleurvector (rgba) vermenigvuldigt met een bepaalde floating point variabele (dit is een veelvoorkomende operatie in een shader programma), dan moeten er 4 vermenigvuldigingen plaatvinden (iedere kleurcomponent moet met de floating point waarde worden vermenigvuldigt om de nieuwe vector te berekenen). Op deze manier kun je al 4 van de 5 streamcores aan het werk zetten.

Normaal gesproken gebeurt er nog veel meer in een shader programma, zo'n programma kan gemakkelijk uit honderden instructies bestaan. Het is de programmeur zijn taak om ervoor te zorgen het programma zo goed mogelijk parallel geschreven is zodat de 5 streamcores aan het werk kunnen blijven, maar dit was ook al zo bij de HD2xxx, HD3xxx en de HD4xxx. Dus wat dat betreft is er geen verschil (behalve dan dat het met de HD5xxx iets eenvoudiger is geworden om parallelle code te schrijven omdat de 4 eenvoudige streamcores een aantal meer verschillende operaties kunnen uitvoeren die voorheen alleen door de 5e streamcore gedaan kon worden).

Ok... er zijn dus 320 shaderunits (met 5 streamcores) die elk aan het rekenen zijn voor één pixeltje (simpel gezegd). Dus, voor iedere pixel wordt (over het algemeen meerdere keren) een shader programma uitgevoerd. Welk shaderprogramma dat precies is, hangt van het materiaal af dat je aan het renderen bent, of het post-processing effect dat je aan het berekenen bent bijvoorbeeld. Dit is om even een beeld te krijgen van de schaalgrootte: stel je hebt een resolutie van 1680x1050 en voor iedere pixel moet 4 keer een shader programma draaien (is niet onredelijk, voor AAA games is dit waarschijnlijk nog veel meer). Dan heb je dus 1680x1050x4 ~= 7 miljoen runs van shader programma's in één frame. Dit moet verdeelt worden over 320 shader units...

Bedenk daarbij dat het zo is dat als je in je programma tegen de gpu zegt:
`render op coordinaat x,y een vierkantje van 10x10 pixels'
Dat de rest van de gpu op dat moment niet uit zijn neus staat te vreten tot die 100 pixels gerenderd zijn. Commando's die van de cpu naar de gpu gegeven worden zijn meestal `non-blocking', wat betekend dat je gelijk een nieuwe opdracht kunt geven zonder dat je hoeft te wachten tot de vorige opdracht klaar is (dus je kunt ook gelijk de opdracht geven om ergens anders op het scherm een stukje van 10x10 pixels te renderen).

Kortom... aangezien het aantal shader programma's dat moet draaien in de ordegrootte van miljoen ligt, en het aantal shader programma's die tegelijkertijd uitgevoerd kunnen worden (als in: dat er daadwerkelijk dingen berekend worden) bij de HD4870 gelijk is aan 160 en bij de HD5870 gelijk is aan 320, denk ik dat het nogal onwaarschijnlijk is dat de mate van parallellisatie een bottleneck is voor de HD5870.

bronnen:
ATI_Radeon_HD_2000_programming_guide.pdf
AnandTech: AMD's Radeon HD5870

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • masterchi
  • Registratie: Juli 2007
  • Laatst online: 22-06-2023
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 10:23:
[...]
Ok... er zijn dus 320 shaderunits (met 5 streamcores) die elk aan het rekenen zijn voor één pixeltje (simpel gezegd). Dus, voor iedere pixel wordt (over het algemeen meerdere keren) een shader programma uitgevoerd. Welk shaderprogramma dat precies is, hangt van het materiaal af dat je aan het renderen bent, of het post-processing effect dat je aan het berekenen bent bijvoorbeeld. Dit is om even een beeld te krijgen van de schaalgrootte: stel je hebt een resolutie van 1680x1050 en voor iedere pixel moet 4 keer een shader programma draaien (is niet onredelijk, voor AAA games is dit waarschijnlijk nog veel meer). Dan heb je dus 1680x1050x4 ~= 7 miljoen runs van shader programma's in één frame. Dit moet verdeelt worden over 320 shader units...
Eigenlijk kan je de RV870 beter vergelijken met een 20-core processor ipv 320. Er is een thread command processor die op dit niveau de 20 cores van de GPU aanstuurt. Ik denk dat er inderdaad wel genoeg werk is om 20-cores te gebruiken. Maar het feit blijft dat er 2x zo weinig werk is per core. De overhead daarentegen blijft hetzelfde in vorm van bijvoorbeeld shader programma's inladen. Ook moeten er nu 20 cores aangestuurd worden dus de thread command processor(of hoe dat ding ook heet) heeft meer te doen en dit stuk is sequentieel.

Verder als die er 4 shader programmas op een pixel moet opereren binnen een frame zal dat wel in een sequentiele volgorde moeten. Als het in verschillende volgorde gaat gebeuren krijg je corrupte output. Dus het parallisme gaat niet omhoog wanneer er meer shading per pixel moet worden gedaan.

Ook is de pixel shading stap niet de enige stap in de graphics pipeline. Andere stappen zijn bijvoorbeeld vertex shading, geometry shading, rasterization, texturemapping en clipping. De stappen in de pipeline gebeuren achter elkaar. Ik ben geen expert van wat er in deze stappen moet gebeuren, maar het is redelijk om te denken dat niet alle stappen in graphics pipeline even parallel zijn. Dus gemiddeld zal er een lagere speedup zijn dan pixel shading bijvoorbeeld. Ik hoop dat iemand hier licht op kan schijnen. Ik heb wel een vakje Computer Graphics gevolgd, maar ik weet niet welke stappen er op de GPU gebeuren en welke op de CPU. Bijvoorbeeld iets als polygon sorting om te bepalen welke objecten zichtbaar zijn, is een redelijk sequentiele actie.

Als laatste ga je niet een pixel of vertex per keer sturen om te shaden naar een (van de 20) cores, maar stuur je een group van 1024 of iets dergelijks. Je wilt je batch sizes zo groot mogelijk houden om opstart overhead zo klein mogelijk te houden. Hierdoor zal het praktische parallelisme een groot stuk lager zijn. Vaak zie je dat bij lage resoluties een graphics kaart niet helemaal tot zijn recht komt. Dat heeft niet alleen te maken met de CPU bottleneck.

Maar nogmaals ik ben geen expert op gebied van graphics. Mijn achtergrond ligt meer in parallel programming en computer architecture. Ik wil alleen aangeven dat het aantal shader units verdubbelen in de vorm van welke we zien in rv670->rv770->rv870 een zelfde soort actie is als het aantal cores in een CPU verdubbelen. Eens houdt het nut er van op en hoe dichter we tegen de practische limieten lopen meer efficientie verlies er is. Volgens mij was de rv770 ook niet 2.5 keer zo snel als de rv670. Meer in de buurt van 2. Een nog mooier voorbeeld is dat een hd5850 op clocks van hd5870 niet 10% langzamer is, maar meer in de buurt van enkele procenten. (geen bron, maar had het ergens gelezen)

[ Voor 10% gewijzigd door masterchi op 30-10-2009 12:40 . Reden: extra eind stuk ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
_/-\o_ *O* Toch iemand die mijn testje waardeerd
Bullus schreef op vrijdag 23 oktober 2009 @ 16:36:
Hardware
Settings
Render: direct3d11
Mode: 1680x1050 4xAA fullscreen
Shaders: high
Textures: high
Filter: trilinear
Anisotropy: 16x
Occlusion: enabled
Refraction: enabled
Volumetric: enabled
MSI 5850 @ 725/1000
Heaven Demo v1.0
FPS: 25.7
Scores: 646


Met OC 850/1200 @5870 clocks
Heaven Demo v1.0
FPS: 30.1 = -3.6% tov 5870
Scores: 758


Met OC 950/1200
Heaven Demo v1.0
FPS: 31.9
Scores: 803


Met OC 950/1200 + DX10
Heaven Demo v1.0
FPS: 49.5 = + 55% tov DX11
Scores: 1248
Settings
Render: direct3d10
Mode: 1680x1050 4xAA fullscreen
Shaders: high
Textures: high
Filter: trilinear
Anisotropy: 16x
Occlusion: enabled
Refraction: enabled
Volumetric: enabled


Volgens mijn testje zal de 5970 maar 3.6 % sneller zijn als een 5850 (wel als single gpu bekeken en volgens dit testje), oftewel langzamer zijn als een stock 5870.Maar ATI zal wel wat verzinnen dat de 5970 sneller of even snel zal zijn als een dual cfx 5870. Kijkend naar het verleden;2x3870/3870X2, 2x4870/4870X2.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
masterchi schreef op vrijdag 30 oktober 2009 @ 12:29:
[...]


Eigenlijk kan je de RV870 beter vergelijken met een 20-core processor ipv 320. Er is een thread command processor die op dit niveau de 20 cores van de GPU aanstuurt. Ik denk dat er inderdaad wel genoeg werk is om 20-cores te gebruiken. Maar het feit blijft dat er 2x zo weinig werk is per core. De overhead daarentegen blijft hetzelfde in vorm van bijvoorbeeld shader programma's inladen. Ook moeten er nu 20 cores aangestuurd worden dus de thread command processor(of hoe dat ding ook heet) heeft meer te doen en dit stuk is sequentieel.
Daarom is de thread dispatcher ook verbeterd als ik me het artikel van Anandtech goed herinner (zie bron vermeld in eerdere post). Ga er maar vanuit dat dit soort zaken ook allemaal aangepakt zijn, anders kan je inderdaad met een bottleneck komen te zitten (het is al een tijd geleden dat ik dat artikel van Anand heb gelezen, maar daar wordt heel uitvoerig besproken welke zaken verbeterd zijn). AMD begrijpt wel dat als je het aantal shader units verdubbelt, dat je er dan wel voor moet zorgen dat die shader units het werk snel genoeg aangeleverd moeten krijgen.
Verder als die er 4 shader programmas op een pixel moet opereren binnen een frame zal dat wel in een sequentiele volgorde moeten. Als het in verschillende volgorde gaat gebeuren krijg je corrupte output. Dus het parallisme gaat niet omhoog wanneer er meer shading per pixel moet worden gedaan.
Dat klopt natuurlijk, maar de gpu hoeft niet te wachten tot pixel B klaar is met pass 1 voordat hij kan beginnen met pass 2 op pixel A (die pass 1 al eerder voltooid had). Deels heb je hier als programmeur ook een verantwoordelijkheid.
Ook is de pixel shading stap niet de enige stap in de graphics pipeline. Andere stappen zijn bijvoorbeeld vertex shading, geometry shading, rasterization, texturemapping en clipping. De stappen in de pipeline gebeuren achter elkaar. Ik ben geen expert van wat er in deze stappen moet gebeuren, maar het is redelijk om te denken dat niet alle stappen in graphics pipeline even parallel zijn.
Het uitvoeren van deze stappen is inderdaad sequentieel in plaats van parallel. Overigens kost de pixel shading stap over het algemeen wel de meeste rekenkracht van alle stappen. Ga maar eens na:

vertex shading: misscchien 100.000 polygonen in een frame?
geometry shading: doe je op die 100.000 polygonen (of een gedeelte ervan)
fragment shading: doe je op alle pixels op het scherm (~1.7 miljoen bij 1680x1050) en vaak zijn deze programma's ook nog eens de meest complexe omdat je hier lichteffecten toe gaat voegen, etc. (naar schatting is een gemiddelde fragment shader zeker 10x zo complex als een gemiddelde vertex/geometry shader). Vergeet daarnaast niet dat je waarschijnlijk overhead hebt: polygon A wordt gerenderd, de fragment shader wordt toegepast op de pixels van polygon A, maar vervolgens komt er een polygon B die polygon A geheel bedekt, al het werk voor niets! Hhier zijn technieken voor om dit zoveel mogelijk te voorkomen, want dit is verschrikkelijk duur: je kunt een early z-pass doen, dit betekend alle polygonen naar de gpu sturen en het enige wat je doet is de z-buffer vullen. Vervolgens stuur je alle polygonen nogmaals naar de gpu, de z-buffer zorgt er nu voor dat alle pixels die niet zichtbaar zijn ook niet naar de fragment shader gestuurd worden (let op: het is dus goedkoper om alle polygonen twee keer naar de gpu te sturen om zo die overhead te voorkomen! Dit geeft wel aan hoeveel tijd er gemiddeld in een fragment shader gaat zitten denk ik).

Vervolgens ga je vaak nog allerlei post-processing effecten toepassen (out-of-focus blur, haze, druppels op de camera, bedenk het maar zo gek...) die ook allemaal per pixel zijn.
Dus gemiddeld zal er een lagere speedup zijn dan pixel shading bijvoorbeeld. Ik hoop dat iemand hier licht op kan schijnen. Ik heb wel een vakje Computer Graphics gevolgd, maar ik weet niet welke stappen er op de GPU gebeuren en welke op de CPU. Bijvoorbeeld iets als polygon sorting om te bepalen welke objecten zichtbaar zijn, is een redelijk sequentiele actie.
Ik heb een vak advanced computer graphics gevolgd en als hobby ben ik bezig met het programmeren in OpenGL en programmeer ik ook gpgpu dingen. Polygon sorting wordt niet gedaan op de gpu. De gpu is een dom ding die alles gewoon naar het scherm knalt. Er is echter een z-buffer op de gpu, in die z-buffer wordt de z waarde van de dichtsbijzijnde pixel onthouden. De rasterizer zorgt er vervolgens voor dat als een pixel/fragment een z-waarde heeft verder weg ligt dan de huidige dichtstbijzijnde pixel/fragment, niet gerenderd wordt. Daarom zie je toch altijd het juiste object vooraan terwijl de volgorde waarin polygonen gerenderd worden willekeurig is (en daarom kun je dus een techniek toepassen als early-z-pass). Een geoptimaliseerd programma sorteerd (meestal op object niveau) op de cpu, of eventueel met gpgpu technieken (dit zal meer en meer met OpenCL/DirectX compute gedaan gaan worden waarschijnlijk) (dat sorteren wordt gedaan om dubbel werk voor de gpu zoveel mogelijk te voorkomen... iets wat je niet ziet wil je liever gewoon niet renderen, dus als je een object dat dichtbij is eerst rendert, dan zal z-culling er in ieder geval voor zorgen dat achterliggende pixels gewoon overgeslagen worden). Wil je iets renderen wat doorzichtig is, dan is (weliswaar afhankelijk van de methode waarmee je de kleuren blend) de volgorde van polygonen wél van belang (je wilt de achterste polygon pixel eerst renderen, dan de op één na achterste, enz.). Anders komt de transparency niet realistisch over.
Als laatste ga je niet een pixel of vertex per keer sturen om te shaden naar een (van de 20) cores, maar stuur je een group van 1024 of iets dergelijks. Je wilt je batch sizes zo groot mogelijk houden om opstart overhead zo klein mogelijk te houden. Hierdoor zal het praktische parallelisme een groot stuk lager zijn. Vaak zie je dat bij lage resoluties een graphics kaart niet helemaal tot zijn recht komt. Dat heeft niet alleen te maken met de CPU bottleneck.
Dat zeg ik toch ook niet? Maar dan nog... ook al bevinden al je objecten zich in één grote batch (ideaal, hoef je niet op die langzame processor te wachten!), dan zal de gpu (de thread dispatcher waarschijnlijk) al die objecten verdelen over de beschikbare shader units om:

vertex shading -> geometry shading -> tesselation -> rasterization -> fragment shading -> blending

te doen (kan zijn dat ik iets mis in de pipeline of de volgorde achteraan niet helemaal 100% klopt). Natuurlijk: als je maar één polygon hebt, dan kun je die maar aan één shader unit geven om de vertex shading te doen. Maar hoe vaak zal het nou voorkomen dat je slechts één polygon hebt? Tegenwoordig heb je eerder duizenden of tienduizenden polygonen in een scene (als het er geen 100.000 zijn).

Stel dat je een batch hebt met 10.000 polygonen, dan zal de thread dispatcher de polygonen over de 320 shader units verdelen. Vervolgens doen die vertex shading, en eventueel wordt er nog meer geometry gegenereerd in de geometry shader en de tesselator. Daarna zal de rasterizer er pixeltjes (of fragments als anti aliasing gebruikt wordt) van maken die allemaal via de thread-dispatcher weer hun weg vinden naar de shader units om de fragment shader stap uit te voeren.
Maar nogmaals ik ben geen expert op gebied van graphics. Mijn achtergrond ligt meer in parallel programming en computer architecture. Ik wil alleen aangeven dat het aantal shader units verdubbelen in de vorm van welke we zien in rv670->rv770->rv870 een zelfde soort actie is als het aantal cores in een CPU verdubbelen. Eens houdt het nut er van op en hoe dichter we tegen de practische limieten lopen meer efficientie verlies er is. Volgens mij was de rv770 ook niet 2.5 keer zo snel als de rv670. Meer in de buurt van 2. Een nog mooier voorbeeld is dat een hd5850 op clocks van hd5870 niet 10% langzamer is, maar meer in de buurt van enkele procenten. (geen bron, maar had het ergens gelezen)
Ik weet er hobbymatig (en gedeeltelijk ook vanuit mijn opleiding) redelijk veel van af denk ik. Maar ik zal mezelf ook geen expert noemen. Ik denk toch dat het even anders ligt dan bij een cpu. Natuurlijk is er ergens een limiet, maar rasterization is zo'n enorm parallel proces (voornamelijk door het grote aantal pixels en het grote aantal polygonen in een scene die je door de z-buffer in willekeurige volgorde kunt renderen) dat we nog lang niet aan die limieten zitten.

Ik denk dat je er vanuit kunt gaan dat een gpu in een typische game met veel gemak duizenden threads tegelijk kan gebruiken.
DevilsProphet schreef op vrijdag 30 oktober 2009 @ 09:45:
[...]

Kan je dat onderbuikgevoel baseren op ervaringen of kennis? Want zoniet, dan ziet het er niet echt naar uit dat mensen je op je woord moeten geloven. ;)
Ben je ondertussen overtuigd? ;)
Mijn `onderbuik' gevoel is voornamelijk gebasseerd op kennis van typische waarden in games (hoeveel polygonen heb je, hoeveel instructies kost het om een shader programma uit te voeren, hoe maak je lichteffecten en hoe creeër je post-processing effecten), daarnaast gebruik ik wat ik weet over de pipeline van de gpu (die kennis is niet 100%, maar wat ik weet komt in ieder geval wel aardig in de richting denk ik).

Zoals je ziet kost het een flinke lap tekst om dit alles te onderbouwen, vandaar dat ik in eerste instantie de zaak afgedaan had met een `ik denk niet dat het zo is'. ;)

[ Voor 5% gewijzigd door The Flying Dutchman op 30-10-2009 14:05 ]

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • masterchi
  • Registratie: Juli 2007
  • Laatst online: 22-06-2023
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 13:54:

Dat zeg ik toch ook niet? Maar dan nog... ook al bevinden al je objecten zich in één grote batch (ideaal, hoef je niet op die langzame processor te wachten!), dan zal de gpu (de thread dispatcher waarschijnlijk) al die objecten verdelen over de beschikbare shader units om:

vertex shading -> geometry shading -> tesselation -> rasterization -> fragment shading -> blending

te doen (kan zijn dat ik iets mis in de pipeline of de volgorde achteraan niet helemaal 100% klopt). Natuurlijk: als je maar één polygon hebt, dan kun je die maar aan één shader unit geven om de vertex shading te doen. Maar hoe vaak zal het nou voorkomen dat je slechts één polygon hebt? Tegenwoordig heb je eerder duizenden of tienduizenden polygonen in een scene (als het er geen 100.000 zijn).
Dat kwam anders over dan gepland. Ik wilde duidelijk maken dat er een verschil is tussen praktisch en theoretisch parrallelisme. En dat parrallelisme op verschillende niveaus moet worden wordt uitgebuit. Als je de vergelijking trekt met een CPU heb je instruction level en thread level parallelism. Dus hoeveel shader units je ook hebt een speed-up van een miljoen zul je niet zien. Ik met je eens dat de limieten van rasterized rendering nog niet bereikt zijn. Maar ook in dit geval zal de schaling niet 100% zijn. De uiteindelijke schaling hangt van veel factoren af.

Met mijn verhaal wilde ik een andere logischere hypothese geven over de beperkte performance winst van de rv870 tegenover rv770. Er werd veel gesuggereerd dat de drivers de enige oorzaak waren. Ik weet ook niet precies wat er in de drivers geoptimaliseerd kan worden. Ik was van de veronderstelling dat de shader programma's beter gecompiled worden met nieuwe driver revisies zodat de simd core beter benut is. In dit geval zal er weinig winst nog te boeken zijn omdat de simd basis vrijwel hetzelfde is. Wellicht worden de directx calls beter gescheduling door de thread dispatcher beter aan te sturen. Ik wilde het niet de drivers de schuld geven, omdat ik simpelweg niet precies weet wat daar aan de hand is.

Het kan natuurlijk aan heel veel dingen liggen. Overal in het systeem zitten sequentiele stukken. Het kunnen de drivers, de games, thread dispatcher, cpu, pciexpress latency, videomemory latency, joins van de GPU threads etc.. Het is lastig om precies te zeggen wat nu de bottleneck is.Maar als je kijkt naar de benchmarks van de game Risen dan is die wel ongeveer 2x zo snel als een 4870. Daarom denk ik dat de GPU zelf niet genoeg benut kan worden.

http://www.pcgameshardwar...-Radeon-HD-5850/Practice/

Misschien kan ik je nog net geen expert noemen, maar je zit er duidelijk in. Misschien kan je een andere visie geven, die de huidige performance verhoudingen verklaard?

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
masterchi schreef op vrijdag 30 oktober 2009 @ 15:15:
[...]


Dat kwam anders over dan gepland. Ik wilde duidelijk maken dat er een verschil is tussen praktisch en theoretisch parrallelisme. En dat parrallelisme op verschillende niveaus moet worden wordt uitgebuit. Als je de vergelijking trekt met een CPU heb je instruction level en thread level parallelism. Dus hoeveel shader units je ook hebt een speed-up van een miljoen zul je niet zien. Ik met je eens dat de limieten van rasterized rendering nog niet bereikt zijn. Maar ook in dit geval zal de schaling niet 100% zijn. De uiteindelijke schaling hangt van veel factoren af.

Met mijn verhaal wilde ik een andere logischere hypothese geven over de beperkte performance winst van de rv870 tegenover rv770. Er werd veel gesuggereerd dat de drivers de enige oorzaak waren. Ik weet ook niet precies wat er in de drivers geoptimaliseerd kan worden. Ik was van de veronderstelling dat de shader programma's beter gecompiled worden met nieuwe driver revisies zodat de simd core beter benut is. In dit geval zal er weinig winst nog te boeken zijn omdat de simd basis vrijwel hetzelfde is. Wellicht worden de directx calls beter gescheduling door de thread dispatcher beter aan te sturen. Ik wilde het niet de drivers de schuld geven, omdat ik simpelweg niet precies weet wat daar aan de hand is.

Het kan natuurlijk aan heel veel dingen liggen. Overal in het systeem zitten sequentiele stukken. Het kunnen de drivers, de games, thread dispatcher, cpu, pciexpress latency, videomemory latency, joins van de GPU threads etc.. Het is lastig om precies te zeggen wat nu de bottleneck is.Maar als je kijkt naar de benchmarks van de game Risen dan is die wel ongeveer 2x zo snel als een 4870. Daarom denk ik dat de GPU zelf niet genoeg benut kan worden.

http://www.pcgameshardwar...-Radeon-HD-5850/Practice/

Misschien kan ik je nog net geen expert noemen, maar je zit er duidelijk in. Misschien kan je een andere visie geven, die de huidige performance verhoudingen verklaard?
Ik wil de drivers ook niet direct de schuld geven. We zien vaker dat mensen bij release van een kaart nog fikse verbeteringen verwachten in verband met driver updates. In de praktijk valt dit op korte termijn vaak tegen in mijn beleving. Natuurlijk heb je sommige games waar duidelijk iets mee aan de hand is (een grote performance drop oid) die snel gefixed worden. Maar verder laat AMD over het algemeen veel meer een langzaam stijgende lijn zien wat betreft performance verbeteringen in drivers (hoe vaak hebben we van AMD nou wonder drivers gezien vlak na de release van een nieuwe grafische kaart die op iedere game procenten winst boekten? Ik kan het me niet herinneren... wel zien we altijd een duidelijk verschil tussen release drivers en drivers van een jaar na release: een langzaam stijgende lijn dus).

Zelf heb ik me ook wel afgevraagd hoe het nou kan dat de HD5870 niet altijd even snel is als de HD4870X2. Misschien valt dit gedeeltelijk te verklaren met bij de HD4870X2 beide gpu's tegelijk data uit hun eigen memory pool kunnen halen, terwijl de HD5870 het moet doen met één blok geheugen (en dus effectief toch bandbreedte mist). Echter de resultaten die behaald worden met het overklokken van het geheugen van de HD5870, ondersteunen deze theorie ook niet direct voor zover ik begrepen heb (als bandbreedte het probleem was, dan zou overklokken van het geheugen ervoor moeten zorgen dat de kaart significant sneller wordt).

Om toch nog even terug te komen op de drivers... die drivers moeten ervoor zorgen dat de shader programma's omgezet worden in binaries die op de gpu draaien. Hoewel de shader units van de HD4870 en de HD5870 veel op elkaar lijken, kan het misschien toch wel zo zijn dat de drivers op dit gebied nog steekjes laten vallen. Of misschien zijn het niet de drivers, maar is het meer de game die geoptimaliseerd is voor de HD4870, maar niet voor de HD5870 (maar eerlijk gezegd denk ik dat een shader programma dat het goed doet op een HD4870 het ook gewoon goed zou moeten doen op een HD5870).

Het is dus nogal koffiedik kijken wat er nou eigenlijk aan de hand is... daarbij keek ik nog eens even naar het artikel van Anandtech en kwam ik het volgende tegen:
The second change to the texture units is to improve their interpolation speed by not doing interpolation. Interpolation has been moved to the SPs (this is part of DX11’s new Pull Model) which is much faster than having the texture unit do the job. The result is that a texture unit Cypress has a greater effective fillrate than one under RV770, and this will show up under synthetic tests in particular where the load-it and forget-it nature of the tests left RV770 interpolation bound.
Dit is interessant: bij de RV770 deden de texture units dus een taak die nu door de streamprocessors gedaan moet worden. Dit heeft als resultaat dat de texture units sneller hun werk kunnen doen, maar betekend dus ook dat de streamprocessors er een extra taak bij gekregen hebben ten opzichte van de RV770. Misschien is dit een richting waarin de verschillen gezocht moeten worden? Dit zou misschien kunnen betekenen dat bij games die heel veel texture fetches doen de performance van een HD5870 minder stijgt ten opzicht van een HD4870 dan je zou verwachten (aan de andere kant: bij de HD4870 was misschien de texture fetch zelf een bottleneck geweest bij dit soort games).

Verder lees je in het artikel van Anand toch terug dat vrijwel alles in de RV870 is verdubbelt ten opzichte van de RV770. Dus is het gewoon heel moeilijk om te zeggen hoe het verschil tussen HD5870 en HD4870X2 verklaard kan worden zonder precies te weten wat de voornaamste bottlenecks in de games waar het verschil optreed zijn.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Envy007
  • Registratie: Juni 2003
  • Laatst online: 28-11-2023
40nm problemen zijn terug bij TSMC, dit gaat AMD niet helpen om de kaarten in de winkels te krijgen.

http://www.digitimes.com/news/a20091030PD209.html
TSMC 40nm yield issues resurface, CEO promises fix by year-end

Taiwan Semiconductor Manufacturing Company (TSMC) has revealed it recently run into issues with its 40nm process technology impacting yields. Company chairman and CEO Morris Chang pledged the issue will be solved within the quarter.

TSMC said it has seen yield rates for its 40nm node drop to 40% due chamber matching issues. Main customers for TSMC's 40nm processes are GPU vendors AMD, which recently launched its new 40nm-based Radeon 5870 series, and Nvidia, who is scheduled to launch its 40nm-based GT300 series of chips in December, according to previous reports. TSMC's recent issues may impact the shipping schedules of the GPU vendors, market watchers commented.

During TSMC's July 2009 investors conference, Chang revealed that yield rates for 40nm processes had improved to 60%, up from as low as 20-30% in the second quarter of 2009.

In other news, TSMC has released its October 2009 investors report in which company CFO Lora Ho said, "Due to stronger demand for 40nm and 65nm technologies, TSMC 2009 capex has risen further and is expected to be around US$2.7 billion." Accordingly, TSMC's fourth-quarter capex may total around US$1.34 billion, up from US$971 million alloted in the third quarter and US$224 million in the second quarter.

TSMC revealed that 45/40nm accounted for 4% of the company's third-quarter revenues, compared to 1% in the first and second quarters. TSMC said it aims to push up the sales proportion to 10% by the end of 2009.
Geen idee wat 'chamber matching issues' zijn, maar het zou de oorzaak zijn.

Ben erg benieuwd waar AMD op dit moment zijn ontwerp voor de volgende generatie aan het testen is, GF of TSMC.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 05-06 21:31
iemand al wat nieuws tegen gekomen over de lucid hydra chip? volgens anand's artikel zouden we veel meer horen over 30 dagen, en das inmiddels 37 dagen geleden....

be4n zo benieuwd wat dat ding kan toevoegen aan huidige cf/sli setups!

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
Als ik AMD was zou ik met het oog op de huidige problemen zo snel mogelijk zorgen dat ik die chips bij GF liet maken. Wie weet zien we in 2010 een kleine update van de RV870? Een RV890 gemaakt bij Global Foundries op het 32nm proces?

Vast niet, maar de gedacht is leuk ;).

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Nou nee vast niet inderdaad, RV870 is ontworpen voor het procede bij TSMC, Voordat ze 32 Nm bulk silicon op de rit hebben en AMD hun ontwerp aan heeft gepast zijn we misschien wel 1,5 jaar verder.

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
meljor schreef op vrijdag 30 oktober 2009 @ 16:30:
iemand al wat nieuws tegen gekomen over de lucid hydra chip? volgens anand's artikel zouden we veel meer horen over 30 dagen, en das inmiddels 37 dagen geleden....
-The_Mask- in "[Discussie] multi-core Intel's: Core 2 &..."

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 16:35:
Als ik AMD was zou ik met het oog op de huidige problemen zo snel mogelijk zorgen dat ik die chips bij GF liet maken. Wie weet zien we in 2010 een kleine update van de RV870? Een RV890 gemaakt bij Global Foundries op het 32nm proces?

Vast niet, maar de gedacht is leuk ;).
32nm Zou ik niet teveel op rekenen, maar als ik AMD was zou ik in het ontwikkelingsproces van een eventuele RV890 wel proberen om het design aan te passen aan de techniek van Global Foundries. Ik weet natuurlijk niet hoeveel inspanning dat gaat kosten, maar TSMC heeft inmiddels al een half jaar de tijd gehad om hun 40nm process op de rails te krijgen. Als het ze nu nog niet gelukt is verlies ik wel enigszins het vertrouwen in TSMC en waarschijnlijk AMD ook wel.

specs


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Depep schreef op vrijdag 30 oktober 2009 @ 18:07:
Ik weet natuurlijk niet hoeveel inspanning dat gaat kosten, maar TSMC heeft inmiddels al een half jaar de tijd gehad om hun 40nm process op de rails te krijgen.
Maak daar maar rustig een jaar van, aangezien de eerste 40nm kaarten eigenlijk al een half jaar eerder verwacht werden dan ze uiteindelijk op de markt kwamen. Het ziet er inderdaad niet erg goed uit voor TSMC's 40nm proces. De vraag is alleen of alle 40nm ontwerpen hier echt onder te lijden hebben, of dat bepaalde ontwerpen vatbaarder zijn dan anderen.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 05-06 21:31
WEER vertraagd?? had het kunnen weten: het was ook veel te stil rondom deze chip.
behalve wat vage omschrijvingen en een enkele demo is er nog weinig te zien geweest van de lucid hydra....

jammer, jammer, jammerrrr

thanx for the link mask :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Is vooral driver gerelateerd en ze hebben de samenwerking nodig van ATI/AMD en nVidia om het werkend te krijgen en die (of één van de twee) schijnen niet echt heel happig te zijn. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
Depep schreef op vrijdag 30 oktober 2009 @ 18:07:
[...]


32nm Zou ik niet teveel op rekenen, maar als ik AMD was zou ik in het ontwikkelingsproces van een eventuele RV890 wel proberen om het design aan te passen aan de techniek van Global Foundries. Ik weet natuurlijk niet hoeveel inspanning dat gaat kosten, maar TSMC heeft inmiddels al een half jaar de tijd gehad om hun 40nm process op de rails te krijgen. Als het ze nu nog niet gelukt is verlies ik wel enigszins het vertrouwen in TSMC en waarschijnlijk AMD ook wel.
Maar zal Global Foundries wel half proces nodes (40nm, 28nm) maken? Of doen ze alleen de normale proces nodes (45nm, 32nm)? Omdat ik er even vanuit ging dat GF geen half proces nodes doet (misschien ook wel, ik weet het eigenlijk niet), moest de stap wel naar 32nm omdat 45nm een stap terug zou zijn.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Met in gedachte het toekomstige fusion, waarbij AMD gebruik wil maken van CPU-core en GPU-core op hetzelfde proces, is het geen vreemde aanname dat ze in ieder geval spoedig hun budget/igp gpu's al vast op 32nm zouden willen bakken, temeer omdat de eerste fusion-producten ook op dat proces gebakken gaan worden.

Het zou ook een verklarende reden kunnen zijn waarom de budget/igp producten van de 5k lijn pas volgend jaar worden uitgebracht, aangezien GF bijvoorbeeld vanaf dat moment 32nm-bulk zou moeten kunnen leveren.

Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Ik denk niet dat de chip ontwerpen al aangepast zijn op hun 32 Nm. Ze kunnen echter al wel vast aan de slag met de deal van ARM die ze gemaakt hebben. Ik denk niet dat chip sets de eerste producten zijn die ze zelf gaan produceren, dat ontwerp zit al veel langer in de pijplijn en die hebben een vrij lange levens cyclus. Maar misschien heeft het onlangs bekend gemaakte uitstel wel te maken met deze overgang en zullen die wel het eerste eigen product op mass sillicon zijn

(EDIT) Het is dus maar de vraag of de SB 8xx serie van begin af aan ontworpen is voor 32 Nm. Tenminste, het lijkt me dat net als met GPU's je geen hele node kunt verkleinen met het zelfde ontwerp.

[ Voor 28% gewijzigd door Hekking op 31-10-2009 10:13 ]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

Anoniem: 304087

-The_Mask- schreef op vrijdag 30 oktober 2009 @ 19:26:
[...]

Is vooral driver gerelateerd en ze hebben de samenwerking nodig van ATI/AMD en nVidia om het werkend te krijgen en die (of één van de twee) schijnen niet echt heel happig te zijn. ;)
Ook logies van ati/nv
Ik denk persoonlijk dat het niets word met deze chip vanwege de drivers en ati/nv
Ook zal de performance altijd minder zijn dan 2 dezelfde kaarten lijkt mij

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 05-06 21:31
natuurlijk presteren 2 dezelfde kaarten altijd beter, het gaat er juist om dat het mooi is als je een andere kaart KAN combineren. bovendien beloven ze bijna 100% schaling en dit haal je bijna nooit met sli en cf, dus ook niet met 2 dezelfde kaarten.

jij hebt dus 2x 5870: die schijnen met de lucid chip dus nog sneller te worden.

meest belangrijke lijkt me eigenlijk nog de haalbare minimum frames. mooi voorbeeld is 4870 in cf, die zijn vaak sneller dan 1x 5870, maar qua minimum frames heel vaak juist langzamer. ben benieuwd hoe dat gaat met een Lucid chip.....

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
The Flying Dutchman schreef op vrijdag 30 oktober 2009 @ 15:54:
[...]
Om toch nog even terug te komen op de drivers... die drivers moeten ervoor zorgen dat de shader programma's omgezet worden in binaries die op de gpu draaien. Hoewel de shader units van de HD4870 en de HD5870 veel op elkaar lijken, kan het misschien toch wel zo zijn dat de drivers op dit gebied nog steekjes laten vallen. Of misschien zijn het niet de drivers, maar is het meer de game die geoptimaliseerd is voor de HD4870, maar niet voor de HD5870 (maar eerlijk gezegd denk ik dat een shader programma dat het goed doet op een HD4870 het ook gewoon goed zou moeten doen op een HD5870).
De rv870 mist ook een aantal instructies tov de rv770. De integerperformance is wel verhoogd maar hedendaagse games maken daar weinig gebruik van.

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 05-06 15:38

Ultraman

Moderator Harde Waren

Boefje

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 7 8 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!