CJ's Radeon Nieuwsdiscussietopic - Deel 122 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 13 ... 31 Laatste
Acties:
  • 135.134 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 00:44
Jejking schreef op vrijdag 09 december 2011 @ 11:33:
[...]

Doe es ff chill ofzo? :?

Het mag best nog een keertje bekeken worden na al die tijd, zeker in het licht van de concurrentieslag. Average CF gains is inderdaad al een paar keer voorbij gekomen. Ik geloof dat de samenvatting ongeveer was:

nVidia SLi: presteert in veel games out of the box goed, veel profielen. Vrij veel gain. Duurdere kaarten, meer stroomverbruik. Scaling met 3 kaarten erg goed, 4 kaarten ook redelijk.
AMD XF: presteert in minder games out of the box goed, verbetering zichtbaar. Meer gain dan nVidia (vooral bij 2 kaarten met HD6xxx-chip, scaling naar 3 kaarten is minder goed en 4 is gewoon overbodig), iets goedkoper en verstookt een (flink) stukje minder.

Nailed it? Het blijft goed bij nVidia, op de kosten na, en AMD wordt nog steeds wat beter (profielensupport).
Dit klopt ook niet helemaal als je de recentste berichten mag geloven over crossfire scaling sinds de 6xxx-serie zoals ook hier in de conclusie staat.

Stukje uit de conclusie:
CrossFire came out with a huge overall scaling lead over SLI, and removing the one title that didn’t reflect that average would have made the lead even bigger.

Je kan de scaling en de extra fps die je zal kregen gewoon heel moeilijk inschatten elk spel reageert er anders op en zoals je ziet scaled de 6xxx-serie van AMD juist beter dan de kaarten van Nvidia, 3 6950's zijn sneller dan 3 GTX 570's.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is indd waar dat het spel afhankelijk is vandaar ook een ruime 80-100% in de meeste games.
Als ik dan bvb in bf3 50 fps haal is dat met een 2e kaar rond de 80-90 fps avg deze incrase schaald tegenwoorig voor alle games wel dus erug game afhankelijk is het ook niet meer. Dit was wel zo als je nog een paar oudere games er bij gaat pakken dan word het wel weer meer game afhankelijk of als je deze stelling zou vragen enkele jaren terug. Uit ervaring nog met de hd5870cf was de schaling in 9 van de 10 games al 80-100%. Alleen in die tijd met wat oudere games is die schaling veel slechter maar nu zie je bijna geen een game meer waar je schatting dan ver onder of ver boven zal uitsteken.

[ Voor 15% gewijzigd door Verwijderd op 09-12-2011 11:49 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 07:04

Format-C

Tracing Rays

Daar gaan we weer... De oude koeien zijn hun stal/ sloot weer uit?

[ Voor 5% gewijzigd door Format-C op 09-12-2011 12:02 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11:31

D33F

Tweelingtemmer

Mensen.. laten we elkaar a.u.b. als gelijkwaardige mensen blijven behandelen en volwassen met elkaar omgaan. Het geflame begint zelfs mij al de kont uit te hangen terwijl ik hier alleen maar af en toe kom om wat wetenswaardigheden te lezen omtrent de Radeon Serie. Verziek dit topic a.u.b. niet maar laat het zijn waarvoor het bedoeld is.

[ Voor 3% gewijzigd door D33F op 09-12-2011 12:50 ]

Lies are obvious to read because the truth is already written


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Niks aan toe te voegen.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 11:48
Ik lees nu liever dingen over 79xx :/ Als het over Cf daarvan gaat prima.
Ik vermoed, mede vanwege gpgpu, dat de Cf wel goed zal zitten.

Acties:
  • 0 Henk 'm!

Verwijderd

Daarentegen moeten ze wel helemaal vanaf 0 beginnen met de drivers, aangezien de architectuur totaal niet op die van de laatste 3 - 4 generaties lijkt. Of eigenlijk op geen enkele GPU die AMD heeft gemaakt... Ik neem aan dat dat betekent dat er na de launch nog wel wat performance winst te behalen valt, zoals we ook bij VLIW4 kaarten zagen.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 07:04

Format-C

Tracing Rays

Ik denk idd dat de performance die je vlak na launch ziet nog lang niet de performance is die de kaart uiteindelijk zal halen.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
DCG909 schreef op vrijdag 09 december 2011 @ 13:00:
Ik lees nu liever dingen over 79xx :/ Als het over Cf daarvan gaat prima.
Ik vermoed, mede vanwege gpgpu, dat de Cf wel goed zal zitten.
Huh? Deze snap ik niet. GPGPU heeft niets met CFX te maken?
Als er nou eens een gerucht kwam dat er iets als SidePort in zat :P

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 28-09 22:57
Gerucht: 78xx serie bevat "SidePort".

Zoiets? :p

Acties:
  • 0 Henk 'm!

  • NeFoRcE
  • Registratie: Mei 2004
  • Laatst online: 11:35

NeFoRcE

Hallo? Bent u daar?

Ik voel weer een lekker digitaal snijdend sfeertje hier.

Gaat weer goed dus! d:)b top heren!

Verder verdiep ik me tegenwoordig ook steeds meer in de 7XX0 serie. Ben zeer benieuwd wat ie gaat doen. Mede doordat XDR geheugen geschrapt is door dat het erg duur is.

Verder wil ik nog even kwijt dat Tweaker. het wel probeert om weer wat hogerop te komen. Geef hem dan ook die kans, en reageer niet gelijk zo bot, als je denkt dat hij 'weer begint'.

Laat elkaar gewoon een beetje in je waarde. Straks hebben we weer boze modjes, en wordt de veger er weer doorgehaald.

Professioneel Heftruck Syndroom


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 00:07

pino85

Im just a Bird in the Sky

offtopic:
Amen to to that, sommigen hebben er blijkbaar echt moeite mee zich op een respectvolle ( wat voor mij normaal is) manier te gedragen richting anderen of voelen zich op 1 of andere manier zo hoog verheven in de wolken dat ze menen op botte/flame achtige manieren te moeten reageren richting andere leden hier,zeer jammer.
Alsof mods niet meer te doen hebben dan hier politieagent te spelen omdat sommigen er moeite mee hebben zich te gedragen, denk zelf gewoon even logisch na en laat elkaar in de waarde zodat dit topic niet op slot hoeft of zodat mensen niet gebanned hoeven te worden.
En wat het belangrijkste is ga niet modje spelen die functie heb je niet, als je ergens vind dat het te offtopic gaat gbruik de knop linksboven zodat een mod het zal afhandelen, lijkt wel echt moeilijk voor bepaalde personen hier om die knop te vinden?
Format-C schreef op vrijdag 09 december 2011 @ 13:41:
Ik denk idd dat de performance die je vlak na launch ziet nog lang niet de performance is die de kaart uiteindelijk zal halen.
Dat denk ik ook, normaal bij elke serie is na bv een half jaar de performance increase al heel wat procenten hoger door driver updates etc maar ik denk dat bij deze serie dat verschil wel eens wat hoger kan gaan uitvallen.
In mijn omgeving kreeg ik de reactie van ja ik koop dus een kaart waar bv nog 25% meer uit te halen is dus betaal voor een product wat niet af is, enerzijds begrijp ik dat soort uitspattingen wel want het is ook soms vervelend dat een kaart niet direct out of the box beter presteerd.
Maar andere kant , we mogen blij zijn dat AMD achteraf nog hun best doet om er uit te krijgen wat er nog uit te halen valt.

[ Voor 50% gewijzigd door pino85 op 09-12-2011 15:01 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Die discussie hoort gewoon niet hier, punt. Daar hebben we een ervaringentopic voor. Bovendien was Reinman in dat draadje ook al duidelijk genoeg..

Acties:
  • 0 Henk 'm!

  • NeFoRcE
  • Registratie: Mei 2004
  • Laatst online: 11:35

NeFoRcE

Hallo? Bent u daar?

pino85 schreef op vrijdag 09 december 2011 @ 14:51:
offtopic:
offtopic tekstje...


[...]

Dat denk ik ook, normaal bij elke serie is na bv een half jaar de performance increase al heel wat procenten hoger door driver updates etc maar ik denk dat bij deze serie dat verschil wel eens wat hoger kan gaan uitvallen.
In mijn omgeving kreeg ik de reactie van ja ik koop dus een kaart waar bv nog 25% meer uit te halen is dus betaal voor een product wat niet af is, enerzijds begrijp ik dat soort uitspattingen wel want het is ook soms vervelend dat een kaart niet direct out of the box beter presteerd.
Maar andere kant , we mogen blij zijn dat AMD achteraf nog hun best doet om er uit te krijgen wat er nog uit te halen valt.
Ik denk eerder dat ie bedoeld dat er vele varianten uitkomen van de kaart. En dat er nogal veel brands 'm gaan overclocken. De eerste modellen zijn vaak niet het snelst. Nu nog komen er bijvoorbeeld kaarten van de 560TI uit, die sneller zijn dan ooit.

Professioneel Heftruck Syndroom


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

iemand een gokje doen naar de memory bandwidth?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
neliz schreef op vrijdag 09 december 2011 @ 15:03:
iemand een gokje doen naar de memory bandwidth?
Voor welke kaart? ;)

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 00:07

pino85

Im just a Bird in the Sky

NeFoRcE schreef op vrijdag 09 december 2011 @ 15:02:
[...]


Ik denk eerder dat ie bedoeld dat er vele varianten uitkomen van de kaart. En dat er nogal veel brands 'm gaan overclocken. De eerste modellen zijn vaak niet het snelst. Nu nog komen er bijvoorbeeld kaarten van de 560TI uit, die sneller zijn dan ooit.
Oh ja dat zou ook kunnen inderdaad!
Naja beiden kan wat dat betreft denk ik wel correct zijn ;)
neliz schreef op vrijdag 09 december 2011 @ 15:03:
iemand een gokje doen naar de memory bandwidth?
Gokje wagen altijd, welke kaart gaat het over?

[ Voor 18% gewijzigd door pino85 op 09-12-2011 15:15 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

pino85 schreef op vrijdag 09 december 2011 @ 15:15:

Gokje wagen altijd, welke kaart gaat het over?
welke denk je?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 11:24
ATi Rage XL? :+

Gekke gok; 64bits of 128bits per geheugenchip? nvm, verkeerd gelezen :F

[ Voor 19% gewijzigd door NitroX infinity op 09-12-2011 15:34 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Voor de HD7970 zet ik, zonder enige verklaring waarom, in op 250 GB s-1, om maar wat te noemen ;)

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

3XPER7 schreef op vrijdag 09 december 2011 @ 15:32:
[...]


Voor de HD7970 zet ik, zonder enige verklaring waarom, in op 250 GB s-1, om maar wat te noemen ;)
je komt al aardig in de buurt ;)

tevens niet 128

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
neliz schreef op vrijdag 09 december 2011 @ 15:34:
[...]


je komt al aardig in de buurt ;)
Hmm, er vanuitgaand dat ik iets hoger moet schatten, dwaalt het volgende getal door m'n hoofd: 264 GB s-1




Na wat getallen ingetikt te hebben op m'n rekenmachine kom ik daar ook nog eens in de buurt uit: uitgaande van de bandbreedte van de HD6970 op een 256-bits bus: 176 GB s-1 en uitgaande van de hint naar de 384-bits bus op de HD7900 kaarten volgt bij mij de simpele, doch grappige berekening:

176 / 256 * 384 = 264 GB s-1

Nu is het alleen even afwachten of deze schatting klopt.. :9 (ervan uitgaand dat het geheugen gelijk geclocked is..)

[ Voor 46% gewijzigd door Fid3lity op 09-12-2011 15:47 ]


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 11:24
Was die 3-8-4 hint daar soms op gedoeld? 384GB/sec?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Joenino
  • Registratie: November 2011
  • Laatst online: 02-10 15:38
Iemand al enig idee of deze ook daadwerkelijk in januari gereleased gaan worden? Daar bedoel ik dan de desktop variant mee van de 7xxx serie. Ben namelijk toe aan een nieuwe kaart en me oog was gevallen (met wat hulp) op de gunstig geprijsde 6950 maar als ik zo lees op het grote web zou de 7950 ook rond de zelfde prijs gereleased worden (350 dollar = +- 260 euro).

Iemand al enig idee?

Lian Li OI11 - Ryzen 9 5900x - 32GB DDR 4 - RX9070XT


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 08:48
NitroX infinity schreef op vrijdag 09 december 2011 @ 15:35:
Was die 3-8-4 hint daar soms op gedoeld? 384GB/sec?
250 is niet echt in de buurt van 384, dat is een factor 1,5 :P

Sowieso moet je geheugen op 8000MHz lopen icm met een 384bit geheugenbus om 384GB/s aan bandbreedte te halen :)

Acties:
  • 0 Henk 'm!

  • NeFoRcE
  • Registratie: Mei 2004
  • Laatst online: 11:35

NeFoRcE

Hallo? Bent u daar?

Not even close heren....

576 GB/s and counting

http://folkwayse.blogspot...on-hd-7990-disclosed.html

" the memory bandwidth of Radeon HD 7990 will number an outstanding 576GB/s, "

Die waarden heb ik al veel vaker gezien....

Professioneel Heftruck Syndroom


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 27-07 13:15
NeFoRcE schreef op vrijdag 09 december 2011 @ 15:41:
Not even close heren....

576 GB/s and counting

http://folkwayse.blogspot...on-hd-7990-disclosed.html

" the memory bandwidth of Radeon HD 7990 will number an outstanding 576GB/s, "

Die waarden heb ik al veel vaker gezien....
576 (HD7990) / 2 = 288 (HD7970)

Zou zomaar kunnen kloppen...

specs


Acties:
  • 0 Henk 'm!

  • Marce
  • Registratie: Oktober 2007
  • Laatst online: 31-07 11:30

Marce

Het is Marc met een C!

NeFoRcE schreef op vrijdag 09 december 2011 @ 15:41:
Not even close heren....

576 GB/s and counting

http://folkwayse.blogspot...on-hd-7990-disclosed.html

" the memory bandwidth of Radeon HD 7990 will number an outstanding 576GB/s, "

Die waarden heb ik al veel vaker gezien....
Je weet dat het daar om een dual gpu card gaat? En dan nog lijken die waardes erg hoog gegrepen. Dat zou neerkomen op 288 GB/s.


Ik was toevallig wat op de wikipedia aan het spitten (naar aanleiding van de rage comment) en kwam daardoor hierbij: HD7xxx op wiki

Ik denk dat dat wel aardig reeele waardes zijn, al heb ik werkelijk geen idee waar ze het vandaan hebben aangezien de bron mist :S
(komt wel die 264 weer terug, hoe je daar ook aan komt ;))

Edit: ja ik weet dat wikipedia totaal onbetrouwbaar is, maar in dit geval zijn alle bronnen nog onbetrouwbaar O-)

Edit2: Je berekening zie ik nu pas, wel toevallig :D

[ Voor 7% gewijzigd door Marce op 09-12-2011 15:52 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Marce schreef op vrijdag 09 december 2011 @ 15:47:
[...]

(komt wel die 264 weer terug, hoe je daar ook aan komt ;))
Haha, #baas :P (m'n berekening staat er trouwens bij)

// en nee, ik ben geen Wikipedia contributor :+

[ Voor 18% gewijzigd door Fid3lity op 09-12-2011 15:50 ]


Acties:
  • 0 Henk 'm!

Verwijderd

neliz schreef op vrijdag 09 december 2011 @ 15:03:
iemand een gokje doen naar de memory bandwidth?
Dat is niet zo moeilijk.... 176 * 1.5 = 264 GB/s :P Hoewel dit misschien wat optimistisch is: Met meer geheugen zal er meer energie nodig zijn voor de geheugenchips, waardoor deze misschien wat lager moeten worden geklokt...

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Op zich is die 288GB/s helemaal zo gek nog niet. Bij een 384-bit bus heb je dan 1500MHz gDDR5 nodig. Dat is 125MHz meer dan de HD6970, maar we zijn ondertussen ruim een jaar verder en de ontwikkeling op geheugengebied heeft natuurlijk ook niet stil gestaan.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Ik heb het goede antwoord al voorbij zien komen, en dat was niet 576 GB/s :)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:18
NeFoRcE schreef op vrijdag 09 december 2011 @ 15:41:
Not even close heren....

576 GB/s and counting

http://folkwayse.blogspot...on-hd-7990-disclosed.html

" the memory bandwidth of Radeon HD 7990 will number an outstanding 576GB/s, "

Die waarden heb ik al veel vaker gezien....
What the.. 3200 stream processors voor een 7970???

erutangiS


Acties:
  • 0 Henk 'm!

Verwijderd

Ja, en meer geheugen en een dikkere bus en "GDDR5+" en dan ook nog eens een lager TDP. 8)7

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
En niet te vergeten, hij kan ook opstijgen.

Acties:
  • 0 Henk 'm!

Verwijderd

Volgens mij was deze nog niet voorbij gekomen :)

http://www.ozone3d.net/pu...n-hd7970-crossfire-01.jpg

Acties:
  • 0 Henk 'm!

  • roy-t
  • Registratie: Oktober 2004
  • Laatst online: 19-09 10:19
Nou zo te zien kun je iig 2x een HD7970 plus de rest van een systeem draaien met een 850W voeding dus dat valt alweer mee :)

~ Mijn prog blog!


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
had iemand ook dan iets anders verwacht? Vergeet iedereen weer dat we 32nm over hebben geslagen? We hebben vrij veel marge voor een erg laag tdp en/of hoog performance increase.
Misschien word het effect van shrinken steeds minder geleidelijk maar zo ver ik weet was dat nog niet aan de orde voor de shrink van 55 naar 40.

Acties:
  • 0 Henk 'm!

  • NeFoRcE
  • Registratie: Mei 2004
  • Laatst online: 11:35

NeFoRcE

Hallo? Bent u daar?

Als ie inderdaad de specs bevatten als wat in de link staat wat ik hierboven postte, dan hebben we hier te maken met jawel, een baas der bazen kaart!

Professioneel Heftruck Syndroom


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Stel dat de 288GB/s bandbreedte van het geheugen klopt (1500MHz gDDR5 op een 384-bit bus) en de verhouding geheugenbandbreedte/SPU's blijft ongeveer gelijk, aangezien het goed op elkaar is afgestemd, dan kom ik met wat rekenwerk uit op 40 clusters van 64 SPU's, wat een totaal maakt van 2560 SPU's voor een HD7970. Daarbij ga ik er overigens van uit dat de kloksnelheid van de SPU's niet drastisch omhoog gaat, dus rond die 880MHz zal blijven hangen.

Het is en blijft natuurlijk nattevingerwerk, maar als je wat gaat rekenen, dan zie je al snel dat AMD zijn kaarten een bepaalde Flops/bandbreedte verhouding meegeeft.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
roy-t schreef op vrijdag 09 december 2011 @ 23:26:
Nou zo te zien kun je iig 2x een HD7970 plus de rest van een systeem draaien met een 850W voeding dus dat valt alweer mee :)
Tja een kaart welke onder de 225W verbruikt zal met zijn tweeën idd op een TX850V2 werken, ook op minder trouwens.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dirkjesdirk
  • Registratie: Oktober 2001
  • Laatst online: 01-10 13:45
neliz schreef op vrijdag 09 december 2011 @ 19:27:
Ik heb het goede antwoord al voorbij zien komen, en dat was niet 576 GB/s :)
264 GB/s dus.

Of toch nog 288
neliz schreef op vrijdag 09 december 2011 @ 15:34:
[...]


je komt al aardig in de buurt ;)

tevens niet 128
Nee dus

[ Voor 32% gewijzigd door dirkjesdirk op 10-12-2011 00:37 ]

Grootgebruiker van MS Word. Maar het wordt nooit perfect...


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
Lol, zien jullie ook wat er op de geheugen reepjes staat?

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
*O*

* Fid3lity heeft een innerlijk feestje :9

Acties:
  • 0 Henk 'm!

Verwijderd

NeFoRcE schreef op vrijdag 09 december 2011 @ 23:48:
Als ie inderdaad de specs bevatten als wat in de link staat wat ik hierboven postte, dan hebben we hier te maken met jawel, een baas der bazen kaart!
Hij zal best een stuk sneller zijn dan de huidige generatie, maar die gegevens in die link zijn simpelweg onwaarschijnlijk... Houd er rekening mee dat GCN minder "dense" is dan VLIW4 & 5 (minder shaders per mm2), het voor het eerst in jaren om een echt nieuwe architectuur gaat en 28 nm ook nog eens onbeproefd is.

Op de plaatjes lijkt het zo te zijn dat Tahiti net iets groter is dan Cayman. De 384 bits bus gaat behoorlijk wat ruimte in nemen, ik neem aan dat er meer cache op komt etc. - zou er dan echt nog ruimte zijn voor 2 x zo veel shaders, als deze van de GCN architectuur zijn? Zelfs met 28 nm lijkt me dat onwaarschijnlijk, al helemaal als het TDP ook nog eens lager zou zijn. Daarnaast heb ik nog nooit termen als GDDR5+ langs zien komen :P Het doet mij persoonlijk een beetje als fantasie verhaal aan. Waarschijnlijk is 3200 GCN shaders sowieso wat overkill, ze zouden immers een stuk beter benut moeten worden dan VLIW4 shaders.

Maar goed. Ik zal niet zeggen dat het echt onmogelijk is. ;)

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 08:52
Van 40nm naar 28nm is in oppervlak wel een factor 2.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat ding moet straks wel 2 keer zo snel zijn of moet alles ik het allemaal zo lees komt het er wel in de buurt. Hadden we maar wat benchmarks dan konden we zien hoe snel de hd7970 zal zijn.

Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:18
tomcatha schreef op vrijdag 09 december 2011 @ 23:39:
had iemand ook dan iets anders verwacht? Vergeet iedereen weer dat we 32nm over hebben geslagen? We hebben vrij veel marge voor een erg laag tdp en/of hoog performance increase.
Misschien word het effect van shrinken steeds minder geleidelijk maar zo ver ik weet was dat nog niet aan de orde voor de shrink van 55 naar 40.
ze gaan van halfnode 40 naar halfnode 28, dat is gewoon een stap kleiner en zie ik zelf niet als iets overslaan.

erutangiS


Acties:
  • 0 Henk 'm!

Verwijderd

MrOleo schreef op zaterdag 10 december 2011 @ 11:51:
[...]
ze gaan van halfnode 40 naar halfnode 28, dat is gewoon een stap kleiner en zie ik zelf niet als iets overslaan.
32nm is geschrapt, was wel gepland (Orginele SI). Dus ze slaan een fullnode over.

Acties:
  • 0 Henk 'm!

Verwijderd

mitsumark schreef op zaterdag 10 december 2011 @ 11:11:
Van 40nm naar 28nm is in oppervlak wel een factor 2.
Jep... Met ~2 x zo veel shaders die meer ruimte in nemen, een dikkere bus, meer cache, andere fancy features van GCN etc. lijkt me dat persoonlijk dus krap. ;) Maar laten we het er maar op houden dat er nog geen officiele info beschikbaar is op dit moment, slechts allerlei geruchten. Alleen de 384 bits bus lijkt vrij zeker te zijn.
Verwijderd schreef op zaterdag 10 december 2011 @ 11:20:
Dat ding moet straks wel 2 keer zo snel zijn of moet alles ik het allemaal zo lees komt het er wel in de buurt. Hadden we maar wat benchmarks dan konden we zien hoe snel de hd7970 zal zijn.
Nou ja, 2x zoveel shaders geeft zeker niet 2x zo veel performance, scaling is niet perfect en er zijn ook anderebottlenecks die het trager maken, of nieuwe features. De HD5870 was ook slechts iets van 50% sneller dan de HD4870, terwijl er wel 2x zo veel shaders op zaten.

Voor benchmarks die we echt kunnen vertrouwen moeten we tot de launch wachten, vrees ik... Bij de HD6xxx serie dacht men ook tot de launch dat het een monster GPU was. Pas toen werd echt duidelijk hoe de vork in de steel zat (niet dat het een slechte GPU is overigens ;) Maar niet wat men verwachtte).

[ Voor 46% gewijzigd door Verwijderd op 10-12-2011 11:58 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 10 december 2011 @ 11:52:
[...]


Jep... Met ~2 x zo veel shaders die meer ruimte in nemen, een dikkere bus, meer cache, andere fancy features van GCN etc. lijkt me dat persoonlijk dus krap. ;) Maar laten we het er maar op houden dat er nog geen officiele info beschikbaar is op dit moment, slechts allerlei geruchten. Alleen de 384 bits bus lijkt vrij zeker te zijn.


[...]


Nou ja, 2x zoveel shaders geeft zeker niet 2x zo veel performance, scaling is niet perfect en er zijn ook anderebottlenecks die het trager maken, of nieuwe features. De HD5870 was ook slechts iets van 50% sneller dan de HD4870, terwijl er wel 2x zo veel shaders op zaten.

Voor benchmarks die we echt kunnen vertrouwen moeten we tot de launch wachten, vrees ik... Bij de HD6xxx serie dacht men ook tot de launch dat het een monster GPU was. Pas toen werd echt duidelijk hoe de vork in de steel zat (niet dat het een slechte GPU is overigens ;) Maar niet wat men verwachtte).
Niet alleen door de shaders en transistors maar ook door de verkleining waar door je hogere klocks kunt berijken. Ik zeg maar wat :P Het klinkt verder allemaal wel te mooi om waar te zijn maar eerst maar eens afwachten tot wat echts O-)

Acties:
  • 0 Henk 'm!

Verwijderd

Hoe komt het eigenlijk dat AMD zo matig presteert in BF3 met MSAA aan?

Zonder MSAA presteren de kaarten in vergelijking met de Nvidia tegenhangers uitstekend, maar dat verandert dus volkomen zodra MSAA geactiveerd wordt.

AMD adviseert dan ook om alleen FXAA te gebruiken (notabene een Nvidia uitvinding), maar FXAA doet gewoon lang niet wat MSAA doet.

Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:18
Verwijderd schreef op zaterdag 10 december 2011 @ 11:51:
[...]

32nm is geschrapt, was wel gepland (Orginele SI). Dus ze slaan een fullnode over.
Tja ik zie dat als ipv een halve stap zetten een halve stap extra zetten (hele stap) en niet als overslaan. Zeg maar hetzelfde als dat Intel geen nodes overslaat: 90 (80) -> 65 (55) -> 45 (40) -> 32 (28) -> 22 full (half)

erutangiS


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
Aan de hand van de gelekte afbeeldingen wordt de die grote geschat op 380~420 mm2.
Ter vergelijk de cayman van de HD6900 is +/-380 mm2.

Maar ja, het schijnt een gezegde te zijn dat een nieuwe argitectuur ontwikkelen gelijk staat aan russish roulet...
Dus we weten nogsteeds niets, alhoewel Apple het wel ziet zitten:
http://nl.hardware.info/n...ft-een-radeon-hd-7000-gpu

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Toettoetdaan schreef op zaterdag 10 december 2011 @ 17:45:
Aan de hand van de gelekte afbeeldingen wordt de die grote geschat op 380~420 mm2.
Ter vergelijk de cayman van de HD6900 is +/-380 mm2.

Maar ja, het schijnt een gezegde te zijn dat een nieuwe argitectuur ontwikkelen gelijk staat aan russish roulet...
Dus we weten nogsteeds niets, alhoewel Apple het wel ziet zitten:
http://nl.hardware.info/n...ft-een-radeon-hd-7000-gpu
Als dat zo is is het een grote GPU. Het zegt inderdaad niets over de performance. Maar het lijkt me wel duidelijk dat AMD voor performance gaat gezien de die size. Small die is dus weer een beetje van de kaart :) Het zit er nu tussen in. (tussen wat nVidia doet en waar ze met de HD48xx zaten).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Astennu schreef op zaterdag 10 december 2011 @ 18:03:
[...]


Als dat zo is is het een grote GPU. Het zegt inderdaad niets over de performance. Maar het lijkt me wel duidelijk dat AMD voor performance gaat gezien de die size. Small die is dus weer een beetje van de kaart :) Het zit er nu tussen in. (tussen wat nVidia doet en waar ze met de HD48xx zaten).
Vergeet niet dat er heel wat transistorbudget opgaat aan het "compute" gedeelte, die size zegt dus idd niets over performance.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
neliz schreef op zaterdag 10 december 2011 @ 18:06:
[...]


Vergeet niet dat er heel wat transistorbudget opgaat aan het "compute" gedeelte, die size zegt dus idd niets over performance.
Ja dat is ook waar.... Eigenlijk zonder die compute meuk. Wordt nog amper gebruikt. En neemt veel die space in gebruik. Ze moeten het eigenlijk zo maken dat dat ook gebruikt wordt in games. Zo dat die Die space niet "verloren" gaat.

Ik koop een VGA kaart om mee te gamen. Als ik veel reken werk wil doen wil ik best een losse "compute" kaart kopen. Als je je gfx kaart kunt gebruiken om dan toch dingen uit te rekenen prima.
Maar meer betalen voor dingen die ik niet gebruik houd ik niet zo van. Net als die On die GPU's. Leuk maar ik gebruik ze toch niet. Low end cpu's met on die GPU prima. Maar mid range vind ik het al niet meer nuttig voor. Dan wil je toch al een dedicated kaart hebben voor performance.

Maar goed straks hebben we het misschien niet eens meer over een CPU en GPU en is het gewoon een geheel geworden en werken ze nou samen. Who knows... :)

[ Voor 40% gewijzigd door Astennu op 10-12-2011 19:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 29-09 19:02
Verwijderd schreef op zaterdag 10 december 2011 @ 16:20:
Hoe komt het eigenlijk dat AMD zo matig presteert in BF3 met MSAA aan?

Zonder MSAA presteren de kaarten in vergelijking met de Nvidia tegenhangers uitstekend, maar dat verandert dus volkomen zodra MSAA geactiveerd wordt.
Lijkt me een kwestie van optimalisatie, Nvidia besteedt over het algemeen meer aandacht aan Anti-aliasing dan AMD. Heb sinds vorig jaar geen AMD drivers meer gebruikt, maar kwa AA-opties heeft Nvidia toch een behoorlijk streepje voor. Functionaliteit zoals DX10 (Rotated-grid) Supersampling, (32x) CSAA, "Enhance" anti-aliasing overrides, heb ik in ieder geval niet gezien in de drivers van AMD.

Hetzelfde is te zien met anisotropic filteren, en dan voornamelijk wat betreft de kwaliteit, pas sinds de laatste paar generaties heeft AMD daar wat meer aandacht aan besteedt, waardoor ze nu redelijk vergelijkbaar zijn.

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
SirNobax schreef op zaterdag 10 december 2011 @ 19:09:
[...]

Lijkt me een kwestie van optimalisatie, Nvidia besteedt over het algemeen meer aandacht aan Anti-aliasing dan AMD. Heb sinds vorig jaar geen AMD drivers meer gebruikt, maar kwa AA-opties heeft Nvidia toch een behoorlijk streepje voor. Functionaliteit zoals DX10 (Rotated-grid) Supersampling, (32x) CSAA, "Enhance" anti-aliasing overrides, heb ik in ieder geval niet gezien in de drivers van AMD.

Hetzelfde is te zien met anisotropic filteren, en dan voornamelijk wat betreft de kwaliteit, pas sinds de laatste paar generaties heeft AMD daar wat meer aandacht aan besteedt, waardoor ze nu redelijk vergelijkbaar zijn.
Dat zou ik niet zeggen. AMD ondersteund genoeg AA modes die nVidia weer helemaal niet heeft. Ze hebben een andere aanpak. Maar ik kan niet zeggen dat het eind resultaat zo veel slechter is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

MrOleo schreef op zaterdag 10 december 2011 @ 16:34:
[...]


Tja ik zie dat als ipv een halve stap zetten een halve stap extra zetten (hele stap) en niet als overslaan. Zeg maar hetzelfde als dat Intel geen nodes overslaat: 90 (80) -> 65 (55) -> 45 (40) -> 32 (28) -> 22 full (half)
Niet om de stappen, maar het is wel overgeslagen. Gezien het wel in de planning heeft gestaan. 32nm is geschrapt door TSMC, terwijl AMD/ATI wel producten daar op zou gaan maken.

Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:18
Het ging mij in mijn originele opmerking dan ook niet om planning, maar om de verwachte verbetering van performance door de dieshrink (waar ik op reageerde), welke niet veel anders is dan 2900 -> 4800 en 4800 -> 5800, de 3800 even buiten beschouwing latende.

erutangiS


Acties:
  • 0 Henk 'm!

Verwijderd

MrOleo schreef op zaterdag 10 december 2011 @ 20:03:
Het ging mij in mijn originele opmerking dan ook niet om planning, maar om de verwachte verbetering van performance door de dieshrink (waar ik op reageerde), welke niet veel anders is dan 2900 -> 4800 en 4800 -> 5800, de 3800 even buiten beschouwing latende.
4800 naar 5800 is 55nm naar 40nm, dus een halve node met niets er tussen. 6900 naar 7900 is 40 nm naar 28nm met 32nm process er nog tussen. 2900 was 80nm, maar de rest van de serie was 65nm, wat later naar 55nm ging in de 3 en 4 serie. Dus daar zit wel een node tussen.

[ Voor 10% gewijzigd door Verwijderd op 10-12-2011 20:22 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
3XPER7 schreef op zaterdag 10 december 2011 @ 01:43:
* madmaxnl heeft een innerlijk feestje :9
offtopic:
Ik zie de pick-up line al voor me; "hé meisje, zal ik jou eens een innerlijk feestje geven"...

Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:18
Verwijderd schreef op zaterdag 10 december 2011 @ 20:13:
[...]

4800 naar 5800 is 55nm naar 40nm, dus een halve node met niets er tussen. 6900 naar 7900 is 40 nm naar 28nm met 32nm process er nog tussen. 2900 was 80nm, maar de rest van de serie was 65nm, wat later naar 55nm ging in de 3 en 4 serie. Dus daar zit wel een node tussen.
Ter info:
Full nodes: 90, 65, 45, 32, 22
Respectievelijke half nodes: 80, 55, 40, 28.

[ Voor 7% gewijzigd door MrOleo op 10-12-2011 21:33 ]

erutangiS


Acties:
  • 0 Henk 'm!

Verwijderd

Maar dan nog heb ik daar gelijk, tussen 48 en 58 zit niets tussen en tussen 6900 en 7900 wel (32nm). Zoals tussen 2900 en 4800 ook een note zit (65nm). Mijn verwoording was gewoon wat slecht. En als je de 2900 vergelijkt met de 4800 vergelijkt... dan is de 4870 toch een heel stuk beter dan de 2900XTX. Nu was de 2900XTX ook niet echt een hele goeie serie voor ATI.

[ Voor 42% gewijzigd door Verwijderd op 10-12-2011 21:46 ]


Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:18
Als tussen 40 en 55 niks zit, wat is mijn 45nm cpu dan? een spook? (Of Ati ooit op 45nm iets heeft gepland, is hierbij overigens niet relevant, om dat argument maar voor te zijn)

Laat ik mijn punt eens in oppervlaktes proberen uit te leggen, ik negeer even de 3870 (eigenlijk niet veel meer dan een geshrinkte 2900).

2900 -> 4800 = 80 -> 55nm = 3025/6400 ongeveer de helft kleiner
4800 -> 5800 = 55 -> 40nm =1600/3025 ongeveer de helft kleiner
6900 -> 7900 = 40 -> 28nm = 784/1600 ongeveer de helft kleiner

ter vergelijking: 40 -> 32nm = 1024/1600 = ongeveer 2/3 kleiner
Dus mijn punt was: de shrink is niet veel anders dan eerdere shrinks

erutangiS


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 10-09 13:50

yzx

MrOleo schreef op zaterdag 10 december 2011 @ 22:21:
Als tussen 40 en 55 niks zit, wat is mijn 45nm cpu dan? een spook? (Of Ati ooit op 45nm iets heeft gepland, is hierbij overigens niet relevant, om dat argument maar voor te zijn)
Dat hadden ze toch gewoon geskipt die 40nm

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
MrOleo schreef op zaterdag 10 december 2011 @ 22:21:
Als tussen 40 en 55 niks zit, wat is mijn 45nm cpu dan? een spook? (Of Ati ooit op 45nm iets heeft gepland, is hierbij overigens niet relevant, om dat argument maar voor te zijn)

Laat ik mijn punt eens in oppervlaktes proberen uit te leggen, ik negeer even de 3870 (eigenlijk niet veel meer dan een geshrinkte 2900).

2900 -> 4800 = 80 -> 55nm = 3025/6400 ongeveer de helft kleiner
4800 -> 5800 = 55 -> 40nm =1600/3025 ongeveer de helft kleiner
6900 -> 7900 = 40 -> 28nm = 784/1600 ongeveer de helft kleiner

ter vergelijking: 40 -> 32nm = 1024/1600 = ongeveer 2/3 kleiner
Dus mijn punt was: de shrink is niet veel anders dan eerdere shrinks
45nm bestaat wel maar is nooit voor GPU's gebruikt. Zowel AMD als intel hebben hier veel gebruik van gemaakt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 09-07 02:45
Astennu schreef op zaterdag 10 december 2011 @ 19:04:
Ik koop een VGA kaart om mee te gamen. Als ik veel reken werk wil doen wil ik best een losse "compute" kaart kopen. Als je je gfx kaart kunt gebruiken om dan toch dingen uit te rekenen prima.
Maar meer betalen voor dingen die ik niet gebruik houd ik niet zo van. Net als die On die GPU's. Leuk maar ik gebruik ze toch niet. Low end cpu's met on die GPU prima. Maar mid range vind ik het al niet meer nuttig voor. Dan wil je toch al een dedicated kaart hebben voor performance.
Je vergeet wel even dat compute en gaming performance niet noodzakelijk twee verschillende dingen hoeven te zijn. Dat is momenteel in veel gevallen nog wel zo dankzij de vele DX 9 console ports maar in de toekomst zal dat niet langer het geval zijn. Zeker na de release van de volgende generatie consoles. Compute performance zal belangrijk worden in DX 11+ games en het kan interessante nieuwe ontwikkelingen teweeg brengen (net als de stap van de fixed-function pipeline (DX7) naar de programmable rendering pipeline (shaders, DX8+)) :) . Ik zou het dus zeker niet als negatief zien.

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Hyperz schreef op zaterdag 10 december 2011 @ 22:59:
[...]


Je vergeet wel even dat compute en gaming performance niet noodzakelijk twee verschillende dingen hoeven te zijn. Dat is momenteel in veel gevallen nog wel zo dankzij de vele DX 9 console ports maar in de toekomst zal dat niet langer het geval zijn. Zeker na de release van de volgende generatie consoles. Compute performance zal belangrijk worden in DX 11+ games en het kan interessante nieuwe ontwikkelingen teweeg brengen (net als de stap van de fixed-function pipeline (DX7) naar de programmable rendering pipeline (shaders, DX8+)) :) . Ik zou het dus zeker niet als negatief zien.
Dat vergeet ik helemaal niet. Maar ik realiseer me ook dat alle DX11 games die er al wel zijn die extra die space niet benutten. OF ik vraag me af hoe lang we daar op moeten gaan wachten. Ik gok dat ik tegen die tijd wel weer 2-3 andere video kaarten heb gehad.
Ik zie het wel als negatief als het verbruik omhoog gaat. De die space omhoog gaat en dus de kosten voor de consument omhoog gaat terwijl ik er geen frame per seconde voor bij krijg. Maar wel bv sneller mijn video's kan transcoden. Daar koop ik geen video kaart voor. Als ik dat wil koop ik wel een snellere cpu. Ik vind het goed dat er ontwikkeling in plaats vind. Maar ze moeten er niet in door schieten. Het moeten nog wel GPU's blijven die ook super snel zijn in games. Anders ben ik er voor om het lost te koppelen. Een Compute GPU en een GPU voor super game performance.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
Astennu schreef op zondag 11 december 2011 @ 00:58:
[...]


Dat vergeet ik helemaal niet. Maar ik realiseer me ook dat alle DX11 games die er al wel zijn die extra die space niet benutten. OF ik vraag me af hoe lang we daar op moeten gaan wachten. Ik gok dat ik tegen die tijd wel weer 2-3 andere video kaarten heb gehad.
Ik zie het wel als negatief als het verbruik omhoog gaat. De die space omhoog gaat en dus de kosten voor de consument omhoog gaat terwijl ik er geen frame per seconde voor bij krijg. Maar wel bv sneller mijn video's kan transcoden. Daar koop ik geen video kaart voor. Als ik dat wil koop ik wel een snellere cpu. Ik vind het goed dat er ontwikkeling in plaats vind. Maar ze moeten er niet in door schieten. Het moeten nog wel GPU's blijven die ook super snel zijn in games. Anders ben ik er voor om het lost te koppelen. Een Compute GPU en een GPU voor super game performance.
Tja, ik ga er een beetje vanuit dat de HD7970 BF3 met alles op max, op een monitor van 2560x1600 gewoon rond de 60FPS zit.

Als de game's de GPU's niet meer op de knietjes dringt dan moet je een weg vinden waarmee extra performance nog wel nuttig is. Het voelt een beetje krom, maar het is de toekomst en die moet je voor zijn om er geld mee te verdienen.

Alhoewel een compute GPU en een game GPU? GCN vs VLIW4+ ... Wie weet ;)

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 10-09 13:50

yzx

Toettoetdaan schreef op zondag 11 december 2011 @ 01:55:
[...]

Tja, ik ga er een beetje vanuit dat de HD7970 BF3 met alles op max, op een monitor van 2560x1600 gewoon rond de 60FPS zit.

Als de game's de GPU's niet meer op de knietjes dringt dan moet je een weg vinden waarmee extra performance nog wel nuttig is. Het voelt een beetje krom, maar het is de toekomst en die moet je voor zijn om er geld mee te verdienen.

Alhoewel een compute GPU en een game GPU? GCN vs VLIW4+ ... Wie weet ;)
Jij droomt ook wel lekker door soms he 8) :z


Gaat dat geen problemen krijgen qua drivers een compute/game GPU samen ...?


Edit: meest epische typfout

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 09-07 02:45
Astennu schreef op zondag 11 december 2011 @ 00:58:
[...]


Dat vergeet ik helemaal niet. Maar ik realiseer me ook dat alle DX11 games die er al wel zijn die extra die space niet benutten. OF ik vraag me af hoe lang we daar op moeten gaan wachten. Ik gok dat ik tegen die tijd wel weer 2-3 andere video kaarten heb gehad.
Ik zie het wel als negatief als het verbruik omhoog gaat. De die space omhoog gaat en dus de kosten voor de consument omhoog gaat terwijl ik er geen frame per seconde voor bij krijg. Maar wel bv sneller mijn video's kan transcoden. Daar koop ik geen video kaart voor. Als ik dat wil koop ik wel een snellere cpu. Ik vind het goed dat er ontwikkeling in plaats vind. Maar ze moeten er niet in door schieten. Het moeten nog wel GPU's blijven die ook super snel zijn in games. Anders ben ik er voor om het lost te koppelen. Een Compute GPU en een GPU voor super game performance.
Bron? O.a. Dirt 3 en BF3 maken gebruik van Direct Compute. Verder is dit momenteel nog een beetje een kip & ei verhaal. Vergeet ook niet dat tot nu toe het enkel nVidia was dat zich op GPGPU gefocust heeft. Eens DirectX 11 _de_ standaard wordt ga je hier wel meer van gaan merken. Je hebt wel gelijk dat het op dit moment niet veel nut heeft maar het moet ergens beginnen toch? Kijk naar DirectX 9; released in 2002 maar het was pas met de komst van games als Doom 3 en FarCry (en nog eens na de komst van de ps3/360) dat het zijn vruchten ging afwerpen en er plots een grote sprong in grafische kwaliteit kwam.

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Waarom posten jullie / verwachten jullie trouwens van die gigantische shader aantallen?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:18
Verwachten, absoluut niet.
Posten, omdat dat in die link stond, ik dacht ik post het even, want het staat mooi,
http://folkwayse.blogspot...on-hd-7990-disclosed.html

[ Voor 8% gewijzigd door MrOleo op 11-12-2011 10:45 ]

erutangiS


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Toettoetdaan schreef op zondag 11 december 2011 @ 01:55:
[...]

Tja, ik ga er een beetje vanuit dat de HD7970 BF3 met alles op max, op een monitor van 2560x1600 gewoon rond de 60FPS zit.

Als de game's de GPU's niet meer op de knietjes dringt dan moet je een weg vinden waarmee extra performance nog wel nuttig is. Het voelt een beetje krom, maar het is de toekomst en die moet je voor zijn om er geld mee te verdienen.

Alhoewel een compute GPU en een game GPU? GCN vs VLIW4+ ... Wie weet ;)
Er zijn meer games dan alleen BF3 :P En we hebben altijd nog dingen als AA en AF die aan kunnen. Nu moet ik die toch wel uit laten om lekkere FTS te hebben met een HD6970 OC op die reso. Er zit zeker vooruitgang in want eerst had je gewoon CF nodig om dat voor elkaar te krijgen.
Hyperz schreef op zondag 11 december 2011 @ 02:09:
[...]


Bron? O.a. Dirt 3 en BF3 maken gebruik van Direct Compute. Verder is dit momenteel nog een beetje een kip & ei verhaal. Vergeet ook niet dat tot nu toe het enkel nVidia was dat zich op GPGPU gefocust heeft. Eens DirectX 11 _de_ standaard wordt ga je hier wel meer van gaan merken. Je hebt wel gelijk dat het op dit moment niet veel nut heeft maar het moet ergens beginnen toch? Kijk naar DirectX 9; released in 2002 maar het was pas met de komst van games als Doom 3 en FarCry (en nog eens na de komst van de ps3/360) dat het zijn vruchten ging afwerpen en er plots een grote sprong in grafische kwaliteit kwam.
Nja dan gaan we het anders zeggen. GTX580 is echt een compute kaart. Hoeveel sneller is die in Dirt 3 en BF3? na genoeg niets. Kortom echt goed gebruik wordt er dus niet van gemaakt. Anders was dat verschil wel naar boven gekomen. En dat is wat ik bedoel. Er zit veel transistor budget in. Wat wij niet echt gebruiken. Bepaalde mensen met specifieke software wel. Maar de gemiddelde gamer niet.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 06-10 15:24
Het is best belangrijk dat de Frostbite 2 engine goed loopt aangezien er veel meer games op gebaseerd gaan worden:

BioWare bevestigt Command & Conquer: Generals 2

En ontopic: laat ik eens wat raars zeggen er komen minder SP's, deze zullen echter wel zo krachtig zijn dat de 7970 ongeveer 25% sneller is dan de 580 :)

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
neliz schreef op zondag 11 december 2011 @ 08:49:
Waarom posten jullie / verwachten jullie trouwens van die gigantische shader aantallen?
Omdat we totaal niet weten wat we moeten verwachten van GCN of het nu 192, 1280 of 1920 is, je kunt het ons allemaal wijs maken ;)

Acties:
  • 0 Henk 'm!

  • Marce
  • Registratie: Oktober 2007
  • Laatst online: 31-07 11:30

Marce

Het is Marc met een C!

neliz schreef op zondag 11 december 2011 @ 08:49:
Waarom posten jullie / verwachten jullie trouwens van die gigantische shader aantallen?
Ik verwacht dat omdat voor zover ik begrepen heb de alu's zelf nog ongeveer hetzelfde zijn gebleven, alleen de implementatie en daarmee de manier van aansturen is heel anders geworden. Het hoeven niet persee zo gigantisch veel shaders te zijn, maar ik verwacht dat het toch ergens tussen de 1000 á 2000 zal liggen.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 06-10 19:40

OMD

mdcobra schreef op zondag 11 december 2011 @ 11:49:
Het is best belangrijk dat de Frostbite 2 engine goed loopt aangezien er veel meer games op gebaseerd gaan worden:

BioWare bevestigt Command & Conquer: Generals 2

En ontopic: laat ik eens wat raars zeggen er komen minder SP's, deze zullen echter wel zo krachtig zijn dat de 7970 ongeveer 25% sneller is dan de 580 :)
Dat spel staat voor 2013... dan zitten we bij de 8*** series. 7 serie is niet relevant dus.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 06-10 15:24
OMD schreef op zondag 11 december 2011 @ 13:04:
[...]


Dat spel staat voor 2013... dan zitten we bij de 8*** series. 7 serie is niet relevant dus.
Wat een onzin niet iedereen koopt elk jaar een nieuwe GPU.

Acties:
  • 0 Henk 'm!

Verwijderd

mdcobra schreef op zondag 11 december 2011 @ 11:49:
Het is best belangrijk dat de Frostbite 2 engine goed loopt aangezien er veel meer games op gebaseerd gaan worden:

BioWare bevestigt Command & Conquer: Generals 2

En ontopic: laat ik eens wat raars zeggen er komen minder SP's, deze zullen echter wel zo krachtig zijn dat de 7970 ongeveer 25% sneller is dan de 580 :)
Dat is een mooi hap winst.
Hij is dan een heel stuk sneller dan de hd6970. Die winst is dan wel goed te noemen voor een nieuwe opvolger.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 06-10 20:38

superwashandje

grofheid alom

las ik een tijdje geleden niet hier op tweakers dat apple de mac pro gaat opdoeken omdat er al een aantal jaren geen update is geweest?

edit: nieuws: 'Apple wil ontwikkeling en verkoop Mac Pro staken'

staat wel haaks op elkaar dus...

[ Voor 20% gewijzigd door superwashandje op 11-12-2011 13:47 ]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 09-07 02:45
Astennu schreef op zondag 11 december 2011 @ 11:08:
Nja dan gaan we het anders zeggen. GTX580 is echt een compute kaart. Hoeveel sneller is die in Dirt 3 en BF3? na genoeg niets. Kortom echt goed gebruik wordt er dus niet van gemaakt. Anders was dat verschil wel naar boven gekomen. En dat is wat ik bedoel. Er zit veel transistor budget in. Wat wij niet echt gebruiken. Bepaalde mensen met specifieke software wel. Maar de gemiddelde gamer niet.
In b.v. Dirt 3 wordt het niet gebruikt voor extra performance maar betere kwaliteit van effecten als SSAO. SSAO kan men ook via shaders doen dus ik veronderstel dat VLIW hier erg geschikt voor is, en dus de reden waarom de GTX 580 niet extreem veel sneller is dan een HD 6970. AMD kaarten laten ook niets heel van nVidia kaarten wanneer je 4D perlin noise gaat bereken via Direct Compute of OpenCL om dezelfde reden :+ .

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 06-10 19:40

OMD

mdcobra schreef op zondag 11 december 2011 @ 13:18:
[...]


Wat een onzin niet iedereen koopt elk jaar een nieuwe GPU.
Voordat je deze post plaatste had je beter eerst in mijn signature kunnen kijken...
Ik draai nog een 4890.

Ik bedoelde het meer van dat de 8000 serie dan weer de nieuwste technieken de baas moeten zijn.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • faust2016
  • Registratie: April 2009
  • Laatst online: 06-10 12:08

faust2016

You yes have my shirt

Same here. Qua performance/W en features lopen ze misschien wat achter, maar qua rauwe snelheid scheelt het niet veel met een 6850. Vooral niet als je een goed overklokkende 4890 hebt :).

Ontopic: Als er ook op deze kaarten bios switches komen te zitten zou dat dan ook betekenen dat Tahiti Pro's net zo makkelijk unlocked zullen kunnen worden naar Tahiti XT specs, als nu met de 6950 en 6970 het geval is? Of gaan de overige shader ge-lasercut worden?
Dat eerste zou de kaarten nog een stuk aantrekkelijker maken :).

[ Voor 4% gewijzigd door faust2016 op 11-12-2011 18:56 ]


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 11:48
Ik denk dat de eerste versies niet ge-lasercut zullen zijn.
De volgende versies wel, net als nu -.-"

Acties:
  • 0 Henk 'm!

  • faust2016
  • Registratie: April 2009
  • Laatst online: 06-10 12:08

faust2016

You yes have my shirt

Explain?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
superwashandje schreef op zondag 11 december 2011 @ 13:41:
[...]


las ik een tijdje geleden niet hier op tweakers dat apple de mac pro gaat opdoeken omdat er al een aantal jaren geen update is geweest?

edit: nieuws: 'Apple wil ontwikkeling en verkoop Mac Pro staken'

staat wel haaks op elkaar dus...
Het staat ook haaks op het gerucht dat de volgende Macs nVidia GPUs krijgen. Het is wel logisch dat ze voor AMD kiezen gezien hun pro OpenCL houding.

[ Voor 6% gewijzigd door madmaxnl op 11-12-2011 21:12 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
madmaxnl schreef op zondag 11 december 2011 @ 21:12:
[...]


Het staat ook haaks op het gerucht dat de volgende Macs nVidia GPUs krijgen. Het is wel logisch dat ze voor AMD kiezen gezien hun pro OpenCL houding.
Mac pro != MacBook

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nee, maar het is niet logisch voor Apple om twee fabrikanten te gebruiken. AMD voor Mac Pros en nVidia voor alle Mac Books.

Acties:
  • 0 Henk 'm!

  • AquaSheep
  • Registratie: Januari 2009
  • Laatst online: 01-10 08:37
Het zijn allebei geruchten. AMD voor mac pro is nog enigzins te verantwoorden, aangezien de codenaam 'Tahiti' in de nieuwe drivers opduiken. Maar het nVidia gerucht is te herleiden naar http://semiaccurate.com/2...waps-gpu-suppliers-again/. Dat artikel moet je met een korrel zout nemen.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

DCG909 schreef op zondag 11 december 2011 @ 19:40:
Ik denk dat de eerste versies niet ge-lasercut zullen zijn.
De volgende versies wel, net als nu -.-"
Ik denk dat de trend voor 2012 is dat melk op velden gekweekt gaat worden.

Je punt is?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
AquaSheep schreef op maandag 12 december 2011 @ 01:21:
Het zijn allebei geruchten. AMD voor mac pro is nog enigzins te verantwoorden, aangezien de codenaam 'Tahiti' in de nieuwe drivers opduiken. Maar het nVidia gerucht is te herleiden naar http://semiaccurate.com/2...waps-gpu-suppliers-again/. Dat artikel moet je met een korrel zout nemen.
Klopt, maar men denkt dat Charlie er alles aan doet om geen pro-nVidia en anti-AMD berichtgeving te plaatsen.
Doet hij dit wel dan wordt z'n bericht voor zeer waarschijnlijk aangenomen. Als het anders om is dan is het lariekoek. ;)

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 11:48
Als er ook op deze kaarten bios switches komen te zitten zou dat dan ook betekenen dat Tahiti Pro's net zo makkelijk unlocked zullen kunnen worden naar Tahiti XT specs, als nu met de 6950 en 6970 het geval is? Of gaan de overige shader ge-lasercut worden?

Daar refereerde ik naar, de 69xx heeft ook de bios switch, maar na de introductie van de costum pcb's is AMD begonnen met lasercutten.
Aangenomen dat AMD die "tactiek" doorzet, omdat de eerste 6950's best populair zijn/ waren.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
DCG909 schreef op maandag 12 december 2011 @ 07:50:
[...]


Als er ook op deze kaarten bios switches komen te zitten zou dat dan ook betekenen dat Tahiti Pro's net zo makkelijk unlocked zullen kunnen worden naar Tahiti XT specs, als nu met de 6950 en 6970 het geval is? Of gaan de overige shader ge-lasercut worden?

Daar refereerde ik naar, de 69xx heeft ook de bios switch, maar na de introductie van de costum pcb's is AMD begonnen met lasercutten.
Aangenomen dat AMD die "tactiek" doorzet, omdat de eerste 6950's best populair zijn/ waren.
Ik wist niet eens dat ze gingen lasercutten? bron?

Dat unlocken lijkt me juist wel een klein marketing puntje, niet bijzonder veel mensen doen het, maar het wordt wel als een pluspunt genoemd waardoor meer mensen voor een unlockbare kaart kiezen 'omdat het kan'.
Mensen die geld genoeg hebben om niet te hoeven unlocken kopen toch wel de betere kaart.
AMD doet het ook niet bij zijn CPU's, ik ga er eigenlijk van uit dat ze dat nu ook niet gaan doen.
Pagina: 1 ... 13 ... 31 Laatste

Dit topic is gesloten.