CJ's Radeon Info & Nieuwsdiscussie - Deel 129 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 12 Laatste
Acties:
  • 53.080 views

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
In the meanwhile een kleine driver update, het moet wat FreeSync problemen oplossen. (Wat precies, geen idee)

http://support.amd.com/en...Catalyst-15.4.1-Beta.aspx
This article provides information on the AMD Catalyst™ 15.4.1 Beta Driver that contains optimizations and fixes for AMD FreeSync™ technology capable products and displays.

AMD Catalyst™ 15.4.1 Beta for Windows® - AMD FreeSync™ technology updates

This release enables optimizations and fixes for some AMD FreeSync™ technology capable products and displays while retaining all previous updates from the AMD Catalyst™ 15.4 Beta driver.

For more information on AMD FreeSync™ technology, supported products and displays, please visit the official AMD FreeSync™ technology page located here.

For more information on the AMD Catalyst™ 15.4 Beta optimizations included in this release please visit the AMD Catalyst™ 15.4 Beta release notes located here.

The AMD Catalyst™ 15.4.1 Beta Driver can be downloaded from the following link:

AMD Catalyst 15.4.1 Beta Driver for Windows 7 & 8.1 32/64 bit

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
LongBowNL schreef op zondag 10 mei 2015 @ 12:32:
In the meanwhile een kleine driver update, het moet wat FreeSync problemen oplossen. (Wat precies, geen idee)
Hopelijk de response time compensation, volgens dat stukje tekst op tftcentral was er een driver fix en een firmware fix voor nodig.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
Dus met DX12 gaat m'n I7 3930K eindelijk beetje werk krijgen van DX12 games ?
(mits goede gpu wss)

Ben aan het sparen voor Titan X maar ik geraak geen meter verder :p

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
En nog een bericht bij de buren: http://nl.hardware.info/n...utm_campaign=hardwareinfo

Asus roept een FreeSync beeldscherm terug om een firmware update te doen. Bij 144Hz wordt elk 6de frame overgeslagen.

[ Voor 1% gewijzigd door LongBowNL op 10-05-2015 13:37 . Reden: Freesync toegevoegd ]


Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
Trouwens een 290 is echt wel een kachel vergeleken met een 780 :p
M'n vader dacht zelfs dat ik de verwarming had aangezet 8)7

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:14
nvidia666 schreef op zondag 10 mei 2015 @ 13:40:
Trouwens een 290 is echt wel een kachel vergeleken met een 780 :p
M'n vader dacht zelfs dat ik de verwarming had aangezet 8)7
Ja daaag, het verschil is pakweg 50-75W, dat is nog minder dan een extra persoon in de kamer.
Bij een kachel spreek je al gauw over 1000-2000W.

[ Voor 15% gewijzigd door mitsumark op 10-05-2015 14:03 ]


Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 06:40
Alleen even duidelijk gezien. DX12 zorgt er dus eigenlijk voor, dat een bepaalde last op de de kaart en processor weg wordt gehaald. In vergelijking met DX11 vs Mantle zorgt dat gene ervoor dat mijn processor en GPU meer vermogen krijgen?

Het zal vast makkelijk te begrijpen zijn, alleen krijgt je CPU, GPU of beide nu meer vermogen? Helpen doet het zeker.
nvidia666 schreef op zondag 10 mei 2015 @ 13:37:
Dus met DX12 gaat m'n I7 3930K eindelijk beetje werk krijgen van DX12 games ?
(mits goede gpu wss)

Ben aan het sparen voor Titan X maar ik geraak geen meter verder :p
Als ik een 3930K had zou ik me niet eens zorgen maken en al helemaal niet als je een TitanX zou willen. In jou geval kun je voorlopig nog wel onder een steen leven denk ik :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Mosin schreef op zondag 10 mei 2015 @ 15:37:
Alleen even duidelijk gezien. DX12 zorgt er dus eigenlijk voor, dat een bepaalde last op de de kaart en processor weg wordt gehaald. In vergelijking met DX11 vs Mantle zorgt dat gene ervoor dat mijn processor en GPU meer vermogen krijgen?

Het zal vast makkelijk te begrijpen zijn, alleen krijgt je CPU, GPU of beide nu meer vermogen? Helpen doet het zeker.


[...]


Als ik een 3930K had zou ik me niet eens zorgen maken en al helemaal niet als je een TitanX zou willen. In jou geval kun je voorlopig nog wel onder een steen leven denk ik :+
Om het kort uit te leggen (en in jip en janneke taal? :P). Als jij in een spel iets op het scherm wilt toveren dan wordt er een drawcall aangemaakt. In DX12, Mantle, OpenGL Next (Vulcan) kan je veel meer drawcalls maken, doordat er veel minder overhead is. Wat dit kan betekenen voor games is dat je een groter aantal drawcalls kan maken en meer dingen op het scherm kan toveren, in praktijk betekent dit dat je in plaats van 100x hetzelfde boompje je nu 100 verschillende bomen kan hebben zonder dat de performance inkakt doordat de cpu het aantal drawcalls niet kan maken.
Bij consoles had je nooit die overhead omdat de API closer to metal zit, als je een console game 1 op 1 naar DX11 zou poorten dan heb je slechte performance omdat als een spel voor een console wordt gemaakt er veel minder rekening wordt gehouden met het aantal gemaakte drawcalls. Een port zal daardoor dus slecht lopen op computers die in feite qua specs sneller zijn dan een console. Met DX zijn er natuurlijk trukjes (instancing dus 100x diezelfde boom) om dit op te lossen en daarom kost het poorten ook wat tijd. Met DX12, Mantle en Vulcan los je dit dus op.

Dus er zijn twee hele grote voordelen, een je kan veel meer op het scherm toveren (met meer variatie) en twee het zal op lowend cpus veel beter lopen.
De kleinere voordelen zijn dat voor een bepaalde gpu architectuur veel gerichter iets kan schrijven, waardoor je daar ook wat meer performance zal krijgen. Overigens kan een heleboel backwards compatibility die wel in DX11 en voorgaande DX zat eruit worden gehaalt.

Als ik ergens fout zit moet iemand met meer kennis me maar verbeteren :+.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Sp3ci3s8472 beat me to it :P

Om wel even uit te leggen wat "overhead" precies is: met elke instructie naar D3D11 voert die intern een hoop controles en vertaalstappen uit. Dat zijn allemaal CPU instructies die sequentieel (achter elkaar) moeten worden uitgevoerd. Dan gaat de hele handel naar de driver en die doet voor een groot deel hetzelfde om het naar een specifieke GPU te vertalen. Het probleem is dat veel van die instructies onnodig zijn omdat programmeurs die vaak zelf ook gewoon moeten doen om te zorgen dat hun code niet vast loopt.

Al die CPU instructies achter elkaar kosten een hoop tijd. De CPU wordt echter niet zwaar belast, de software moet gewoon lang wachten voordat die ene D3D11 instructie eindelijk eens is verwerkt. Het is niet zo zeer dat er meer of minder belasting is met deze low level API's, het is dat er minder wacht tijd is. Daarnaast mogen programmeurs met deze API's zelf bepalen wat op welke thread draait, wat betekent dat meer CPU cores goed kunnen worden gebruikt. In die zin klinkt het wel alsof de CPU minder belast wordt, maar dat is niet per definitie het geval; het werk wordt gewoon beter gepland.

Tegelijker tijd betekent dat ook dat die instructies sneller bij de GPU aankomen en ook daar beter gepland kunnen worden. Hoewel wij in GPU-Z en Afterburner "100%" load zien is dat je reinste onzin. Die 100% load is gebaseerd op queue drukte, niet op hoeveel ALU's (reken eenheden) daadwerkelijk aan het werk zijn*. Hetzelfde geldt dus hier als voor de CPU: er is niet per definitie meer of minder belasting, het wordt gewoon beter gepland.

Wat dat in de praktijk betekent is dat als een programmeur z'n werk goed doet, hij inderdaad meer uit zowel de CPU als GPU gepompt krijgt. Het betekent echter ook dat een mindere programmeur het allemaal net zo makkelijk kan verzieken. Het belangrijkste echter is dat programmeurs alles veel beter kunnen schalen. Het boompje hierboven is een leuk voorbeeld :)


* point in question: mijn geliefde Cypress met z'n VLIW5 (5 ALU's of rekeneenheden per SP) architectuur. In games lag die 10% achter op een GTX 480, met bitcoin mining maakte hij echter gehakt van dat ding. Dat kwam doordat van die 5 ALU's per SP er in games gemiddeld maar ~3,5 in gebruik waren. Dat wil zeggen dat 90% van de tijd er gewoon 20% van de gehele GPU niets te doen had omdat het werk niet voldoende gepland kon worden.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
gelukkig had de vorige generatie consoles te weinig geheugen voor 100 verschillende bomen :)

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
madmaxnl schreef op vrijdag 08 mei 2015 @ 17:53:
[...]


Trouwens er staat GCN 1.2, zou dit niet GCN 1.3 worden? In het geval van GCN 1.2 hebben we te maken met een reusachtige chip die op zijn geheugen na geen efficiëntie slag slaat t.o.v. Tonga. Zowel qua stroomverbruik als qua chip grote.

Een Tonga GPU heeft een relatief grote die size van 366mm2 met daarin 2048 GCN cores gehuisvest. Volgens de geruchten zou een Fiji GPU 4096 GCN cores hebben. Tot een verdubbeling van de die grote zal het waarschijnlijk niet leiden. Immers hoeft de ruimte die TrueAudio, UVD, I/O e.d. niet dubbel uitgevoerd te worden.

Een Tahiti GPU heeft 2048 GCN cores en is een GCN 1.0 variant, dus geen TrueAudio (GCN 1.1) en ook geen Delta Color Compression of de betere en/of meer tesselation units (GCN 1.2). Deze chip heeft een die grote van 365mm2 en 4313 miljoen transistors. Een Tonga GPU heeft er 5 miljard. Van GCN 1.0 naar GCN 1.2 levert een toenamen op van net geen 700 miljoen transistors. Voor Tonga zou je dus kunnen stellen dat ongeveer 50mm2 verantwoordelijk is voor GCN 1.2. t.o.v. GCN 1.0. Hier op verder bordurend zou een Fiji GPU groter zijn dan 600mm2. Dat lijkt me wat te veel van het goede? Of de waterkoeling standaard erbij is echt geen grap :+

Een GM200 GPU van nVidia daarentegen is ook gewoon >600mm2 groot. Aangezien de prestatie van een Fiji XT GPU rond dit niveau zoude liggen, volgens de geruchten, vind ik dat een beetje zwakjes overkomen gezien het gebruik van HBM.
AMD Radeon to dramatically improve performance, efficiency in 2016

Advanced Micro Devices said that it will not introduce an all-new GPU micro-architecture next year, but will significantly improve its GCN [graphics core next] technology to boost performance and energy-efficiency.
AMD originally introduced its graphics core next (GCN) architecture in late 2011 along with its Radeon HD 7970 graphics card (eventually renamed to Radeon R9 280X). The GCN architecture has gradually evolved in terms of feature-set and performance since its commercial launch, this year AMD is expected to introduce the fourth iteration of GCN in the form of the code-named “Fiji” graphics processing unit. The GCN 1.3 GPUs will feature an all-new memory controller and cache sub-system along with a number of new capabilities that are supported by Microsoft Corp.’s DirectX 12 application programming interface.
amd_radeon_artwork_angle_new
Without any doubts, AMD’s graphics processing units gained a lot since late 2011. In fact, performance increase that the upcoming flagship Radeon R9 graphics card is expected to deliver over the original Radeon HD 7970 should be incredible. What is remarkable is that all performance improvements demonstrated by the latest Radeon graphics adapters should be attributed to architectural enhancements because all GCN graphics processing units have been made using essentially the same 28nm fabrication technology.
Typically, evolution of graphics processors is a result of architectural innovations and thinner manufacturing processes. Unfortunately, new production technologies is a luxury that graphics processing units from AMD and Nvidia did not have in the recent years since TSMC had decided to focus solely on mobile system-on-chips with its 20nm CLN20SOC process. But a lot will change next year, when both TSMC and GlobalFoundries begin to offer their 16nm and 14nm FinFET fabrication processes, which can be used to produce high-end graphics processing units.
amd_graphics_leadership
Next year AMD plans to release a yet another iteration of GCN architecture (GCN 1.4) that will be two times more energy efficient compared to existing GPUs and will support some new features, including those that accelerate virtual and augmented reality applications. AMD’s 2016 graphics processing units will be made using a FinFET process technology, which will let AMD install more stream processors and a variety of other hardware that further boosts performance into its next-gen graphics processing units.
“Raja Koduri and his team at Graphics [unit] are not stopping, like in the case of CPU cores, we are always working on next generation,” said Mark Papermaster, chief technology officer at AMD at the company’s financial analyst day. “We are tweaking the GCN to make it even more energy efficient. We are going to drive optimizations in workloads where we already excel with GCN, such as machine learning and a number of artificial intelligence applications. There is more innovation to come.”
amd_graphics_leadership_1
While AMD does not reveal a lot of information regarding performance of its next GPUs, two times higher energy efficiency could potentially translate into two times higher performance in the same power envelope. Since AMD’s future Radeon graphics chips code-named “Greenland” will use second-generation high-bandwidth memory (HBM 2), it is highly likely that their performance will not be constrained by memory bandwidth. As a result, we could see a giant leap of GPU performance next year thanks to architectural improvements, increase of compute horsepower thanks to new process technologies as well as HBM 2 memory.

---------------------------------------------------------------

Denk dat ook GNC 1.3 moet zijn, zowiezo voor gpu's die HBM gebruiken.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
"Next year AMD plans to release a yet another iteration of GCN architecture (GCN 1.4) that will be two times more energy efficient compared to existing GPUs and will support some new features, including those that accelerate virtual and augmented reality applications."

Dat is niet eens zo heel erg goed als je het inderdaad met bestaande AMD GPUs zou vergelijken. Immers GCN 1.4 t.o.v. GCN 1.2, 14nm t.o.v. 28nm en HBM2 t.o.v. GDDR5. Die verdubbeling van efficiëntie zal dan waarschijnlijk niet alleen door de architectuur komen zoals nVidia dat wel met Maxwell heel erg goed op orde heeft gekregen.

Acties:
  • 0 Henk 'm!
Ik lees het als een architectuur welke tweemaal zo snel is. Qua procestechnologie ga je namelijk in theorie al veel meer winstpakken dan een verdubbeling.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

nvidia666 schreef op zondag 10 mei 2015 @ 13:37:
Dus met DX12 gaat m'n I7 3930K eindelijk beetje werk krijgen van DX12 games ?
(mits goede gpu wss)

Ben aan het sparen voor Titan X maar ik geraak geen meter verder :p
*Is nog steeds tot wanhoop gedreven door zijn 5760x1080P setup op een enkele 280X*
-The_Mask- schreef op woensdag 13 mei 2015 @ 01:02:
Ik lees het als een architectuur welke tweemaal zo snel is. Qua procestechnologie ga je namelijk in theorie al veel meer winstpakken dan een verdubbeling.
En een Die van 600mm2 is niet eens zo onrealistisch, dat is ongeveer 2,45cm bij 2,45cm.


http://wccftech.com/amd-r...orm-factor-water-cooling/
Computex of E3? Das nog een maand dan, of in het meest positieve geval een halve maand, nou ja...

We zitten dadelijk in ieder geval niet meer geheel vast aan hardware als de 280X die al een jaar of 3 oud is.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
600mm2 is zeker niet onrealistisch, maar op een net nieuw productie procedé kan dat dramatische yields met zich meebrengen. En wat voor nVidia geldt, geldt ook gewoon voor AMD. GCN1.4, HBM2 en 14nm tegelijkertijd introduceren is al spannend, genoeg dat fout kan gaan. Dit alles introduceren in een chip die 600mm2 groot zou kunnen zijn is wellicht wat te ambitieus en vrij onrealistisch.

offtopic:
Neet veur het ein of het angere, maar kuusj is volgens mich de mannelijke benaming veur een verken en een zau is de vrouwelijke benaming. Strikt genomen zou kuusj dus een bear (beer) in het Nederlands zeen. Had ik gehoord of gelezen ;)

[ Voor 4% gewijzigd door madmaxnl op 13-05-2015 01:37 ]


Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
kuusj98 schreef op woensdag 13 mei 2015 @ 01:18:
[...]

*Is nog steeds tot wanhoop gedreven door zijn 5760x1080P setup op een enkele 280X*
En ik heb dan een 7970 Lightning BE (aka 280X) als reservekaart :') :') :')

Mocht ik mijn reserve game pc en al m'n videokaarten verkopen zou ik rap een Titan X hebben maar helaas doe ik dat mezelf niet aan ;)
Als er hardware problemen zijn is een 2de deftige pc goud waard :)

@Madmaxnl je pic blijft hilarisch _O-

[ Voor 3% gewijzigd door nvidia666 op 13-05-2015 08:15 ]

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

madmaxnl schreef op woensdag 13 mei 2015 @ 01:30:
600mm2 is zeker niet onrealistisch, maar op een net nieuw productie procedé kan dat dramatische yields met zich meebrengen. En wat voor nVidia geldt, geldt ook gewoon voor AMD. GCN1.4, HBM2 en 14nm tegelijkertijd introduceren is al spannend, genoeg dat fout kan gaan. Dit alles introduceren in een chip die 600mm2 groot zou kunnen zijn is wellicht wat te ambitieus en vrij onrealistisch.

offtopic:
Neet veur het ein of het angere, maar kuusj is volgens mich de mannelijke benaming veur een verken en een zau is de vrouwelijke benaming. Strikt genomen zou kuusj dus een bear (beer) in het Nederlands zeen. Had ik gehoord of gelezen ;)
Daar heb je eigenlijk groot gelijk in, maar we zullen zien, of die chip nu 600mm2 of 450mm2 is: als we maar een 980 destroyer krijgen voorgeschotelt!

offtopic:
dat zou nog ns good kinne, ich zal t uns noakieke en 't dan corrigeren :P Dan weurt 't "mannelijk varken op het limburgs".
Zuut waal bietje raar oet, die hollenders weete dat toch neet haha...
nvidia666 schreef op woensdag 13 mei 2015 @ 08:13:
[...]


En ik heb dan een 7970 Lightning BE (aka 280X) als reservekaart :') :') :')

Mocht ik mijn reserve game pc en al m'n videokaarten verkopen zou ik rap een Titan X hebben maar helaas doe ik dat mezelf niet aan ;)
Als er hardware problemen zijn is een 2de deftige pc goud waard :)

@Madmaxnl je pic blijft hilarisch _O-
Grr, als ik niet 600 euro had gespendeerd aan schermen had er nu ook een 980 in gehangen. Het is het een of het andere, en 2,10 breed aan scherm is goed voor de patsfactor xD

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
Haha

Ik heb ook 500 euro betaald voor m'n 4K scherm hoor ;)

Ik heb veel te veel dingen waar ik m'n geld aan spendeer ipv 1 Titan X :p

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
kuusj98 schreef op woensdag 13 mei 2015 @ 01:18:
En een Die van 600mm2 is niet eens zo onrealistisch, dat is ongeveer 2,45cm bij 2,45cm.
madmaxnl schreef op woensdag 13 mei 2015 @ 01:30:
600mm2 is zeker niet onrealistisch, maar op een net nieuw productie procedé kan dat dramatische yields met zich meebrengen. En wat voor nVidia geldt, geldt ook gewoon voor AMD. GCN1.4, HBM2 en 14nm tegelijkertijd introduceren is al spannend, genoeg dat fout kan gaan. Dit alles introduceren in een chip die 600mm2 groot zou kunnen zijn is wellicht wat te ambitieus en vrij onrealistisch.
Dat dus. Point in question: GF100 :P

En het is niet AMD's stijl. Meestal proberen ze nieuwe procedés eerst uit met minder belangrijke chip; vaak iets aan de kleinere kant. Voor 40nm was dat RV740 (4770). Door die test run wisten ze wat de problemen waren, hebben ze een oplossing gezocht (en gevonden) en daardoor was Cypress gewoon mooi op tijd, zonder ook maar enige problemen. Nvidia heeft dat nooit op die manier gedaan; die hebben tot 40nm een veel vaster tick-tock patroon gehad, waar ze hele generaties een shrink gaven. Dat heeft AMD ook gedaan natuurlijk, maar in de gevallen waar ze ook aan een nieuwe architectuur waren niet. Met 40nm had Nvidia wel kleinere chips al gebakken, maar die verschilden qua opzet veel meer van de bestaande architectuur en waren gewoon té klein.

De enige uitzondering op dit hele verhaal is 28nm, een node die meteen goed ging voor beide fabrikanten op chips van 300mm2 en 350mm2. Maar jullie weten ook wat ik nog steeds denk dat daar gebeurd is voor het groene kamp, maar als ik dat hardop zeg krijg ik weer iets van een rode bril te horen :P

600mm2 lijkt me in elk geval sterk. Zo groot heeft AMD ze überhaupt nog nooit gebouwd.
madmaxnl schreef op woensdag 13 mei 2015 @ 01:30:
offtopic:
Neet veur het ein of het angere, maar kuusj is volgens mich de mannelijke benaming veur een verken en een zau is de vrouwelijke benaming. Strikt genomen zou kuusj dus een bear (beer) in het Nederlands zeen. Had ik gehoord of gelezen ;)
kuusj98 schreef op woensdag 13 mei 2015 @ 09:21:
offtopic:
dat zou nog ns good kinne, ich zal t uns noakieke en 't dan corrigeren :P Dan weurt 't "mannelijk varken op het limburgs".
Zuut waal bietje raar oet, die hollenders weete dat toch neet haha...
offtopic:
Volges mich is kuusj gewoen de benaming veur 'n tam verke, neet zoezier veur 'n menneke of vruike? :P

Acties:
  • 0 Henk 'm!

  • Mantis
  • Registratie: Maart 2003
  • Laatst online: 01:26
Ik vraag me eigenlijk af of AMD APU + AMD GPU extra voordeel zal opleveren in samenwerking met DX12 Multiadapter Technology. Dit zou AMD cpu's terug op de kaart kunnen zetten bij game pc configuraties.

Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3

Als we onze buren mogen geloven :)

http://www.heise.de/newst...ollar-kosten-2575802.html

Afbeeldingslocatie: http://2.f.ix.de/scale/geometry/600/q75/imgs/18/1/4/4/9/8/6/6/aufm-b461aa030a1cc909.jpeg

•R9 390X ~ 700$+
•R9 390 ~ 700$
•R9 380X (sneller dan de 290X) ~ 400$
•R9 380 (sneller dan de 290) ~ 330$
•R9 370 (ong. tussen R9 270X en R9 285) ~200$
•R7 360X ~ 150$
•R7 360 ~ 110$

390X zal ongeveer 300+ Watts nodig hebben (alleen de kaart).

De euro heeft 25% verloren ongeveer t.o.v. de USD dus dit worden niet zulke hele fijne prijzen :)

De 380X en 380 worden Hawaii rebrands. Oftewel, hetzelfde als de 280 en 280x van de 7950 en 7970 waren.
Gerucht is wel dat de 390X 4096bit bus zal krijgen.

280->370
290->380
Dus met de GCN 1.2 kernen, snelle kloksnelheden en minder verbruik gaat het voor de midrange zeker interessant worden. (wat is midrange als we het over 290 hebben?)

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

Tjongejongejonge wat een idioot hoge prijs, eigenlijk geloof ik er geen barst van (beter gezegd: ik zou het niet willen geloven).

Waarom geloof ik er geen barst van?
-700+ euro? Dat moet dan toch wel echt een speciale chip zijn, anders kun je netzogoed twee maal 380 aanschaffen en daar waarschijnlijk dubbel en dik overheen zitten. Of je CFX wil is nummer 2, maar dat moet je zelf bepalen.

-380X = 290X, en sneller dan betekend gewoon de "Ghz" versie van de 290X. De 290X is ongeveer gelijk aan de GTX970 die op het moment ongeveer 350 euro kost.

Wie gaat er in godesnaam een oude energie-onzuinige voor zeg 400 euro aanschaffen als hij/zij voor 12,5% minder dezelfde performance kan krijgen?

Dan hebben we de 380, waarom zou die bijna 20% goedkoper zijn als hij maar zeg 5 tot 10% minder snel is dan de 380X? Wie koopt dan de 380X? Ik in ieder geval niet, dan kun je beter de 380 een procent of 20 overclocken en je zit 10-15% boven de stock 380X voor 70 euro minder. Deze zit bovendien ook dicht bij de 970.

370 tussen de 270X en 285? Voor 200 euro? Voor de helft kun je ze tweedehands krijgen.
360(x) ga ik het niet over hebben, als je "zo" low end gaat zitten kun je beter tweedehands een kaartje oppikken.

Het spijt me voor de 1% hier die wel even makkelijk 700+ euro op een nieuwe graka kunnen droppen, maar deze prijzen zouden toch wel echt een nieuw hoogte (liever: diepte) punt betekenen. Ik zou het geweldig vinden als we over de Titan X heen gaan qua performance, maar zo verkopen ze toch niks? Of ligt dat nu geheel aan mij?

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
300+ Watt :/ nee bedankt

Acties:
  • 0 Henk 'm!

  • pwillemske
  • Registratie: November 2014
  • Niet online
Op zich valt 300W wel mee hoor, als je er ook een pak power voor terug krijgt...mijn R9 290 verbruikt MAX 300W, in game ongeveer 275, dat is maar 50W meer dan de 970, en toch is de R9 290 gemiddeld zo'n 50 a 60 euro goedkoper dan de 970. (Uiteraard) zijn dit geruchten en wie zegt dat de geruchten kloppen?? AMD heeft immers nog niet veel bekend gemaakt (of ik ben niet meer op de hoogte :P )

Lord-The-Gamer (L-T-G)


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 13-09 21:15
kuusj98 schreef op zondag 17 mei 2015 @ 19:19:
Tjongejongejonge wat een idioot hoge prijs, eigenlijk geloof ik er geen barst van (beter gezegd: ik zou het niet willen geloven).

Waarom geloof ik er geen barst van?
-700+ euro? Dat moet dan toch wel echt een speciale chip zijn, anders kun je netzogoed twee maal 380 aanschaffen en daar waarschijnlijk dubbel en dik overheen zitten. Of je CFX wil is nummer 2, maar dat moet je zelf bepalen.
Volgens de geruchten zou de R9 390X sneller moeten zijn dan een Titan X (en bijna even snel als een GTX970 SLI setup), die hier voor een slordige 1100 tot 1200 euro over de toonbank gaat (en ongeveer 700 voor GTX970 SLI). Als AMD een kaart kan leveren, al voorzien van waterkoeling, die sneller is dan een Titan X en "maar" rond de 700 euro is, dan lijkt mij de keuze snel gemaakt. Ook t.o.v. een GTX970 SLI setup zou ik altijd liever voor een single card setup gaan. Ook qua stroomverbruik (R9 390X zou max rond de 290W zitten) win dat het ineens van een GTX970 SLI setup (zo'n 320-350W).

Maar ja.. totdat de nieuwe AMD kaarten uit zijn is en blijft het koffiedik kijken en zijn het absoluut niets meer dan geruchten zonder enig bewijs. Ik hoop zelf dat de geruchten waar zijn, dat betekent meer concurrentie voor NVidia wat uiteindelijk alleen maar goed is voor de consument.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

Moi_in_actie schreef op zondag 17 mei 2015 @ 21:53:
[...]

Volgens de geruchten zou de R9 390X sneller moeten zijn dan een Titan X (en bijna even snel als een GTX970 SLI setup), die hier voor een slordige 1100 tot 1200 euro over de toonbank gaat (en ongeveer 700 voor GTX970 SLI). Als AMD een kaart kan leveren, al voorzien van waterkoeling, die sneller is dan een Titan X en "maar" rond de 700 euro is, dan lijkt mij de keuze snel gemaakt. Ook t.o.v. een GTX970 SLI setup zou ik altijd liever voor een single card setup gaan. Ook qua stroomverbruik (R9 390X zou max rond de 290W zitten) win dat het ineens van een GTX970 SLI setup (zo'n 320-350W).

Maar ja.. totdat de nieuwe AMD kaarten uit zijn is en blijft het koffiedik kijken en zijn het absoluut niets meer dan geruchten zonder enig bewijs. Ik hoop zelf dat de geruchten waar zijn, dat betekent meer concurrentie voor NVidia wat uiteindelijk alleen maar goed is voor de consument.
Ok, ik geef je groot gelijk, maar dan nog heb ik een heel groot "probleem".
Namelijk, als de 380(X) een rebrand is van de 290(X) en de 390(X) een mogelijke Titan X killer is, dan missen we een kaart die het performance punt tussen de 380X en de 390X wegzuigt.
Hiertussen ligt dan nog de 980(Ti) en ik denk dat men sneller de neiging heeft om 500 euro aan een kaart uit te geven dan "700+" euro.

Toegegeven, de echte enthousiast koopt het top-range model en klaar is kees, maar de "normale" consument die ook nog geld aan andere dingen kwijt is zal echt voor die 390X gaan wijken, net als de Titan X uiteraard. Volgend punt is eigenlijk dat mensen met een enkel 1080P scherm niet veel meerwaarde hebben bij een 390X of Titan X, omdat zeg een 280X of GTX 770 deze resolutie makkelijk kan aandrijven.

Kom je echter in het multiscreen gebeuren, dan zit je al snel vast aan een kaart uit de allerhoogste legioenen. Zo krijgt mijn 280X echt niet de 5760x1080 trein voortgetrokken op settings die ik toch wel mijn persoonlijke minimum acht. Dit zijnde 2x AA en minimaal medium-high.

Buiten dat vind ik ook niks aan CFX of SLI, heb beide gehad en op beide nooit een leuke middag gamen gehad. Stroomverbruik is natuurlijk ook zoiets, mij persoonlijk boeit 20 of 30W niet zoveel, maar mijn voeding zit nu al aan zijn limiet en ik zit in de zomer in een sauna van 35 graden.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

De waterkoeling is waarschijnlijk nodig agv HBM. Het geheugen en gpu zitten nu samen op de die. Hierdoor moet de hitte via een (veel) kleiner oppervlak afgevoerd worden dan vroeger. Nu is het zo dat HBM minder Watts gebruikt maar AMD kiest er voor haar topkaart waarschijnlijk voor de max TDP van ongeveer 300watt wel te willen benutten voor max prestaties. Derhalve is dus waarschijnlijk waterkoeling nodig om de hitte goed af te kunnen voeren.

Uit de waterkoeling alleen kun je dus imo niet afleiden dat dit een onzuinige chip is.

Als de 390X ongeveer E700 zou kosten is dat natuurlijk wel relatief duur imo maar zoals al eerder gezegd wel in lijn met wat nVidia bied mits de prestaties kloppen.

Wat een groter issue is voor mij, is dat de opvolger van de 390x volgend jaar naar verluidt vanwege de die shrink en 3d HBM veel sneller wordt dan de 390x.
Daarmee is de 390x relatief niet zo’n goede investering verwacht ik.

[ Voor 27% gewijzigd door Help!!!! op 18-05-2015 10:12 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:40

XanderDrake

Build the future!

Als 300w + waterkoeling de norm is voor Gen1 HBM/3D memory dan zou ik inderdaad ook wachten op een die-shrink, onafhankelijk van wie de GPU heeft ontwikkeld. Vooralsnog zijn er amper spellen waar je zon GPU voor nodig hebt om op 1440p moet spelen (mijn 3 jaar oude GTX 670 kan GTA V aan op Ultra).

Misschien the Witcher: Wild Hunt?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

HBM is zoals ik het begrijp naar zijn aard gewoon moeilijker te koelen. Of de 2e generatie (3D) hier minder problematisch is vraag ik me af. Hier zal nVidia ook last van hebben.

Dan kun je zeggen 300W+ is teveel maar ik denk dat AMD/Nvidia misschien niet zoveel keuze hebben. Ze zullen de max thermal enveloppe waarschijnlijk wel moeten benutten anders doet de concurrent het en zit je met een langzamere kaart.

Qua prestatie niveau kun je er niet omheen dat er (eindelijk) veel gebeurt op monitor gebied. 1440p breekt door en 4k zal niet lang op zich laten wachten. Die prestaties heb je gewoon nodig de komende 1 a 2 jaar. Games zitten ook niet stil.

Op 1440p heb je misschien niet perse een 390x nodig maar dat hangt er wel van af hoe hoog je de settings opschroeft. Lijkt me een persoonlijke afweging.
Persoonlijk ga ik binnenkort voor 1440p en denk ik die prestaties wel degelijk nodig te hebben. Zeker als je min. framerate van 60 als target hebt.
Wel kan Freesync / Gsync hier natuurlijk mitigerend werken mits je de hardware hebt.


ps:
Ik speel GTA V op 1080p eveneens (grotendeels) op ultra (en 2AA dacht ik) maar gebruik 670SLI. Dit loopt goed maar ik zou de FPS op een single 670 echt te weinig vinden. Zou ik een single 670 hebben dan zou ik settings omlaag zetten. Geeft goed aan hoe persoonlijk dit soort dingen kan zijn. :)

[ Voor 12% gewijzigd door Help!!!! op 18-05-2015 10:52 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
Naast de hoge resoluties op beeldschermen, vragen de aankomende VR-headsets ook een redelijk vermogen van de GPU. Redelijk hoge resoluties op minimaal 75Hz, maar het liefst op 90Hz.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:40

XanderDrake

Build the future!

Help!!!! schreef op maandag 18 mei 2015 @ 10:41:
ps:
Ik speel GTA V op 1080p eveneens (grotendeels) op ultra (en 2AA dacht ik) maar gebruik 670SLI. Dit loopt goed maar ik zou de FPS op een single 670 echt te weinig vinden. Zou ik een single 670 hebben dan zou ik settings omlaag zetten. Geeft goed aan hoe persoonlijk dit soort dingen kan zijn. :)
offtopic:
Ja hij doet nu 40-45 fps gemiddeld. Ik heb "grass" op één stapje lager gezet, dat maakte veel uit.
Het vervelende met SLI opstellingen is volgens mij nog steeds dat je de laagste FPSs niet goed kan aanpakken.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op maandag 18 mei 2015 @ 11:01:
[...]

offtopic:
Ja hij doet nu 40-45 fps gemiddeld. Ik heb "grass" op één stapje lager gezet, dat maakte veel uit.
Het vervelende met SLI opstellingen is volgens mij nog steeds dat je de laagste FPSs niet goed kan aanpakken.
De laagste fps verschild sterk per game, met de meeste games gaat het wel omhoog merk ik met cf of sli

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XanderDrake schreef op maandag 18 mei 2015 @ 11:01:
[...]

offtopic:
Ja hij doet nu 40-45 fps gemiddeld. Ik heb "grass" op één stapje lager gezet, dat maakte veel uit.
Het vervelende met SLI opstellingen is volgens mij nog steeds dat je de laagste FPSs niet goed kan aanpakken.
CF en SLI zijn uiteraard niet perfect en hebben nadelen die single GPU’s niet hebben. Desalniettemin, van alle CF/SLI setups die ik tot nu toe gehad heb is mijn ervaring met 670SLI het beste. Ik merk geen duidelijke negatieve verschillen met single GPU, iets wat ik bij voorgaande setups zoals 280GTX SLI en 6950 CF wel duidelijk had.

Ben me er ook niet van bewust dat de min. FPS bij SLI niet goed aangepakt wordt. Voorzover ik weet ligt de SLI/CF minimum fps gewoon duidelijk boven de Single GPU min. fps.

SLI http://www.pcper.com/revi...r-and-Efficiency/Battle-0
CF http://www.pcper.com/revi...view-Testing/Battlefield-

Of bedoel je iets anders ?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:40

XanderDrake

Build the future!

Help!!!! schreef op maandag 18 mei 2015 @ 13:20:
[...]

CF en SLI zijn uiteraard niet perfect en hebben nadelen die single GPU’s niet hebben. Desalniettemin, van alle CF/SLI setups die ik tot nu toe gehad heb is mijn ervaring met 670SLI het beste. Ik merk geen duidelijke negatieve verschillen met single GPU, iets wat ik bij voorgaande setups zoals 280GTX SLI en 6950 CF wel duidelijk had.

Ben me er ook niet van bewust dat de min. FPS bij SLI niet goed aangepakt wordt. Voorzover ik weet ligt de SLI/CF minimum fps gewoon duidelijk boven de Single GPU min. fps.

SLI http://www.pcper.com/revi...r-and-Efficiency/Battle-0
CF http://www.pcper.com/revi...view-Testing/Battlefield-

Of bedoel je iets anders ?
Ik bedoel vooral grote shifts/pieken in frametimes. En jij geeft me meteen de juiste plaatjes om die weer te geven _/-\o_

Afbeeldingslocatie: http://www.pcper.com/files/review/2014-09-18/G3-BF4_2560x1440_PLOT.png

Hoewel de CF/SLI opstellingen een duidelijk lagere FPS/frametime baseline hebben, zie je grote delta's (verschil tussen piek en dal ms rendertime binnen dezelfde seconde) bij die opstellingen. Singel GPUs hebben daarentegen een hogere frametime baseline maar ogen (IMHO) soepeler door het gebrek aan die deltas.

(bedankt voor die links, want ik wist niet zeker of het nog speelde in de laatste generatie gpu's. Wel dus!)

Sorry voor de offtopic.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ja je had het over FPS! :+ Dan moet je ook Frametimes zeggen.. :P :>

De frametimes bij SLI/CF zullen in principe altijd slechter zijn dan bij Single. Daar heb je zeker een punt. In de praktijk ervaar ik het echter niet als significant slechter. Maar het is inderdaad wel iets waar je rekening mee moet houden bij je keuze.

Overigens in de bewuste test komt AMD er wel relatief slechter uit. Volgensmij heeft AMD hun Frametimes bij CF inmiddels wel verbeterd.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:14
Misschien verschilt het ook per settings/resolutie, maar ik had met mn 6950CF setup op 5760x1080 @ medium echt veel betere min fps en merkbaar soepelere gameplay dan met 1 kaart (o.a met BF3 en Crysis2).
Wel had ik met bepaalde drivers problemen met Dirt (80 fps en toch niet smooth), maar dat was met andere (oudere) drivers verholpen.

Acties:
  • 0 Henk 'm!

Verwijderd

Frametimes zo laag mogelijk zijn volgens mij alleen interessant voor 'gamers' die daadwerkelijk het beste van hun hardware 'vereisen'.

Over de prijs van de 390x - is ook niet zo vreemd aangezien de feature HBM een compleet nieuwe is, en die investering ook terugverdiend moet worden. Je krijgt er wel een badass kaart voor terug. Geheugenbandbreedte is ook niet langer het probleem lijkt mij zo... Ik denk eerder dat op deze fase de GPU de kortkomer is. Tja en 300W? dat is alleen als je de kaart ten volle staat te gebruiken.

AMD heeft ook aangegeven drivers te releasen die de GPU kunnen forceren een niet hogere framerate dan bijv 60, 90 of 120FPS te produceren. Het voordeel is is dat je beeld ten alle tijde flexibel draait en ook niet meer frames hoeft te produceren dan dat je scherm doet. Het bespaart energie en het stoot zo ook minder warmte uit.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op maandag 18 mei 2015 @ 20:05:
Frametimes zo laag mogelijk zijn volgens mij alleen interessant voor 'gamers' die daadwerkelijk het beste van hun hardware 'vereisen'.
Zeker maar er zijn natuurlijk wel bandbreedtes waarbinnen e.e.a. moet blijven. Gaat het daar buiten dan wordt niemand vrolijk, pro-gamer of amateur alike.

Mijn eerste SLI set was meen ik 280GTX en mijn ervaring daarmee was behoorlijk slecht, het zou me niet verbazen als nVidia toen nog niet bezig was met frametimes of nog niet zo ver in de ontwikkeling van oplossingen hiervoor.

Daarna kreeg ik de 6950CF en daar was ik altijd erg tevreden over, in ieder geval voor mijn gevoel stukken beter dan de voorganger. Veel vloeiender en minder stutter.

Maar pas toen ik mijn 670SLI set had merkte ik toch weer echt duidelijke verschillen qua stutter. Die verschillen begreep ik pas / kon ik pas plaatsen nadat ik Scott Wasson's artikel over frametimes las en daarna de tests en vergelijkingen tussen nvidia en amd. Dat artikel heeft voor mij in ieder geval heel veel duidelijk gemaakt over stutter. Ik begreep toen waarom 60FPS soms toch niet vloeiend was. Sindsdien kijk ik grosso modo naar de FPS in reviews maar vooral ook naar de frametimes.

[ Voor 3% gewijzigd door Help!!!! op 18-05-2015 21:24 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Cornelisjuh
  • Registratie: Maart 2010
  • Laatst online: 16-04-2020
http://www.amdcomputex.com.tw
AMD would like to cordially invite you to our press conference at Computex 2015. You will get the opportunity to see AMD’s latest products and leading-edge technologies, while experiencing immersive visual, computing, and gaming demonstrations.
During this event, AMD executives and special guests will be introducing new, comprehensive details on AMD’s 2015 product lineup.

i7 4970K | Mugen 4 | GTX 980Ti SC+ ACX2.0+ | 16GB 1600 Corsair Dominator | Asus Maximus VII Ranger | Corsair 730T | Corsair RM750 ||| Corsair Strafe RGB | Asus MG278Q


Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3

Wat is volgens de kenners de *knip* dit is het info & nieuwsdiscussie topic. Voor aankoopadvies weet je de juiste plek wel te vinden :).

[ Voor 118% gewijzigd door br00ky op 19-05-2015 15:15 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:40

XanderDrake

Build the future!

Verwijderd schreef op maandag 18 mei 2015 @ 20:05:
Over de prijs van de 390x - is ook niet zo vreemd aangezien de feature HBM een compleet nieuwe is, en die investering ook terugverdiend moet worden. Je krijgt er wel een badass kaart voor terug.
http://www.fudzilla.com/n...-aims-at-849-retail-price

Is de kaart badass genoeg om een prijskaartje van $850 te verantwoorden :X ?

Bij Zeus, dat is duur. Ik snap dat ie meer waard is dan een GTX 980, maar dan zou ik de kaart $600-650 mee geven, niet nog es 30% meer.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Inderdaad niet goedkoop maar moeilijk te zeggen of dat te duur is zonder dat we weten hoe hij gaat presteren.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
Was het niet zo dat de prijzen die rond gaan voor release altijd hoger lagen om de concurrentie niet te veel info te geven?

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 14-09 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Daarbij de hoge euro prijs, wat ze tegenwoordig zelfs het lef geeft om bij te stellen omhoog, terwijl we het vroeger al met aantal euros van de dollarprijs moesten doen. AMD moet het van hun prijsbepalingen hebben, dus hopelijk loopt het nog wat los.

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!
Help!!!! schreef op dinsdag 19 mei 2015 @ 09:48:
^
Inderdaad niet goedkoop maar moeilijk te zeggen of dat te duur is zonder dat we weten hoe hij gaat presteren.
Pak een rekenmachine, neem een R9 280X, doe de prestaties maal twee en je hebt een aardige indicatie op 4K, uitgaande van dezelfde kloksnelheid.

Afbeeldingslocatie: http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/perfrel_3840.gif

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessant artikel van Anand over HBM. Niet echt heel veel supernieuwe dingen, wel aantal informatieve slides.

Hamvragen blijven:
  • Hoeveel GB gaat er op de 390X komen? 4 of toch 8. Als het 4 is, hoe gaan ze dat dan mitigeren. 4Gb zal niet goed vallen voor een high end produkt ben ik bang.
  • Hoe zit het met de koeling
Anandtech: AMD Dives Deep On High Bandwidth Memory - What Will HBM Bring AMD?

Inmiddels zijn er meer plekken waar ingegaan wordt op HBM. :)

O.a. PCPER: High Bandwidth Memory (HBM) Architecture - AMD Plans for the Future of GPUs heeft mooi stuk neergezet.
Waarin toch wel bevestigd lijkt te worden dat deze 1st gen HBM max 4GB ondersteund. Dit was altijd al de verwachting maar hier is men meer uitgesproken.

Het zou geen probleem moeten zijn omdat geheugengebruik optimalisatie een ondergeschoven kindje was waar nu snel winst te behalen is.

Het lijkt me echter een tricky strategie voor AMD. Bestaande games zijn er niet mee geholpen en waarom zouden developers hier tijd aan besteden voor slechts 1 topkaart met superlow marketshare die over een jaar opgevolgd is door HBM 2nd gen die het probleem niet heeft.....

Ook qua investment voor de consumer is het tricky. Nu heel veel neerleggen voor de topkaart die volgend jaar vanwege weinig geheugen alleen voor bodem prijzen kwijt te raken is....

Verder:Techreport: AMD's high-bandwidth memory explained Inside the next generation of graphics memory

Laatste pagina gaat ook in op een aantal andere potentiele downsides van HBM 1.

Dit wordt een erg interessante launch.... :)

[ Voor 113% gewijzigd door Help!!!! op 19-05-2015 18:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Momenteel oriënteer ik mij op een nieuw gamesysteem. Ik heb daarbij mijn ogen laten vallen op de GTX 970. Toch lijkt mij de 300 serie ook erg interessant. Verwachten jullie dat AMD met een meer aantrekkelijke kaart komt binnen het prijssegment van de GTX 970?

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:14
Ik denk dat de 390 iets duurder zal zijn dan de 970, als je dat er voor over hebt zou ik even wachten.
Voor hetzelfde of minder geld komen er zeer waarschijnlijk rebrands van de 290 en 290X.
De 390X wordt sowieso fors duurder.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
http://semiaccurate.com/2...finally-talks-hbm-memory/

Bij Semiaccurate worden 2 van de 3 issues die Techreport opwerpt eigenlijk al 'debunked'.

Ten eerste wordt de interposer op een 'oud' 'goedkoop' en 'uiterst bekend' process gemaakt, zijnde 40nm of 65nm. Daarbij is de passieve interposer die AMD gebruikt uiterst simpel ten opzichte van chips als GPU's. Oftewel, de interposer zou relatief probleemloos groot gemaakt moeten kunnen worden en relatief weinig gaan kosten.

Het andere punt, de prijs, wordt ook veel dieper op ingegaan. Waar HBM chips misschien wat duurder kunnen zijn dan gDDR5, er een extra onderdeel bij komt in de vorm van de interposer, wordt er op de andere kant weer veel bespaard met zaken die opeens heel veel eenvoudiger kunnen. Uiteindelijk komt Charlie tot de conclusie dat HBM misschien een klein beetje duurder kan zijn dan gelijkwaardig gDDR5, maar dat het verschil minimaal zal zijn en dat het in de nabije toekomst om zal slaan naar een voordeel voor HBM, door schaalvergroting.

Koeling blijft altijd een vraag en we zullen zien hoe AMD dit op kan lossen.

Verder claimt Charlie dat het geheugen niet verder zal gaan dan 4GB voor deze eerste generatie. Geen idee of dat geheel vast staat, gezien de verhalen over bestaande clamshell HBM units, maar dat zullen we binnenkort ook zien. Vooralsnog zijn er niet veel games die daadwerkelijk echt meer dan 4GB nodig gaan hebben, zelfs op 4K, maar het zou zuur zijn als het gebrek aan geheugen de prestaties op die resolutie negatief zouden gaan beinvloeden met nieuwere games.

Acties:
  • 0 Henk 'm!

Verwijderd

Je moet veel doen wil je 4GB volkrijgen. En de meeste die spelen op 1080p halen dat niet eens.

Door HBM heb je de overhead van teminste 8 tot 16 GDDR5 chips niet meer, en kan je besparen op o.a VRM ontwerp. Dat VRM ontwerp wordt aangepast voor het voeden van een GPU + chips alleen.

Voor koeling wordt wel wat verzonnen weer.. al dan niet dat er een hardcore userbase achter deze nieuwe techniek hun skills willen toepassen. Gelapte GPU's met HBM memory ... B)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ben bang dat een 4GB kaart wel degelijk een behoorlijk issue gaat worden. Tenzij AMD een overtuigende manier gaat vinden die zich bewijst in de reviews om het verschil met de 4GB+ kaarten vd concurrentie te mitigeren.

Marketingtechnisch lijkt het me in ieder geval een behoorlijke ramp.

Ik heb het vermoeden dat veel gamers die deze (naar verwachting zeer dure E600 a E800? ) high end kaart kopen inmiddels wel aan het overstappen zijn naar minimaal 1440p danwel 4k. Dit gaat alleen maar toenemen want alle monitorbouwers zijn bezig om in dit gat te springen, daar ligt immers het geld voor deze doelgroep en niet bij 1080p.

De toekomstbestendigheid en doorverkoopbaarheid lijkt me laag zeker in de wetenschap dat over een jaar al, de op papier veel snellere kaarten (14-16nm + HBM2) op de markt komen die geen memory capacity issue hebben. Wie wil dan nog een 4gb kaart overnemen voor een redelijke prijs :? De 1440p/4k cycle is dan nog veel verder dan nu en waarschijnlijk al behoorlijk mainstream...

Het kan nog steeds zo zijn dat de soep niet zo heet gegeten wordt maar AMD blijft toch wel erg stil op dit punt.

Ik zie in ieder geval de reviews al voor me: “Geweldige kaart, kudo’s voor innovatieve HBM technologie maar achilleshiel beperkte geheugencapacity”

[ Voor 6% gewijzigd door Help!!!! op 20-05-2015 10:25 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
4GB is lastig te bereiken op 1080p. Alleen worden deze kaarten gericht op het 4K segment. (zie http://content.hwigroup.n...-gen%20AMD%20Graphics.jpg

AMD bevestigt trouwens dat 4GB de max is voor de eerste generatie HBM.

http://arstechnica.co.uk/...-first-hbm-graphics-card/

Acties:
  • 0 Henk 'm!
Geheugenmanagement en compressie zijn de toverwoorden, maar idd marketingtechnisch is dit natuurlijk niks, veel mensen denken echt dat ze veel geheugen nodig hebben en dat meer beter is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
4gb zit bij de huidige games meestal niet vol. Ook niet op 4k. Met compressie kun je ook veel ruimte besparen.

De verschillen tussen 4 en 8gb kaarten zijn nu minimaal. In specifieke gevallen Is de min fps wel hoger als maakt het weinig uit. Maar dan het je het over framerates van 10 tm 30fps die eigenlijk al te laag liggen.

Het Is niet future proof dat Is wel een nadeel. Titan X met zijn 12GB Is dat wel. Imo mag de prijs van de 390X i het geval van 4GB ook wel aanzienlijk lager zijn.

Voor 4K zal het nog wel genoeg zijn maar voor hogere resolutie zoals bij eyefinity nog weleens voor kunnen komen zullen eerder een probleem vormen.

De echt interessante kaarten komen volgend jaar. HBM2 met 14nm FinFET dit Is wel een leuke tussenstap. nvidia heeft ook niet stil gestaan dus AMD moet nu wel met iets nieuws komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
12GB is voor een videokaart bedoeld voor gaming niet futureproof, het is totaal nutteloos. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 06:34

hidde212

Free your mind...

Zoals The Mask ook al zegt: geheugenmanagement speelt een grote rol. Komt ook in het techreport artikel naar voren.
This first-gen HBM stack will impose at least one limitation of note: its total capacity will only be 4GB. At first blush, that sounds like a limited capacity for a high-end video card. After all, the Titan X packs a ridiculous 12GB, and the prior-gen R9 290X has the same 4GB amount. Now that GPU makers are selling high-end cards on the strength of their performance at 4K resolutions, one might expect more capacity from a brand-new flagship graphics card.

When I asked Macri about this issue, he expressed confidence in AMD's ability to work around this capacity constraint. In fact, he said that current GPUs aren't terribly efficient with their memory capacity simply because GDDR5's architecture required ever-larger memory capacities in order to extract more bandwidth. As a result, AMD "never bothered to put a single engineer on using frame buffer memory better," because memory capacities kept growing. Essentially, that capacity was free, while engineers were not. Macri classified the utilization of memory capacity in current Radeon operation as "exceedingly poor" and said the "amount of data that gets touched sitting in there is embarrassing."

Strong words, indeed.

With HBM, he said, "we threw a couple of engineers at that problem," which will be addressed solely via the operating system and Radeon driver software. "We're not asking anybody to change their games."
Het "geheugentekort" is dus mogelijk op te vangen met drivers.

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tot nu toe heeft AMD feitenlijk altijd kunnen aantonen dat een goede beheer van bandbreedte, ook op 4k, zeer belangrijk is. Dus wellicht weet AMD ook hier weer hoge ogen te gooien op 4K, zoals de afgelopen generaties ook altijd beter functioneerden op die hoge resoluties, vergeleken met nVidia GPU's.

Ik vrees echter wel dat als er ergens 1 game is die werkelijk meer dan 4GB nodig gaat hebben en compensatie met andere technieken niet optimaal werken, die game tot het extreme gepushed zal worden door zowel nVidia als alle betaalde reviews/forumposters. Alle andere games zullen dan opeens minder belangrijk, minder next gen zijn.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Mijn inschatting is dat het marketingtechnisch moeilijk gaat worden.

Uiteindelijk zullen we het totaalplaatje moeten beoordelen incl. prijs en wat nVidia hiertegenover zet, nieuwe kaart / positionering via prijsverlaging van hun huidige kaarten.

Psychologie speelt een grote rol.
  • Meer memory is beter en noodzakelijk zit er imo redelijk ingestampt bij de kopers, zelfs onbewust bij de enthusiasts met meer kennis. En waarom zou je, indien nVidia via prijspositionering een gelijkwaardig presterende kaart met meer geheugen zou aanbieden, het risico nemen?
  • Geheugencompressie en bandwidth management is volgens AMD zelf een ondergeschoven kindje omdat er altijd voldoende ram beschikbaar was en een paar engineers konden al snel grote winsten halen. Dan kan nVidia dat lijkt me ook, tenzij de winsten gerelateerd zijn aan de werking van HBM zelf.
  • Daarnaast kun je je afvragen of de stelling van AMD dat ze een evt. tekort oplossen via geheugencompressie / bandwidth management op vruchtbare bodem gaat vallen.
    Naar mijn mening heeft AMD helaas een fors imago probleem op het gebied van execution new technology (zie ook weer freesync; overdrive blijkt niet te werken, CF is nog niet supported), beloftes waarmaken , drivers, samenwerking developers
.

Niet dat nVidia her en der niet tekort schiet maar het lijkt wel of het hen minder wordt aangerekend. (Alhoewel 3.5 vs 4gb wel redelijke oproer veroorzaakte... :o )

Even ervan uitgaande dat de prijs en prestaties op orde zijn, zal heel veel afhangen van de toon vd reviews inzake de 4gb limiet.

ps: Maar misschien ben ik te somber :o

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Balance
  • Registratie: Januari 2013
  • Laatst online: 14-09 21:48
Maar 4GB vol krijgen en 4GB effectief gebruiken zijn twee verschillende dingen. Als je een snelle PCIe SSD neemt kan je in twee seconden het volledige videogeheugen van 4GB vullen. Of in een halve seconde 1GB aan nieuwe data erin spuiten.

Met behulp van inladen op RAM kan dit nog veel sneller, tot de grens van PCIe 3.0 x16 (31.5 GB/s bidirectional).

Je hoeft met moderne SSD's niet textures die je over 2 minuten misschien nodig hebt al meteen in te laden, maar dat kan ook 2 seconden voor dat je ze nodig kan gaan hebben. Als er goed gebruik wordt gemaakt van 4GB geheugen moet dat voor een flinke tijd volstaan.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
-The_Mask- schreef op woensdag 20 mei 2015 @ 10:47:
12GB is voor een videokaart bedoeld voor gaming niet futureproof, het is totaal nutteloos. ;)
True maar ik snap dat ze meer dan 6gb wilde hebben voor een kaart van 1000 euro. Genoeg mensen die dat soort hardware alleen voor de specs kopen.

Maar 6gb Was voor nu meer dan voldoende geweest maar Was minder dan de R9 290X kaarten met 8GB. En dat wilde ze niet hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3

Nou ben officieel in t rode kamp. Hoi!

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op woensdag 20 mei 2015 @ 11:51:
[...]


True maar ik snap dat ze meer dan 6gb wilde hebben voor een kaart van 1000 euro. Genoeg mensen die dat soort hardware alleen voor de specs kopen.

Maar 6gb Was voor nu meer dan voldoende geweest maar Was minder dan de R9 290X kaarten met 8GB. En dat wilde ze niet hebben.
Ze snappen daar duidelijk dat het eenvoudiger is om gewoonweg meer geheugen op de kaart te zetten omdat de koper dat nu eenmaal prettig vind bij zo'n dure kaart dan de koper te gaan overtuigen dat 6gb ook voor 4k de komende jaren wel goed genoeg is.

Daarnaast lukt het nVidia voorzover ik in kan schatten ook prima om de meerprijs door te berekenen.

Ik ben echt heel benieuwd of en hoeveel voordeel AMD uit haar HBM first to market positie kan halen.

[ Voor 7% gewijzigd door Help!!!! op 20-05-2015 13:07 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Help!!!! schreef op woensdag 20 mei 2015 @ 13:05:
[...]


Ze snappen daar duidelijk dat het eenvoudiger is om gewoonweg meer geheugen op de kaart te zetten omdat de koper dat nu eenmaal prettig vind bij zo'n dure kaart dan de koper te gaan overtuigen dat 6gb ook voor 4k de komende jaren wel goed genoeg is.

Daarnaast lukt het nVidia voorzover ik in kan schatten ook prima om de meerprijs door te berekenen.

Ik ben echt heel benieuwd of en hoeveel voordeel AMD uit haar HBM first to market positie kan halen.
Mee eens

Dat vraag ik me ook af. In ieder geval al meer ervaring opdoen met de techniek. Qua bandbreedte lijken ze ook wel een 50%er bij te krijgen. Maar hoeveel je daar van terug gaat zien Is de vraag.
Het lijkt me wel lastiger te maken. En nu heb je die 4gb limiet. Maar dit jaar Is dat geen issue veel kaarten zijn nog 4gb.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Marketingtechnisch zal het inderdaad wat lastig zijn. Maar we weten dat Nvidia dat spelletje beter speelt, dat is niets nieuws.

Zo ook "Hairworks" in TW3. AMD gebruikers kunnen dat probleemloos draaien als ze de tessellation slider in CCC even goed zetten (zie hier).

We weten allemaal dat AMD minder, maar grotere en efficiëntere tessellators heeft; die van Nvidia zijn stukken kleiner, maar ze hebben er ook stukken meer. Het gevolg is dat met weinig samples AMD er minder van merkt, terwijl Nvidia (veel) hogere sample counts aan kan. Wat velen helaas nog steeds niet weten is dat tessellation het meeste effect heeft tussen de 4 en 16 samples. Daarboven zie je het niet meer, tenzij je inzoomt op een 4K screenshot. Het is net als met MSAA, meer samples is simpelweg niet altijd beter.

Dat is waarom AMD die slider heeft en waarom ze grotere tessellators gebruiken. Nvidia maakt daar gebruik (misbruik?) van door Hairworks standaard met idioot veel samples te laten lopen, wat gewoon niet nodig is. Dus Nvidia's claims van "het kan niet op AMD, ze zijn te traag !!!" is ook gewoon een glasharde leugen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ja dat zij typische nvidia praktijken. Doen ze al heel lang express idioot hoge sample rates draaien en game dev's overtuigen om dat standaard te maken. En misselijke en trieste acties. Een van de redenen waarom pc games zo inefficiënt op hardware draaien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Neemt niet weg dat 4GB technisch gezien gewoon geen probleem is; TW3 kan met minder dan 2GB uit de voeten. BF4 gebruikt dan wel een stuk meer, maar dat is vooral puur cache, ook dat spel kan zelfs met minder dan 1.5 GB gewoon lekker draaien.

Aan de andere kant kan AMD wel met de bandbreedte pochen, dus waarschijnlijk zetten ze daar op in qua marketing.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

CMSTRR schreef op woensdag 20 mei 2015 @ 11:59:
Nou ben officieel in t rode kamp. Hoi!
Welkom :)

4GB zie ik in normaal gebruik geen enkel probleem worden, alleen zoals jullie al zeggen word het marketingverhaal een stuk moeilijker.
Helaas weet het over, over, over-grote deel van de consumenten nog niet eens wat een GPU of CPU is en verwisselen ze alles, maar buiten dat gaat die consument dus gewoon nummertjes vergelijken en is de PC met e.g. 4GB videogeheugen beter als die met 3GB, waar ze dan niet op letten is dat die 4GB kaart een low-end kaart is met 64-bit bus en dat de andere een 280X is.

Maar ja, voordat de mensen dat doorhebben zijn we nog een jaartje of tig verder ben ik bang.
Werelds schreef op woensdag 20 mei 2015 @ 14:42:
Marketingtechnisch zal het inderdaad wat lastig zijn. Maar we weten dat Nvidia dat spelletje beter speelt, dat is niets nieuws.

Zo ook "Hairworks" in TW3. AMD gebruikers kunnen dat probleemloos draaien als ze de tessellation slider in CCC even goed zetten (zie hier).

We weten allemaal dat AMD minder, maar grotere en efficiëntere tessellators heeft; die van Nvidia zijn stukken kleiner, maar ze hebben er ook stukken meer. Het gevolg is dat met weinig samples AMD er minder van merkt, terwijl Nvidia (veel) hogere sample counts aan kan. Wat velen helaas nog steeds niet weten is dat tessellation het meeste effect heeft tussen de 4 en 16 samples. Daarboven zie je het niet meer, tenzij je inzoomt op een 4K screenshot. Het is net als met MSAA, meer samples is simpelweg niet altijd beter.

Dat is waarom AMD die slider heeft en waarom ze grotere tessellators gebruiken. Nvidia maakt daar gebruik (misbruik?) van door Hairworks standaard met idioot veel samples te laten lopen, wat gewoon niet nodig is. Dus Nvidia's claims van "het kan niet op AMD, ze zijn te traag !!!" is ook gewoon een glasharde leugen.
Klopt helemaal, en probeer jij dat leek maar eens uit te leggen dat AMD net zogoed is in die situatie als vergelijkbare nVidia kaart. Ik durf te wedden dat je dat in de meeste gevallen pech zult hebben met je overhalen.
En helaas, opnieuw zal de consument aannemen wat ze het meeste horen of zien, terwijl dit niet altijd hoeft te kloppen.

Argumenten als "AMD gaat sneller kapot", "AMD is rotzooi", "Ik heb alleen maar slechte ervaringen met AMD", "ze worden veel warmer dan nVidia" hoor ik in het kleine "we-denken-heel-veel-te-weten-over-pc's- groepje" op school nog véél te vaak en alle punten zijn min of meer de grootste flauwekul, maar het heeft wel tot resultaat dat ze iemand in een product praten waar ze niet veel aan hebben.

Dus, AMD: pak het alsjeblieft goed aan, met fatsoenlijke OEM koelers, redelijke prijzen en degelijke performance. Als 1 van die dingen uit balans raken krijg je van veel mensen weer onnozele praat over je heen.

-------------------------
Iets heel anders trouwens, waar ik me eigenlijk nooit zo heel erg met heb bezig gehouden, en dat is in hoeverre dat HBM (met veel hogere bandwith) hinder zal hebben van een minder snel PCI-e slot? Dus anders geformuleerd: gaat mijn PCI-e 2.0 slot een bottleneck vormen voor HBM geheugen?

[ Voor 4% gewijzigd door Kuusj op 20-05-2015 16:30 ]

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!
Nee dat staat los van elkaar. HBM zorgt voor een grotere geheugenbandbreedte tussen de GPU en zijn videoRAM, tussen de communicatie van de videokaart en de rest van het systeem hoeft niks te veranderen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Help!!!! schreef op woensdag 20 mei 2015 @ 11:46:
Mijn inschatting is dat het marketingtechnisch moeilijk gaat worden.
Dat lijkt me dus ook, volgens mij is het dé reden dat Nvidia zoveel Titan kaarten verkoopt, maar bij AMD is men kritisch genoeg. Ik heb nog nooit iemand zien zeggen: "ja maar de GTX 780Ti is minder tov. de AMD 290X omdat ie 1GB minder VRAM heeft". Nee: "AMD kaart wordt veels te warm joh, wat een faal". Dat de R9 290X nu nog doodleuk kortbij de GTX 980 staat op 4K UHD, hoor ik niemand noemenswaardig vinden.
Niet dat nVidia her en der niet tekort schiet maar het lijkt wel of het hen minder wordt aangerekend. (Alhoewel 3.5 vs 4gb wel redelijke oproer veroorzaakte... :o )
Heeft het wel voor iets gezorgd ? 1% teruggestuurde kaarten ? Ik betwijfel het sterk, maar het blijft een 3,5GB kaart. Als AMD dit zou geflikt hebben, zou de wereld te klein zijn voor al die nieuwe Nvidia klanten.

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

True, men vergeet ook gewoon dat de 400 en 500 series van Nvidia kacheltjes waren, en AMD het toen heel leuk deed qua zuinigheid.

AMD heeft gewoon een imagoprobleem van hier tot ginder, en Nvidia lijkt soms net Apple.

* RobinHood gebruikt zijn R9 290 in de winter als voetverwarming

[ Voor 18% gewijzigd door RobinHood op 20-05-2015 17:09 ]

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
Niet om over te discussiëren maar eigenaar (geweest) van :
9400 GT , 9400 GT , GTS 250 , GTS 450 , 5870 CF , 5870 , 780 , 290 (7970 , 750ti)

Heb ik toch een betere indruk van Nvidia vooral rond stabiliteit.
Trouwens een 780 of 290 is een groot verschil qua warmteontwikkeling :X

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:14
nvidia666 schreef op woensdag 20 mei 2015 @ 17:26:
Trouwens een 780 of 290 is een groot verschil qua warmteontwikkeling :X
Toch wel 15W gemiddeld tijdens het gamen 8)7
http://www.techpowerup.com/reviews/AMD/R9_290/24.html

[ Voor 3% gewijzigd door mitsumark op 20-05-2015 17:58 ]


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

nvidia666 schreef op woensdag 20 mei 2015 @ 17:26:
Niet om over te discussiëren maar eigenaar (geweest) van :
9400 GT , 9400 GT , GTS 250 , GTS 450 , 5870 CF , 5870 , 780 , 290 (7970 , 750ti)

Heb ik toch een betere indruk van Nvidia vooral rond stabiliteit.
Trouwens een 780 of 290 is een groot verschil qua warmteontwikkeling :X
Hmm, dan heb je vast heel erg geluk gehad met je 9400GT's en GTS250, want van de 8xxx tot aan de 2xx serie waren er idioot veel uitvallers binnen 3 jaar, puur vanwege de soldeer die toen gebruikt werd.

Heb zelf ook een hele poos nVidia gehad, maar ben toen overgegaan omdat AMD gewoon meer bood voor hetzelfde geld, en dat doen ze nu naar mijn mening nog steeds. En dat gaan ze weer doen.

Ik vind dit wel een "discussie" (we houden het op antwoord) waard, want ik wil nu eindelijk wel eens weten waardoor je (en andere mensen IRL die me steeds zitten uit te lachen met mijn AMD setup) een betere indruk qua stabiliteit hebt bij nVidia, dit imho zijn van die ongegronde meningen die overal en nergens gebruikt worden maar (meestal) geen fatsoenlijke argumenten met zich meevoeren.
Ook weer zoiets inderdaad, net als de HD7970 en de GTX680 (=GTX770), die verbruiken ook echt bijna hetzelfde, maar toch is nVidia zuiniger en koeler }:O

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
over geheugen en video kaarten gesproken.
Ik kan me nog herinneren dat nog niet al te lang geleden Nvidia kaarten meer geheugen nodig hadden dan AMD om niet tegen een bottleneck aan te lopen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
kuusj98 schreef op woensdag 20 mei 2015 @ 16:28:
Argumenten als "AMD gaat sneller kapot", "AMD is rotzooi", "Ik heb alleen maar slechte ervaringen met AMD", "ze worden veel warmer dan nVidia" hoor ik in het kleine "we-denken-heel-veel-te-weten-over-pc's- groepje" op school nog véél te vaak en alle punten zijn min of meer de grootste flauwekul, maar het heeft wel tot resultaat dat ze iemand in een product praten waar ze niet veel aan hebben.

Dus, AMD: pak het alsjeblieft goed aan, met fatsoenlijke OEM koelers, redelijke prijzen en degelijke performance. Als 1 van die dingen uit balans raken krijg je van veel mensen weer onnozele praat over je heen.
Dat is allemaal wel te verklaren hoor :)

AMD/ATI draait toch al een stukje langer mee dan Nvidia en eind jaren 80/begin jaren 90 was dat qua marketing allemaal helemaal anders. ATI is daar nooit echt in veranderd. Het is pas sinds AMD ze over nam dat er echt iets van marketing kwam en dat is nog steeds niet veel. Nvidia is een stukje jonger en die moesten vanaf het begin tegen ATI opboksen (wat gewoon al een grote naam was) en dat andere nieuwe lid van het clubje: 3DFX. Matrox, S3 en Cirrus waren op dat moment al niet zo boeiend meer (daar had ATI al van gewonnen), maar het grote ATI en het nieuwe en uitzonderlijk slimme 3DFX waren andere koek.

Het is natuurlijk gewoon dom van AMD, die overname van ATI was niet op het goede moment. De matige tot soms ronduit slechte periode tussen R300 (9700) en RV770 (4870) heeft ze toen veel aan naam gekost; in die periode waren er inderdaad veel problemen met slechte drivers, slecht gebouwde kaarten. Gooi daar boven op dat de CPU tak in is gekakt, het afstoten van GlobalFoundries de cijfers er heel slecht uit liet zien en het is echt wel te begrijpen waar die slechte naam vandaan kwam. Ze hadden met Evergreen (5870) veel harder naar Nvidia moeten uithalen op marketing gebied. RV770 deed precies wat hij moest doen (prijstechnisch diep onder GT200 duiken om populariteit op te bouwen). Evergreen deed dat ook wel, maar gooide er marketingtechnisch te weinig bovenop. Daar zit de grote gemiste kans :P

Je hoeft maar naar Nvidia te kijken; G80 en GT200 heeft ze dusdanig veel geld gekost dat ze van 800 miljoen winst naar bijna 100 miljoen verlies zakten en tóch hadden ze ondanks Fermi nog steeds hun sterke merknaam.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Ik ben er zelf van overtuigd dat AMD's slechte prestaties op CPU gebied ook hun weerslag hebben op hun GPU imago. immers, als AMD geen noemenswaardige concurrentie aan Intel kan bieden, waarom zouden ze dit op GPU gebied wel kunnen? Dat lijkt mij een vrij logische gedachtegang voor de wat minder ingelezen consument.

Verder zijn AMD's recente marketing pogingen ook niet van bijster hoog niveau. Ruil je 3.5GB kaart in tegen onze 4GB kaart lijkt op het eerste gezicht een hele leuke marketing campagne, maar heeft garandeerd ook potentiële klanten van zich vervreemd.

[ Voor 12% gewijzigd door ColinZ op 20-05-2015 20:54 ]


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Werelds schreef op woensdag 20 mei 2015 @ 14:42:
Zo ook "Hairworks" in TW3. AMD gebruikers kunnen dat probleemloos draaien als ze de tessellation slider in CCC even goed zetten (zie hier).
De setting "Tessellation Mode" in te stellen op "Override application settings" als profiel voor een specifiek spel is opzich prima.
Maar het is zeker niet aan tge bevelen om dit voor je algemeen profiel te gebruiken, dan is "AMD Optimized" beter of nog beter is "Let Application Decide"

Reden is als je het spel gaat overrulen dat je scheuren in het landschap of andere models kan krijgen aangezien de aansluiting dan niet meer klopt.

Heb ik al met meerdere spellen gezien.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het is niet alleen marketing, het is ook slechte executie.

Ze zijn ongeveer een jaar later dan nvidia, waarom werkt bij gsync monitoren dan de overdrive niet, waarom werkt crossfire nog niet. Met een beetje pech moet straks iedereen zijn monitor terugsturen omdat de benodigde firmware update niet zelf gedaan kan worden.

Dan heb je nog het framerate issue. AMD had het gewoon niet in de gaten en nvidia wel. Het duurde daarnaast ook nog erg lang voordat het opgelost was.

Dat hakt er gewoon in en mijn inziens terecht.

Trueaudio is ook mislukt (helaas).

Mantle, moeilijk te kwantificeren of ze er nu echt iets aan hebben of dat ze eigenlijk nvidia en ms een freeride hebben gegeven. Daarnaast eindeloos in beta en voor mijn gevoel niet iets wat gelijk goed was. Gaf mantle AMD gebruikers nu het idee dat ze daardoor een superieure gebruikerservaring hadden tov nvidia :?

Waarom lukt het AMD niet het hele nvidia gameworks verhaal om te draaien. Het is mij in ieder geval niet duidelijk of nvidia hier echt vuil spel speelt of gewoon bereid is meer te investeren in gamedev relations.

Ik weet het niet, heb aantal goede ervaringen met AMD gehad maar op de een of andere manier ben ik een beetje teleurgesteld geraakt. Ik weet niet of ik het nog allemaal objectief zie of dat de nvidia marketing mij inmiddels ook in de tang heeft. :X

AMD doet of probeert goede dingen te doen maar het komt imho altijd zo halfbakken over terwijl ik ergens denk dat ze toch ook gewoon genoeg slimme mensen hebben zitten om nvidia aan te kunnen :?
Of ze doen het wel goed maar het lijkt veel minder te resoneren bij mensen dan als nvidia het gedaan zou hebben.

User experience, executie en marketing is alles. Misschien moeten ze gewoon een paar nvidia marketing lui wegkopen :X

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
Bij mij heeft Mantle nooit echt goed gewerkt. Volgens mij komt dat vooral omdat ik een 2GB HD7870 kaart heb. Ik krijg in BF4 regelmatig een lag spike in de frames, welke in DX11 niet voorkomt. Het schijnt bij de 4GB versie niet voor te komen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
ColinZ schreef op woensdag 20 mei 2015 @ 20:52:
Ik ben er zelf van overtuigd dat AMD's slechte prestaties op CPU gebied ook hun weerslag hebben op hun GPU imago. immers, als AMD geen noemenswaardige concurrentie aan Intel kan bieden, waarom zouden ze dit op GPU gebied wel kunnen? Dat lijkt mij een vrij logische gedachtegang voor de wat minder ingelezen consument.
Tuurlijk, dat is ook wat ik bedoel. Na een zwakke periode van ATI worden ze overgenomen (wat meteen al de indruk wekt dat het slecht met het bedrijf gaat, terwijl ze juist terug kwamen) door een processor bakker die niet met z'n grote concurrent mee kan, vervolgens ook nog eens z'n fabrieken verkoopt en enkele jaren verlies draait. Dat is wat de "minder ingelezen consument" (heerlijk eufemisme :')) leest over het bedrijf. Tuurlijk gaat je naam dan kapot.
enchion schreef op woensdag 20 mei 2015 @ 20:57:
De setting "Tessellation Mode" in te stellen op "Override application settings" als profiel voor een specifiek spel is opzich prima.
Maar het is zeker niet aan tge bevelen om dit voor je algemeen profiel te gebruiken, dan is "AMD Optimized" beter of nog beter is "Let Application Decide"

Reden is als je het spel gaat overrulen dat je scheuren in het landschap of andere models kan krijgen aangezien de aansluiting dan niet meer klopt.

Heb ik al met meerdere spellen gezien.
Hmm dat kan, hoewel ik er met m'n 6950 geen last van had toen ze dat introduceerden. Maar je moet het inderdaad ook niet als globale instelling gebruiken.
Help!!!! schreef op woensdag 20 mei 2015 @ 21:08:
Waarom lukt het AMD niet het hele nvidia gameworks verhaal om te draaien. Het is mij in ieder geval niet duidelijk of nvidia hier echt vuil spel speelt of gewoon bereid is meer te investeren in gamedev relations.
Het is beide. Ze gooien een zak geld op tafel en bieden dan inderdaad veel ondersteuning - mits de dev het logo en zo veel mogelijk van hun proprietary rataplan in hun game propt. We krijgen elke keer te horen dat AMD zogenaamd geen programmeurs zou willen sturen (pCARS bijvoorbeeld) maar dat is je reinste onzin. Ze zijn alleen niet bereid bakken met geld in een product van een ander te pompen (ook omdat dat nog geen reële optie is qua financiën).

AMD heeft gewoon een andere filosofie, een die gewoon voort borduurt op hun achtergrond. TressFX en TrueAudio is het enige dat ze hebben dat echt van hen is. Voor de rest staan zij vooral achter open dingen. DICE en FrostBite zijn het perfecte voorbeeld. Ze werken al jarenlang heel nauw samen, maar dat heeft geen enkele weerslag op Nvidia gehad; sterker nog, DICE werkt ook verdomd nauw met Nvidia samen en het resultaat is dat hun engine overal gewoon soepel op draait.

Ik moet heel hard nadenken wil ik op een game of engine komen waar AMD dankzij hun relatie met de betreffende ontwikkelaar echt een groot voordeel op Nvidia heeft of had; Tomb Raider wellicht, maar dat lag aan het feit dat Nvidia hun GPGPU iets te veel gecastreerd had. Andersom is dat geen enkel probleem, het merendeel van de games met Nvidia sticker werkt niet meteen lekker op AMD. Sowieso mis je een hele hoop dingen.

Een ander voorbeeld is OpenCL. Daar kan Nvidia niet genoeg geld uithalen, dus werken ze er niet aan mee; ondanks het feit dat op het moment dat 1.2 uit kwam het nét even iets meer kon dan CUDA. Inmiddels hebben we 2.0 en zelfs al 2.1; Intel en AMD ondersteunen 2.0 sinds ergens halverwege vorig jaar, Altera is er mee bezig. Nvidia heeft pas net vorige maand 1.2 in hun driver zitten. Nu mag jij raden welk van deze bedrijven het langst mee draaien en gewoon uit een ander tijdperk met andere waarden stammen ;)
User experience, executie en marketing is alles. Misschien moeten ze gewoon een paar nvidia marketing lui wegkopen :X
Helemaal geen gek idee :P

Acties:
  • 0 Henk 'm!

AMD "Fiji" HBM Implementation Detailed

Back in 2008, when it looked like NVIDIA owned the GPU market, and AMD seemed lagging behind on the performance and efficiency game, the company sprung a surprise. The company's RV770 silicon, the first GPU to implement GDDR5 memory, trounced NVIDIA's big and inefficient GeForce GTX 200 series, and threw AMD back in the game. GDDR5 helped the company double the memory bandwidth, with lower pin- and memory-chip counts, letting the company and its partners build graphics cards with fewer components, and earn great margins, which the company invested in development of its even better HD 5000 series, that pushed NVIDIA with its comical GeForce GTX 480, to hit its lowest ever in market-share. Could AMD be looking at a similar turnaround this summer?

Since the introduction of its Graphics CoreNext architecture in 2012, AMD has been rather laxed in its product development cycle. The company has come out with a new high-end silicon every 18-24 months, and adopted a strategy of cascading re-branding. The introduction of each new high-end silicon would relegate the existing high-end silicon to the performance segment re-branded, and the existing performance-segment silicon to mid-range, re-branded. While the company could lay out its upcoming Radeon R9 series much in the same way, with the introduction of essentially just one new silicon, "Fiji," it could just prove enough for the company. Much like RV770, "Fiji" is about to bring something that could prove to be a very big feature to the consumer graphics market, stacked high-bandwidth memory (HBM).
Afbeeldingslocatie: http://static.tweakers.net/ext/f/eQW0iTUe0knpnSTqnOJx3ScT/medium.jpg Afbeeldingslocatie: http://static.tweakers.net/ext/f/hsOimnsR3oAfGWNbtMU014zX/medium.jpg Afbeeldingslocatie: http://static.tweakers.net/ext/f/BvrgIkaRgmKQ2Uqbs9EgAFcz/medium.jpg Afbeeldingslocatie: http://static.tweakers.net/ext/f/Az8kNo9ozbJ3CvENusHWMowf/medium.jpg Afbeeldingslocatie: http://static.tweakers.net/ext/f/XwLWPw9wttvg589PFQWZfHrr/medium.jpg
HBM is being promoted as an upcoming memory standard by JEDEC, and AMD will be the first company to build an ASIC implementing it; with SK Hynix being among the first DRAM makers to build silicon for the standard. HBM is being brought in to address a key problem with GDDR5 - it's not being able to keep up with the growing video memory bandwidth demands of upcoming applications and the GPUs being built to drive them. AMD already has the fastest implementation of GDDR5 on its "Hawaii" silicon, which belts out 320 GB/s of memory bandwidth, but to get there, the company is having to use sixteen memory chips. Placed on a PCB, the ASIC along with the 16 memory chips take up quite a bit of real-estate - 110 mm x 90 mm (99 cm²).

GPU makers haven't managed to take clock speeds of GDDR5 above 1752 MHz (real), and the fact that they're having to use other ways to increase effective bandwidth, such as proprietary lossless memory compression, shows that GDDR5 will fetch diminishing returns for new designs from here on, out. With GDDR5 (or any DRAM standard for that matter), power-consumption doesn't follow a linear curve to support increasing clock speeds. Beyond a point, you need a disproportionate amount of power to support increasing clocks. GDDR5 reached that point. This necessitates HBM.

HBM takes a different approach to achieving memory bandwidth than GDDR5. The interface is wider, but with lower clocks (leaving a vast room for future increases in clock speeds). The first generation of HBM, which AMD is implementing on its upcoming high-end graphics cards, pushes just 1 Gbps of data per pin (compared to 7 Gbps on the fastest GDDR5); but features a vast bus width of 1024-bit (compared to just 32-bit per GDDR5 chip). An HBM "chip" is essentially a stack of five dies - a "base die" which holds routing logic, and four DRAM dies, stacked like pancakes (compared to just one DRAM die being bumped out to a BGA package that sits on the PCB, on GDDR5).

In AMD's implementation of HBM, these "chips" won't be encased into ceramic packages of their own, that sit outside the GPU package, to which it takes intricate wiring along the PCB to reach out to. Instead, HBM chips will be placed right alongside the GPU die, inside the GPU package, on a package substrate AMD calls the "interposer." This is a specially designed substrate layer above the ASIC's own package substrate, which connects the GPU die to the four HBM stacks, with an extremely high density of wiring, that's beyond what conventional multi-layered fiberglass PCBs are capable of. The interposer is perhaps the closest man has come to developing a medulla oblongata.

These stacks, as a result are much closer to the GPU silicon, and the interposer enables extremely high memory bus widths thanks to the density of wiring it can handle. AMD has four such stacks on its upcoming "Fiji" ASIC, resulting in a gargantuan 4096-bit memory bus width. Since HBM pushes lesser data per pin compared to GDDR5, don't expect "Fiji" to have eight times the memory bandwidth as "Hawaii." AMD's flagship Radeon graphics card based on "Fiji" is rumored to feature a memory clock speed of 500 MHz (1 Gbps per pin), which translates in to 512 GB/s of cumulative video memory bandwidth for the GPU, with 128 GB/s per HBM stack. The DRAM voltage is lower, at 1.3V, compared to 1.5V on 7 Gbps GDDR5.

The specifications of the GPU die are constantly being churned up by the rumor mill. Regardless of that, "Fiji" will end up having a lower PCB footprint than "Hawaii." The package will be bigger, but it will no longer be surrounded by memory chips. The PCB look quite different from what we're used to seeing, since the dawn of PC graphics add-in boards. In a way, that's a great thing. AMD retains control over memory, and so its AIB partners can't cheap out with memory chips. We haven't forgotten how some AIBs shortchanged buyers of Radeon R9 290 and R9 290X with cheaper Elpida GDDR5 chips on reference PCBs, even as initial batches (and review samples), came with higher-quality SK Hynix-made ones. Some of the earliest boards with Elpida chips didn't have proper memory timing optimization in the video-BIOS, prompting AIBs to send out BIOS updates. Something like that won't happen with "Fiji," and AIBs are free to cheap out on PCB quality, as the most sensitive wiring (that between the GPU and memory), has now been moved to the GPU package, and its interposer (more quality control in AMD's hands).

So what does this all boil down to? The memory is a more important ingredient in a modern graphics card, than you've been led to believe. The 64-bit computing era is now firmly here, and games are taking advantage of any amount of system- and video-memory you can throw at them. Compound that with DirectX 12, in which the command buffer can take advantage of any number of CPU cores you throw at it, and you're looking at a future that AMD seems to have been preparing for the the past decade (CPUs with a large number of cores, GPUs with extremely high number-crunching parallelism and memory bandwidth). HBM and the way AMD implemented in on its "Fiji" silicon is an important cog in the company's machine. It will offer a brand-new path of bandwidth upscaling through clock speed upscale; and higher energy-efficiency.

It's improbable that AMD would go to such lengths to equip its new high-end silicon, if it wasn't confident of outperforming anything NVIDIA has right now. Likewise, it's improbable that AMD would give a GPU 512 GB/s of memory bandwidth to toy with, if it lacked the chops (number-crunching muscle) to deal with such amount of memory. And this, is what makes "Fiji" a chip to look out for. AMD is expected to tease graphics cards based on "Fiji" at either Computex or E3, with a product launch within June. Let the battle between the Titans and the House of Zeus begin.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Open dingen ondersteunen en mee samen werken zal ook een stuk goedkoper zijn dan zelf dingen bedenken, moeten marketen, mensen "omkopen" om het te gebruiken etc.

En qua Mantle, ja Nvidia krijgt ook een boost in performance, zeker, maar de CPU's van AMD ook, en dat is ook zeker positief voor ze. En als ik de grafiekjes goed herinner kregen AMD videokaarten procentueel gezien een grotere boost bij DX12 dan Nvidia, puur omdat veel meuk van Mantle overgenomen zou zijn, en ja, dat is nou eenmaal geschreven door AMD voor AMD.

Wie niet sterk is, moet slim zijn, die wijsheid lijkt er eindelijk gekomen te zijn bij AMD.

Interessant artikel hierboven, ik hoop ook echt dat AMD weer eens goed kan terugslaan, met weer de eerste te zijn met nieuw geheugen.

[ Voor 9% gewijzigd door RobinHood op 20-05-2015 22:42 ]

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Er staan wel een aantal fouten in dit artikel:

''AMD already has the fastest implementation of GDDR5 on its "Hawaii" silicon, which belts out 320 GB/s of memory bandwidth''

Zowel de Titan X als de Titan Black halen 336 GB/s op hun 384-bit/7GHz bus.

''that pushed NVIDIA with its comical GeForce GTX 480, to hit its lowest ever in market-share.''

Klopt ook niet, Nvidia's laagste market share was in Q1 2004 met 37%. Na de release van de GTX480 hadden ze een een marketshare van 64%, die daarna natuurlijk wel daalde, maar nooit onder de 50% terecht kwam.

Informatieve grafiek over de onderlinge marketshare van nvidia/amd:


Afbeeldingslocatie: http://cdn3.wccftech.com/wp-content/uploads/2015/04/Nvidia-AMD.png
Excuus voor het muggenziften, maar ik irriteerde me gewoon aan dit artikel.

[ Voor 8% gewijzigd door ColinZ op 20-05-2015 23:19 ]


Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3

Ja met de R9 3XX heb ik zo getwijfeld of ik nu een kaart moest kopen (de R9 290) of wat maandjes wachten op de R9 3XX. Mijn ervaring heeft ondertussen geleerd de kat uit de boom te kijken.
Eerst alle vraagstukken weg.
- Hoe presteert t.geheugen met warmte (throttling)
- Welke prijs kwaliteit
- Is upgraden noodzakelijk wanneer de R9 290s zo'n enorme boost krijgen?

Sowieso geen reference meer lol

Etc.

Laat dx12 enz eerst maar eens komen. Elke keer wordt er van alles beloofd en gezegd maar valt t in de realiteit tegen (zoals tech demos.. herinner je je dat gezicht nog in 2010 die er deels pas kwam met crysis 3?)

Edit: Wat als blijkt dat alle info is vergeleken met de R9 3XX op dx12 niveau en dan in verhouding brengen met R9 2XX op dx11 niveau? Dan heeft de R9 3XXX een gigantisch voordeel..een oneerlijke vergelijking dus
Ik ben met de jaren sceptisch geworden m.b.t. te vroeg juichen ha

[ Voor 21% gewijzigd door CMSTRR op 20-05-2015 23:53 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

ColinZ schreef op woensdag 20 mei 2015 @ 23:17:
[...]

Er staan wel een aantal fouten in dit artikel:

''AMD already has the fastest implementation of GDDR5 on its "Hawaii" silicon, which belts out 320 GB/s of memory bandwidth''

Zowel de Titan X als de Titan Black halen 336 GB/s op hun 384-bit/7GHz bus.

''that pushed NVIDIA with its comical GeForce GTX 480, to hit its lowest ever in market-share.''

Klopt ook niet, Nvidia's laagste market share was in Q1 2004 met 37%. Na de release van de GTX480 hadden ze een een marketshare van 64%, die daarna natuurlijk wel daalde, maar nooit onder de 50% terecht kwam.

Informatieve grafiek over de onderlinge marketshare van nvidia/amd:


[afbeelding]
Excuus voor het muggenziften, maar ik irriteerde me gewoon aan dit artikel.
Ik vind het toch wel opmerkelijk dat wanneer AMD met een "klapper" komt, de krekels tjirpen, en wanneer Nvidia iets leuks doet, zij direct heel wat procenten erbij pakken.

Ik volg het allemaal pas sinds ongeveer de HD5000 serie, toen de HD5870 uitkwam, de eerste DX11 kaart, daalde AMD's aandeel blijkbaar opeens 9%. Pas toen de lagere DX11 kaarten uitkwamen steeg AMD weer.

De HD7970 ghz zorgde ook weer voor een daling, terwijl het best wel een pittig ding was, en weer een grote daling.

De komst van de R9 290 en 290x, ook weer erg goede kaarten, sneller dan al het normale wat Nvidia te bieden had voor een veel lagere prijs, gaf geen winst.

En dan opeens dondert het marktaandeel naar beneden, en nog wat meer door de GTX970, welke qua prijs/kwaliteit minder goed is dan de R9 290, de 3,5GB problematiek heeft en wat zuiniger is.

Vreemd.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3

Ja idd en dan nog dat al die ps4s en ook xo1s allemaal shipped zijn met amd onderdelen. Naar mijn weten sowieso de processors iig. Dat zijn me nogal wat miljoenen geweest die over de toonbank gingen plus wat erna nog gemaakt is en momenteel ook uiteraard
Zal wel om heel weinig gaan met winst per console.. maar tel eens uit

En dan t afgelopen jaar met t stijgende succes van de r9 290 en r9 280. Ik snap er geen drol van iig.

Zal dit toch te maken hebben met een overproductie amd cpu chips die ze hebben weg kunnen gooien?

Het is wel typisch dat ze bij de gpus de chips hergebruiken bij de lagere modellen.
Voelt een beetje als "we hebben over dus geven t een nieuw jasje"

[ Voor 23% gewijzigd door CMSTRR op 21-05-2015 00:11 ]


Acties:
  • 0 Henk 'm!

  • comitatus
  • Registratie: December 2012
  • Laatst online: 31-08 00:45
CMSTRR schreef op woensdag 20 mei 2015 @ 23:49:

Sowieso geen reference meer lol
Een reference is niet per definitie slechter. De custom koelers kunnen heel goed koelen maar nadeel is dat ze de warme lucht in je kast houden. Als je kast te weinig luchtdoorvoer heeft kunnen reference kaarten vaak toch beter zijn. Jammer is wel dat zeker bij AMD ze vaak erg luidruchtig zijn en ook niet echt koel.

Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3

comitatus schreef op donderdag 21 mei 2015 @ 00:10:
[...]


Een reference is niet per definitie slechter. De custom koelers kunnen heel goed koelen maar nadeel is dat ze de warme lucht in je kast houden. Als je kast te weinig luchtdoorvoer heeft kunnen reference kaarten vaak toch beter zijn. Jammer is wel dat zeker bij AMD ze vaak erg luidruchtig zijn en ook niet echt koel.
Ja snap ik wel.. heb de gtx 980 reference gehad en wat een duur ding was.dat om te maken
Maar ik doel op de r9 290(x) ref. Mijn god wat een ellende qua geluid enz. Kon max.clock niet eens behouden en ik had ze eens samen in crossfire nou nou.. mijn stofzuiger was er stil bij echt

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

CMSTRR schreef op donderdag 21 mei 2015 @ 00:08:
Ja idd en dan nog dat al die ps4s en ook xo1s allemaal shipped zijn met amd onderdelen. Naar mijn weten sowieso de processors iig. Dat zijn me nogal wat miljoenen geweest die over de toonbank gingen plus wat erna nog gemaakt is en momenteel ook uiteraard
Zal wel om heel weinig gaan met winst per console.. maar tel eens uit

En dan t afgelopen jaar met t stijgende succes van de r9 290 en r9 280. Ik snap er geen drol van iig.

Zal dit toch te maken hebben met een overproductie amd cpu chips die ze hebben weg kunnen gooien?

Het is wel typisch dat ze bij de gpus de chips hergebruiken bij de lagere modellen.
Voelt een beetje als "we hebben over dus geven t een nieuw jasje"
Tjeh, houd er wel rekening mee dat nVidia zijn naamsbekendheid mee heeft (lijkt af en toe wel Apple, gruwelijk vind ik die "must have-must buy" bedrijven en iedereen gaat erin mee, behalve Kuusj98) en dat de 280X echt alweer van Q3 2013 stamt.

Ik heb ook echt zitten twijfelen om naar een GTX970 te gaan hoor, komt gewoon doordat het een heel jaar stil is in het rode kamp en het groene kamp ondertussen even hard alle rebrands en overpriced Titan's de deur uit spuit.

Ach ja, als ik dan dat...
...lees, dan word ik wel echt helemaal vrolijk vanbinnen :D

Maar ja, mijn systeem begint toch op bepaalde punten ook op leeftijd de komen (3 jaar en 7000 uur) en dan ga je je toch afvragen: kan ik niet beter tot 2016 wachten en meteen Zen en 4xx meepakken?

[ Voor 5% gewijzigd door Kuusj op 21-05-2015 00:27 ]

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • exodude
  • Registratie: December 2008
  • Laatst online: 08-08-2023
CMSTRR schreef op donderdag 21 mei 2015 @ 00:08:
Ja idd en dan nog dat al die ps4s en ook xo1s allemaal shipped zijn met amd onderdelen. Naar mijn weten sowieso de processors iig. Dat zijn me nogal wat miljoenen geweest die over de toonbank gingen plus wat erna nog gemaakt is en momenteel ook uiteraard
Zal wel om heel weinig gaan met winst per console.. maar tel eens uit
De marges op console APUs zullen best goed zijn om een aantal redenen:
- Economics of scale
- R&D is vooraf betaald door de opdrachtgever
- 1 SKU

Verder is er hoge afzet, wat weer leuk voor de revenue is.

Off-topic:
kuusj98 schreef op donderdag 21 mei 2015 @ 00:26:
Maar ja, mijn systeem begint toch op bepaalde punten ook op leeftijd de komen (3 jaar en 7000 uur) en dan ga je je toch afvragen: kan ik niet beter tot 2016 wachten en meteen Zen en 4xx meepakken?
Ich zoe lekker wachten jong. 14nm is toch ein duchtig versjil mit waat weer noe hubbe. ;-) Normaal zikke ze detse neet mos wachten, maar Zen en 4xx zeen ech wo AMD al joare noa toe aan ut wirke zeen. Zeker noe oug de software eco-systemen noa 'moar corez' goan en Dx12 om de hook stuit.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
ColinZ schreef op woensdag 20 mei 2015 @ 23:17:
Klopt ook niet, Nvidia's laagste market share was in Q1 2004 met 37%. Na de release van de GTX480 hadden ze een een marketshare van 64%, die daarna natuurlijk wel daalde, maar nooit onder de 50% terecht kwam.
Shit, had die afbeelding bij mijn lulverhaal hierboven moeten zetten :P

Je ziet hier precies wat R300 deed en wat er daarna gebeurde. Overigens is hun laagste marktaandeel ooit nog wel een stuk lager als je nog verder terug gaat, maar dan moet 3DFX ook in de grafiek komen ;)
CMSTRR schreef op donderdag 21 mei 2015 @ 00:08:
Zal wel om heel weinig gaan met winst per console.. maar tel eens uit
Valt op zich nog wel mee hoor. Als je naar de cijfers kijkt zit de Enterprise, Embedded and Semi-Custom tak zit dat zo ergens tussen de 300 en 400 miljoen aan winst. 2012 zaten ze op 18 miljoen winst (dat is dus voor Jaguar), 2013 al op 295 (launches van die dingen) en afgelopen jaar op 399 miljoen. Niet alles van die winst komt van de PS4 en Xbox One, maar het merendeel wel, hun marge is dus op zich best aardig.

Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
Ik hoop alleen dat het zeer goede kaarten gaan zijn die alvast een 980 kan verslaan en nog liefst een Titan X maar dat zie ik niet gebeuren ;)

Ik zou zeggen laat maar komen AMD zo dat de concurrentiestrijd weer kan losbarsten dat alleen maar goed is voor de consument :)

600 voor 390X en 450 Voor 390 lijkt mij ideaal tenzij de 390X een Titan X killer zou zijn dan mogen ze wel iets meer vragen (750) (i hope so ;) )

Manman ik kan echt al niet wachten tot de eerste reviews ik vind dit zo interessant en leuk oOo


Hopelijk is er ook nog zot overclockruimte dan kan het feest helemaal beginnen :+

(Heeft trouwens een 8790M van 900 naar 1150 kunnen clocken O-) allemaal leuk )

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
AMD is iig bezig met drivers te maken met optimalisaties voor The Witcher 3 en Project CARS.

http://support.amd.com/en...s/Pages/The-Witcher3.aspx

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Help!!!! schreef op woensdag 20 mei 2015 @ 21:08:
Gaf mantle AMD gebruikers nu het idee dat ze daardoor een superieure gebruikerservaring hadden tov nvidia :?
Ja, maar wel de AMD gebruikers die hun hersenen gebruiken. Mantle helpt enorm bij games waarbij je tegen een CPU bottleneck aanloopt in DX11 scenario's terwijl je GPU nog headroom heeft. Het is geen (significante) versneller van performance als je GPU al aan de grond zit.

1: De domme schreeuwer; ik heb een FX8350 met een R7 260X en Mantle doet echt helemaal niets, wat een prut layer is dat!
2: De blije gebruiker; ik heb een Q9550 CPU met een opgevoerde R9 280 en haal met Mantle 30% (!!) meer FPS in mijn game.

Ik was een voorbeeld van scenario 2, mijn CPU is al wat ouder (2008) en Dragon Age Inquisition was te pittig. Mantle gaf de CPU meer ruimte waardoor deze meer in balans kwam met wat de GPU nog over had en mijn framerate ging enorm omhoog van 35fps naar 50fps avg.

Mantle is niet een mislukt iets, je kunt misschien wel - zoals hierboven - zeggen dat het niet goed gepitched wordt. Iedereen vat het op als een automatische snelheidsverbetering, maar dat is in ieder geval met de huidige implementatie in veel gevallen niet waar/haalbaar.

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 14-09 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

LongBowNL schreef op donderdag 21 mei 2015 @ 11:58:
AMD is iig bezig met drivers te maken met optimalisaties voor The Witcher 3 en Project CARS.

http://support.amd.com/en...s/Pages/The-Witcher3.aspx
Ik las ergens anders ook al van een nieuwe beta driver, maar kom al 2 dgn alleen maar die 15.4beta tegen, of is die 15.5beta er nog niet?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 11-09 11:48
Cassius schreef op donderdag 21 mei 2015 @ 14:31:
[...]


Ja, maar wel de AMD gebruikers die hun hersenen gebruiken. Mantle helpt enorm bij games waarbij je tegen een CPU bottleneck aanloopt in DX11 scenario's terwijl je GPU nog headroom heeft. Het is geen (significante) versneller van performance als je GPU al aan de grond zit.
Mantle had anders bij mijn twee R9 290's en een AMD Phenom II X6 en mijn huidige 4690k ook behoorlijk profijt hoor. Qua average framerate scheelt het niet bijzonder veel (max 5 fps ofzo) maar wat je wel merkt is dat Mantle voor een veel stabielere framerate zorgt met veel minder stuttering.

Ik hoop dat DX12 dat doorzet.

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
SAiN ONeZ schreef op donderdag 21 mei 2015 @ 14:40:
[...]


Ik las ergens anders ook al van een nieuwe beta driver, maar kom al 2 dgn alleen maar die 15.4beta tegen, of is die 15.5beta er nog niet?
Is er nog niet inderdaad. Om de AMD te citeren
AMD is committed to improving performance for the recently-released Project CARS and The Witcher 3: Wild Hunt. To that end, we are creating AMD Catalyst™ 15.5 Beta to optimize performance for these titles, and we will continue to work closely with their developers to improve quality and performance. We will release AMD Catalyst™ 15.5 Beta on our website as soon as it is available.
http://support.amd.com/en...s/Pages/The-Witcher3.aspx

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 14-09 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Thnx, eerst lezen dan kijken dus.. ;)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®

Pagina: 1 ... 5 ... 12 Laatste

Dit topic is gesloten.