Acties:
  • +1 Henk 'm!

  • Foritain
  • Registratie: Augustus 2012
  • Niet online
Lekker kort door de bocht. Als ik 30, 33 of 37 dBA ambient heb ruizen maakt dat hier geen flikker verschil op het scherm van de meter wanneer ik die op een 42 dBA fan op 50cm wijs. Zeker voor iemand met 30dB op de meter in rust denk ik dat de baseline echt meer dan prima is. Kunnen we theoretische discusies gaan voeren of discussieren over de meetapparatuur en hoe het onderzoekskundig beter kan, maar zijn insteek is echt meer dan praktisch genoeg dat opmerkingen als 'nutteloos' gewoon niet op zijn plaats zijn.

Overigens zie ik niet op welke afstand Computerbase meet? Ik heb die kaart ook net binnen maar de meting moet even op zich laten wachten totdat de 3D Printers en stofzuigers klaar zijn :D Kan wel al opmerken dat hij al wel degelijk 'hoorbaar' is op korte afstand en zeker niet de aller stilste, dus ik neig te zeggen dat Hilbert / Guru zijn beeldvorming aardig klopt. Overigens heeft die van mij een kleine coil whine, dus ik weet niet of dat nog roet in het eten gooit bij A of B.

Wat prestaties betreft overigens een vergelijkbaar beeld. Oftewel de kaart gaat vooral stiller en wat koeler zijn, maar sneller? :-/

Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op woensdag 6 september 2017 @ 16:37:
Gecertificeerde pechvogel als het gaat om AMD hardware hier. :w :P

Als ik zelfs 1400MHz core/925MHz HBM2 met 960mv kan draaien dan weet je het wel. Stock turbomode met 1200mv haalde ik niet eens de 1400Mhz en was het 800MHz voor de HBM2. Vervolgens ook flink wat hitte en de opstijgende straaljager. Verder zou het me niks verbazen als ik nog heel wat meer uit de core clock kan halen als die functie normaal gaat werken.

Het is niet alsof een chip van deze complexiteit ontworpen is om constant op een voltage te werken, en niet zal werken met lagere voltages. Of er echte rotzooichips tussen zitten die alleen maar werken op 1200mv, dat vraag ik me eigenlijk af. Dergelijke chips zouden ook wel eens in de problemen kunnen komen bij de verschillende geprogrammeerde power states van de bios van de kaart, en dan alsnog falen en worden weggegooid. Als laatste is Vega wel een bijzondere aan het worden. Hawaï was al niet mals, Polaris was ook te veel, maar dit is gewoon belachelijk. Er duiken steeds meer resultaten op en iedereen die een beetje weet wat hij/zij doet kan zijn kaart beter, zuiniger en stiller laten draaien dan de AMD default settings. Dat is gewoon dom, gewoon dom...
Deze resultaten zijn meer iets voor het ervaringen topic.
Met 1200mv en de 56 bios ga je geen goede prestaties halen. Kaart loopt dan hele tijd tegen power limits aan en clockt terug. Hoe hoger je dingen instelt hoe erger het wordt. Met UV kan je hogere clocks gaan halen.
Ik raad je aan een 64 bios te flashen UV werkt daar beter mee. Als je hulp nodig hebt wil ik je er wel mee helpen. Ik heb goede resultaten op 3 56's met de 64 bios. Ze zijn ipc even snel als met de 56 bios mits die niet throtteled maar UV werkt beter en OC ook vanwege de hogere power limits.

Er is nu ook een leuke discussie op de frontpage gaande op mijn reactie op de 64 LC review. Echt jammer dat ik al mijn resultaten nog niet in de sheet heb die waren nu wel handig geweest. Kan er nu ook niet bij komen staan allemaal thuis.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Ik heb tientallen reviews van Guru3D gelezen, daar is mijn conclusie op gebaseerd en daar is niks kort door de bocht bij. Voor geluids- en verbruikmetingen moet je gewoon niet bij Guru3D zijn.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +2 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Wat ik veel storender vind aan geluidsmetingen is dat ze dit niet in het frequentiedomein doen.

Als ze zouden laten zien welke frequenties het leeuwendeel van het geluid vertegenwoordigen wordt opeens veel inzichtelijker waarom bepaalde kaarten met 30dBA geluidsdruk veel storender klinken dan kaarten met 40dBA geluidsdruk.

Een 1kHz piep op 30dBA is namelijk veel vervelender om te horen dan 1/f ruis op 30dBA.

Kortom, zelfs een zuivere dB meting in een geluidsarme kamer zegt geen ene fluit. Zolang je niet weet op welke frequenties dat is heb je geen idee van de mate van "storendheid".

[ Voor 8% gewijzigd door Blaat op 07-09-2017 11:16 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Blaat schreef op donderdag 7 september 2017 @ 11:02:
Wat ik veel storender vind aan geluidsmetingen is dat ze dit niet in het frequentiedomein doen.

Als ze zouden laten zien welke frequenties het leeuwendeel van het geluid vertegenwoordigen wordt opeens veel inzichtelijker waarom bepaalde kaarten met 30dB geluidsdruk veel storender klinken dan kaarten met 40dB geluidsdruk.

Een 1kHz piep op 30dB is namelijk veel vervelender om te horen dan 1/f ruis op 30dB.

Kortom, zelfs een zuivere dB meting in een geluidsarme kamer zegt geen ene fluit. Zolang je niet weet op welke frequenties dat is heb je geen idee van de mate van "storendheid". Het menselijk oor heeft namelijk geen lineaire frequentierespons... Was het maar zo'n feest. :)
De grafiekjes zijn dBA, niet dB.

Mechwarrior Online: Flapdrol


  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

haarbal schreef op donderdag 7 september 2017 @ 11:05:
[...]

De grafiekjes zijn dBA, niet dB.
Maakt mijn opmerking niet minder valide. Zelfs met die correctie zijn bepaalde tonen storender dan anderen.

Mensen horen liever een "blazend" geluid dan een "piep" uit hun pc komen. Iedereen die dat ontkent heeft nog nooit een videokaart gehad met een 40mm fan erop. :')

[ Voor 23% gewijzigd door Blaat op 07-09-2017 11:11 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Blaat schreef op donderdag 7 september 2017 @ 11:08:
Maakt mijn opmerking niet minder valide.
Jawel, want jij beweert dat er geen rekening wordt gehouden met de frequentie.

Mechwarrior Online: Flapdrol


  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

haarbal schreef op donderdag 7 september 2017 @ 11:13:
[...]

Jawel, want jij beweert dat er geen rekening wordt gehouden met de frequentie.
Zo beter dan? Gewoon de laatste zin weglaten is ook moeilijk.

Ik wil gewoon zien op welke frequenties fans herrie maken. Dat feit staat los van mijn laatste opmerking over gevoeligheid van het menselijk oor en is meer gerelateerd aan subjectiviteit.

[ Voor 26% gewijzigd door Blaat op 07-09-2017 11:18 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 21:15
Een update hierover: Guru3D heeft de review offline gehaald, omdat er schijnbaar iets mis was met het BIOS van de kaart. Vraag me af of dit het echte probleem was, want de Asus kaart scoorde wel erg belabberd op alle vlakken, maar we zullen het zien.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 20:31

flessuh

Set sail for fail!

Moi_in_actie schreef op donderdag 7 september 2017 @ 11:51:
[...]

Een update hierover: Guru3D heeft de review offline gehaald, omdat er schijnbaar iets mis was met het BIOS van de kaart. Vraag me af of dit het echte probleem was, want de Asus kaart scoorde wel erg belabberd op alle vlakken, maar we zullen het zien.
Zoals ik het begrijp was er niks mis met de BIOS, maar stond de standaard RX 64 BIOS er nog op in plaats van die van Asus met hun optimalisaties.

Wel slordig dit

https://www.dutchsolarboat.com


Acties:
  • +1 Henk 'm!
Blaat schreef op donderdag 7 september 2017 @ 11:15:
[...]


Zo beter dan? Gewoon de laatste zin weglaten is ook moeilijk.

Ik wil gewoon zien op welke frequenties fans herrie maken. Dat feit staat los van mijn laatste opmerking over gevoeligheid van het menselijk oor en is meer gerelateerd aan subjectiviteit.
Helemaal mee eens. De Vega 64 koeler is op dezelfde toerentallen veel minder storend als de 290X cooler. Die heeft een hoger geluid wat veel irritanter is. Ik had de 290X er laats even in zitten en het viel mij meteen op dat de Vega 64 cooler echt een stuk beter is. Koelt ook een stuk beter bij vergelijkbare of zelfs een hoger verbruik van de kaarten De Vega kaart moest 20-30watt meer verwerken en was toch stiller draaide ook op een lager toerental.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 21:15
flessuh schreef op donderdag 7 september 2017 @ 11:53:
[...]


Zoals ik het begrijp was er niks mis met de BIOS, maar stond de standaard RX 64 BIOS er nog op in plaats van die van Asus met hun optimalisaties.

Wel slordig dit
Zeker slordig van Asus. Ik vraag me alleen af of de teleurstellende resultaten voorheen echt alleen door een foutief BIOS kwamen. Qua temperaturen deed de Asus kaart het ook niet beter dan reference, dat kan door ingestelde voltages komen (iets uit het BIOS), maar ook door het ontwerp van de koeler en hoe goed/slecht deze contact maakt met de GPU. Maar goed, een dezer dagen zal de bijgewerkte review wel online verschijnen.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Moi_in_actie schreef op donderdag 7 september 2017 @ 12:00:
[...]

Zeker slordig van Asus. Ik vraag me alleen af of de teleurstellende resultaten voorheen echt alleen door een foutief BIOS kwamen. Qua temperaturen deed de Asus kaart het ook niet beter dan reference, dat kan door ingestelde voltages komen (iets uit het BIOS), maar ook door het ontwerp van de koeler en hoe goed/slecht deze contact maakt met de GPU. Maar goed, een dezer dagen zal de bijgewerkte review wel online verschijnen.
Dat contact met de GPU (en in dit geval dus ook het HBM) is wel een puntje. Dit is wel iets wat Asus met de 1080ti opgelost had maar ik hoop dat diezelfde fix ook op Vega zit, anders kan je heatsink nog zo dik zijn, koel zal die niet worden.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 21:15
Blaat schreef op donderdag 7 september 2017 @ 12:05:
[...]


Dat contact met de GPU (en in dit geval dus ook het HBM) is wel een puntje. Dit is wel iets wat Asus met de 1080ti opgelost had maar ik hoop dat diezelfde fix ook op Vega zit, anders kan je heatsink nog zo dik zijn, koel zal die niet worden.
Precies. Asus heeft het meen ik ook bij eerdere GPU's wel eens gehad dat ze spraken van "X-heatpipe design" , maar dat 1 of 2 van die heatpipes helemaal niet in direct contact kwamen met de GPU-die. Ja.. dan kan je wel 100 heatpipes toevoegen, beter wordt het er dan niet op. Maar goed, het blijft speculeren van wat er nu echt fout ging.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:07

Apoca

Array Technology Industry

Moi_in_actie schreef op donderdag 7 september 2017 @ 11:51:
[...]
Een update hierover: Guru3D heeft de review offline gehaald, omdat er schijnbaar iets mis was met het BIOS van de kaart. Vraag me af of dit het echte probleem was, want de Asus kaart scoorde wel erg belabberd op alle vlakken, maar we zullen het zien.
Dit soort zaken zijn natuurlijk killing voor de launch van je product, of ze moeten nu wel opeens met een heel fatsoenlijke update komen anders gaat het rommelen in de marge worden m.b.t. de conclusie van die review die nu offline is :)


Radeon-Software-Crimson-ReLive-Edition-17.9.1-Release-Notes

http://support.amd.com/en...17.9.1-Release-Notes.aspx

[ Voor 11% gewijzigd door Apoca op 07-09-2017 20:55 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • +1 Henk 'm!

  • Foritain
  • Registratie: Augustus 2012
  • Niet online
Heel vreemd is het niet. Wel vaker worden de producten uitgerold terwijl de bios versies nog worden getweaked. Zowel voor mobo als GPU. Een kleine miscommunicatie ergens en je krijgt dit. Niet vreemd dus, maar desondanks slordig en pijnlijk.

Ik vond het ook best frappant, as per previous comment dat de prestaties echt gelijk waren aan reference Vega 64. Het "oc editie" labeltje zonder OC was natuurlijk reden voor vraagtekens. Guru had de kaart één dag eerder en de hele review dus vlot af, maar ik heb ook wel even zitten schelden vanmiddag dat al het testwerk voor niks was. Net maar even wat Lego gekocht om stoom af te blazen, stuur Asus de factuur wel.

Mbt heatpipes. Ooit eens gevraagd hoe dat zit. Zij gaven aan dat ze wel degelijk nuttig zijn omdat de hitte alsnog verspreid wordt en daar dus ook aan vast gingen houden. Hoe ver dat nut gaat laat ik in het midden, gaat mij uiteindelijk om het resultaat. De laatste generatie heeft overigens die maxcontact plaat erop zitten, lijkt mij sowieso efficienter.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Het is al empirisch bewezen dat zo'n maxcontact plaat (Asus met z'n marketingtermen 8)7 ) de boel behoorlijk verbetert op thermisch vlak.

Het is simpele natuurkunde, als je warmte gaat afvoeren voor het netjes verspreid wordt over alle heatpipes krijg je dat een deel van je heatsink uit z'n neus staat te vreten. Een deel van je heatsink is dan heel erg heet en de andere helft koel. Dat komt deels door de hoge thermische geleidbaarheid van heatpipes, die halen de warmte weg voordat het bij de volgende heatpipe kan komen.

Maar goed natuurkunde terzijde, de reviews van de Strix 1080 vs 1080Ti laten zien dat de Ti het thermisch een stuk beter doet ondanks de hogere TDP. En dat verschil valt niet alleen maar te verklaren met de toename van heatsink oppervlak.

Dat DirectCU systeem heeft alleen zin bij extreem grote dies. Vega is ongeveer net zo groot als GP102 en ik geloof nooit dat HBM het weglaten van een "heatspreader" kan verantwoorden.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Verwijderd

Gerucht gaat nu dat AMD met Vega 20 naar TMSC gaat....

Vraag me af hoe dat gaat dan met die deal met GF, al zouden die blij moeten zijn met alle orders van Ryzen.

En aangezien TMSC veel beter is in het maken van grote chips dan GF zou het positief zijn voor AMD.

Acties:
  • 0 Henk 'm!

  • essie111
  • Registratie: Juni 2016
  • Laatst online: 31-05-2023
Temujin schreef op maandag 28 augustus 2017 @ 14:51:
[...]


Ik ken dit hele principe niet, nognooit van huifkar gehoord. Zou je dit verder kunnen uitleggen/linken in het beschikbaarheidstopic ?
Dit is een doorzendservice die net over de grens van Duitsland zit. Ik heb vorige week nog gebruik van ze gemaakt. Zij ontvangen je bestelling in Duitsland en zij sturen hem door naar jouw adres in Nederland tegen een kleine vergoeding. Zoek maar eens op huifkar verzendservice dan vind je ze. Ik kocht een weerstation via Amazon.de welke niet naar Nederland verzonden kon worden vanuit Amazon. Door gebruik te maken van de huifkar, heb ik hem toch in huis. De communicatie vanuit de huifkar is goed. Ze houden je goed op de hoogte van de zending en ik had mijn bestelling snel in huis. Kortom: het is een doorzendservice en het werkt prima!

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 9 september 2017 @ 03:34:
Gerucht gaat nu dat AMD met Vega 20 naar TMSC gaat....

Vraag me af hoe dat gaat dan met die deal met GF, al zouden die blij moeten zijn met alle orders van Ryzen.

En aangezien TMSC veel beter is in het maken van grote chips dan GF zou het positief zijn voor AMD.
AMD heeft een contract getekend waarin het zichzelf verplicht tot het kopen van een bepaalde hoeveelheid (gedefinieerd in oppervlakte?) per tijdseenheid, indien AMD dat volume niet afneemt moet het een boete betalen. Ik kan me voorstellen dat AMD met het goeddraaiende Ryzen al aan de verplichting voldoet maar het zou ook best kunnen dat dat GF die extra productie niet aankan met de huidige productiecapaciteit.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
wordt vega20 dan 'groot'?

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 9 september 2017 @ 03:34:
Gerucht gaat nu dat AMD met Vega 20 naar TMSC gaat....

Vraag me af hoe dat gaat dan met die deal met GF, al zouden die blij moeten zijn met alle orders van Ryzen.

En aangezien TMSC veel beter is in het maken van grote chips dan GF zou het positief zijn voor AMD.
Ja ben benieuwd wellicht kunnen ze die dan nog weer 100-200 MHz hoger clocken al is 200 wel erg veel maar je weet het soms niet zeker in combinatie met de shrink.
Echter vrees ik dat het dan gewoon een vega 10 met kleine tweaks en verkleind is. Vega lijkt net als Fiji in de basis nog steeds tegen de GCN architectuur limieten aan te zitten en dat zou beteken dat 4096 shaders de max is. Je ziet nu met Vega al (nog meer dan met Fury) dat het frondend een bottelnek heeft waardoor een 56 op gelijke clocks soms maar 1-2% trager is. Wellicht dat ze dit met nieuwe drivers nog een beetje kunnen fixen maar veel kunnen ze er denk ik niet aan doen. Of ze moeten toch grotere aanpassingen maken.

Ik hoop dat ik geen gelijk heb en dat ze toch meer shaders en vooral het frond end verder kunnen vergroten bij die kaart maar ik moet het eerst gaan zien. Daarnaast zou er ook meer geheugen bandbreedte moeten komen in sommige gevallen profiteert een Vega chip aardig van een geheugen OC. Als Vega 20 nog meer shader units krijgt is 480-512GB/s niet genoeg meer. Als het alleen maar een hoger geclockte versie is kan je het met betere compressie en HBM 2 met hogere yields waardoor je wel 1000MHz of zelfs iets meer haalt het nog wel uitzingen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Sterker nog, alles dat we "weten" (geruchten/speculatie) van Vega 20 is dat die evenveel NCUs gaat krijgen als Vega 10. Wel zou Vega 20 twee keer zoveel geheugenbandbreedte krijgen. Navi 10 zou een verdubbeling aan NCU's hebben t.o.v. Vega 10 en "nexgen" memory krijgen.

Vega 20 zou >20TFlops single precision krijgen, maar dat zegt niks als ze in de praktijk geen hogere IPC weten te halen. Die "knullige" bottlenecks in Fiji en Vega 10 hebben ze hopelijk met Vega 20 verholpen.

Afbeeldingslocatie: https://imagescdn.tweaktown.com/news/5/5/55875_08_amd-launch-monster-navi-10-2019-next-gen-ram.jpg

Staat niet bij met welke Vega ze deze sprong in efficiëntie hopen te behalve, maar zo snel even kijkende is Vega 10 niet veel beter dan Polaris (ja ja, underclocken, maar dat kan met een RX580 ook en dan is die plots ook veel efficiënter).

[ Voor 60% gewijzigd door madmaxnl op 09-09-2017 14:32 ]


Acties:
  • 0 Henk 'm!
madmaxnl schreef op zaterdag 9 september 2017 @ 14:20:
Sterker nog, alles dat we "weten" (geruchten/speculatie) van Vega 20 is dat die evenveel NCUs gaat krijgen als Vega 10. Wel zou Vega 20 twee keer zoveel geheugenbandbreedte krijgen. Navi 10 zou een verdubbeling aan NCU's hebben t.o.v. Vega 10 en "nexgen" memory krijgen.

Vega 20 zou >20TFlops single precision krijgen, maar dat zegt niks als ze in de praktijk geen hogere IPC weten te halen. Die "knullige" bottlenecks in Fiji en Vega 10 hebben ze hopelijk met Vega 20 verholpen.

[afbeelding]

Staat niet bij met welke Vega ze deze sprong in efficiëntie hopen te behalve, maar zo snel even kijkende is Vega 10 niet veel beter dan Polaris (ja ja, underclocken, maar dat kan met een RX580 ook en dan is die plots ook veel efficiënter).
Ik ben niet verbaast. GCN heeft een limiet van 64. AMD heeft wel eens gezegd dat Fiji het maximale is wat haalbaar is met GCN. En dat zie je bij Vega ook weer. Shader counts en ROP's is Vega gewoon gelijk.
Extra bandbreedte zou wel nice zijn maar 2x is wel overkill als je geen extra shaders hebt. Ik verwacht niet dat de clocks van nu 1500-1600 MHz ineens naar 2000+ gaan. Al is het niet onmogelijk zie nVidia. Als ze nog wat meer verbeteren aan het ontwerp samen met 7nm is het niet onmogelijk wel een grote stap te maken. Ik vraag me af of ze die bottelneks echt kunnen aanpakken wellicht de ROP's nog wat krachtiger maken maar eigenlijk heb je er gewoon meer nodig. Navi is dan de beste kans om het goed te doen.

Waar heb je dat gelezen over die 20Tflop? want we zitten nu op 12,5/13 dat zou betekenen dat hij richting de 2500MHz moet draaien lijkt mij niet haalbaar.

Efficientie verbeteren moet makkelijk kunnen. vooral lekstoom is volgens mij een ding op die hogere voltages daarom helpt undervolten op dit moment erg goed.

[ Voor 4% gewijzigd door Astennu op 09-09-2017 15:17 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verdubbeling van de geheugenbandbreedte is goed voor Ethereum mining ;)

"Vega 20 Specifications Professional/workstation card, the Titan X of AMD's Vega line up in a way. Shaders are set up differently on Vega 20, so we should see some exciting things with the shift to 7nm and the compute performance.

If we do hit 20TFLOPs+ of single precision, we're in for a world of performance on the workstation side of things before Navi hits in late-2018, early 2019.

GPU: 7nm Vega 20 (64 NCUs)
Performance: Interesting - 35-40TFLOPs half precision (20TFLOPs+ of single precision)
GPU clock speeds: Faster clock speeds, nothing concrete
RAM: 16-32GB of HBM2 (1024GB/sec bandwidth)
PCIe: PCIe 4.0 x16 host connection
TDP: 150-300W
Release: First half 2018
"

Read more: https://www.tweaktown.com...9-next-gen-ram/index.html

Geen idee of er al recentere of nieuwere geruchten zijn. Let wel, men gaat uit van de allerhoogste turbo frequentie.

[ Voor 6% gewijzigd door madmaxnl op 09-09-2017 17:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Een interessante opmerking van Jay: een AMD-medewerker die hem belde (11 uur 's avonds op die zondag waarop hij nogal boos reageerde richting AMD op Twitter) zei het volgende toen Jay informeerde naar de update die de crypto'mining' verbeterde: "We are not going to cut off that customer base". In lijn met wat een medewerker zei bij PCPer die aangaf ook deze groep klanten goed te willen bedienen. Verstandig? Ik weet het niet, als straks die zeepbel ineen stort dan bloeit de tweedehandsmarkt en worden weinig nieuwe kaarten verkocht.
YouTube: Tech Talk #147? Really? Jay hates Barnacules... apparently.

[ Voor 15% gewijzigd door Verwijderd op 11-09-2017 01:27 ]


Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Dus is het zaak dat ze dan meteen een nieuw product lanceren. Dan is dat 'oude' mining product opeens niets meer waard. Jammer voor die customer base (die dan niet meer bestaat), maar ja marktwerking.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • 0 Henk 'm!
madmaxnl schreef op zaterdag 9 september 2017 @ 17:35:
GPU: 7nm Vega 20 (64 NCUs)
Performance: Interesting - 35-40TFLOPs half precision (20TFLOPs+ of single precision)
GPU clock speeds: Faster clock speeds, nothing concrete
RAM: 16-32GB of HBM2 (1024GB/sec bandwidth)
PCIe: PCIe 4.0 x16 host connection
TDP: 150-300W
Release: First half 2018[/i]"
BS. ;)
Hoe wou jij precies een 7nm chip maken, zonder de fabricagefaciliteiten voor 7nm, van GF, die pas operationeel zijn voor massaproductie in H2/2018. ;)

Navi en Zen 2 krijgen hun tape out in de komende maanden op 7nm, dus experimentele productie zal er ook de komende maanden komen, maar geen massaproductie. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Verwijderd schreef op zondag 10 september 2017 @ 17:37:
Een interessante opmerking van Jay: een AMD-medewerker die hem belde (11 uur 's avonds op die zondag) zei het volgende toen Jay informeerde naar de update die de crypto'mining' verbeterde: "We are not going to cut off that customer base". In lijn met wat een medewerker zei bij PCPer die aangaf ook deze groep klanten goed te willen bedienen. Verstandig? Ik weet het niet, als straks die zeepbel ineen stort dan bloeit de tweedehandsmarkt en worden weinig nieuwe kaarten verkocht.
YouTube: Tech Talk #147? Really? Jay hates Barnacules... apparently.
Verstandig voor AMD, alleen jammer voor ons gamers. Mijn redenering is wellicht de conclussie van het tweede filmpje.




Zoals velen hier al langer weten is dat een GTX x80 eigenlijk een midend chip is.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:47
Die kaarten voor mining zitten relatief veel in Azië toch? Die zie ik de Europese of Amerikaanse markt niet gauw overspoelen

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 13-09 12:07
madmaxnl schreef op zaterdag 9 september 2017 @ 17:35:
Verdubbeling van de geheugenbandbreedte is goed voor Ethereum mining ;)

"Vega 20 Specifications Professional/workstation card, the Titan X of AMD's Vega line up in a way. Shaders are set up differently on Vega 20, so we should see some exciting things with the shift to 7nm and the compute performance.

If we do hit 20TFLOPs+ of single precision, we're in for a world of performance on the workstation side of things before Navi hits in late-2018, early 2019.

GPU: 7nm Vega 20 (64 NCUs)
Performance: Interesting - 35-40TFLOPs half precision (20TFLOPs+ of single precision)
GPU clock speeds: Faster clock speeds, nothing concrete
RAM: 16-32GB of HBM2 (1024GB/sec bandwidth)
PCIe: PCIe 4.0 x16 host connection
TDP: 150-300W
Release: First half 2018
"

Read more: https://www.tweaktown.com...9-next-gen-ram/index.html

Geen idee of er al recentere of nieuwere geruchten zijn. Let wel, men gaat uit van de allerhoogste turbo frequentie.
Oude geruchten. De meest recente officiele roadmap van AMD:

Afbeeldingslocatie: http://images.anandtech.com/doci/11404/gpuroadmap_575px.png

Vega 2.0 zal worden geproduceerd op een verbeterde 14nm+ productieproces van Globalfoundries. Overgenomen van IBM. Navi wordt op 7nm geproduceerd.

[ Voor 3% gewijzigd door polli_ op 10-09-2017 22:36 ]


Acties:
  • 0 Henk 'm!
polli_ schreef op zondag 10 september 2017 @ 22:35:
[...]

Oude geruchten. De meest recente officiele roadmap van AMD:

[afbeelding]

Vega 2.0 zal worden geproduceerd op een verbeterde 14nm+ productieproces van Globalfoundries. Overgenomen van IBM. Navi wordt op 7nm geproduceerd.
Ik betwijfel eigenlijk of er wel een Vega 20 gaat komen, in ieder geval voor gaming. Waarom zou je H2/2018 nog een Vega uitbrengen als gaming kaart, als H1/2019 Navi er is? Navu zou juist schaalbaar moeten zijn alla Zen, waardoor er veel makkelijker een compleet nieuw line-up gepositioneerd kan worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
heeft inderdaad alleen zin als het eerder dan H2/2018 is. Q1 of H1/2018 zou veel beter zijn.

Acties:
  • 0 Henk 'm!
bluebear schreef op zondag 10 september 2017 @ 23:14:
heeft inderdaad alleen zin als het eerder dan H2/2018 is. Q1 of H1/2018 zou veel beter zijn.
En dat kan dus niet want 7nm productiecapaciteit is er pas H2/2018. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op zondag 10 september 2017 @ 22:02:
[...]


Verstandig voor AMD, alleen jammer voor ons gamers. Mijn redenering is wellicht de conclussie van het tweede filmpje.

[video]
[video]

Zoals velen hier al langer weten is dat een GTX x80 eigenlijk een midend chip is.
Deel 1 had ik gisteren al gezien, deel 2 moet ik nog bekijken.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:08
DaniëlWW2 schreef op zondag 10 september 2017 @ 23:49:
[...]


En dat kan dus niet want 7nm productiecapaciteit is er pas H2/2018. ;)
Vega 20 (als ie komt) is toch gewoon die 14nm+ node op dat roadmap plaatje hierboven?

Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
DaniëlWW2 schreef op zondag 10 september 2017 @ 23:49:
[...]


En dat kan dus niet want 7nm productiecapaciteit is er pas H2/2018. ;)
Dennism schreef op maandag 11 september 2017 @ 02:47:
[...]


Vega 20 (als ie komt) is toch gewoon die 14nm+ node op dat roadmap plaatje hierboven?
Dat bedoelde ik ook. Lijkt me een vrij logische stap aangezien het Vega proces efficienter wordt

Acties:
  • +1 Henk 'm!
Sp3ci3s8472 schreef op zondag 10 september 2017 @ 22:02:
[...]


Verstandig voor AMD, alleen jammer voor ons gamers. Mijn redenering is wellicht de conclussie van het tweede filmpje.

[video]
[video]

Zoals velen hier al langer weten is dat een GTX x80 eigenlijk een midend chip is.
Ik loop zelf vanaf de +- Rivia TNT tijd mee in de videokaarten markt. Dus alles wat hij verteld komt mij bekend voor. Hij heeft zelfs de driver cheats van de FX serie weg gelaten want daardoor was die nog wel wat sneller dan zijn voorganger maar beeld kwaliteit was echt veel slechter.
Maar ik vind het gewoon zo jammer dat dit inderdaad op twee fronten gebeurd is. Intel heeft het door omkopen van vendors voor elkaar gekregen om AMD in de CPU markt de grond in te drukken. En nVidia door game exclusie early acces in ruil voor development hulp en goede marketing.

Ik roep het ook al jaren dat wij als consument de sjaak zijn door ons eigen koop gedrag en het geloven van de marketing praatjes van Intel en nVidia. Maar mensen willen niet luisteren. En dit is idd het resultaat. Mensen vandaag de dag weten niet dat je vroeger 70-120% per GPU generatie per jaar kreeg. Nu 30-50% en als je naar CPU's kijkt moeten we al blij zijn met Intel's 2-5% per jaar en bij bepaalde benshmarks 10%.
Dit jaar lijkt er met de komst van Ryzen eigenlijk weer een fatsoenlijker product uit intel's kamp te komen een 6 core 12 Thread die er eigenlijk al lang had moeten zijn. Maar zo zie je maar weer dat concurrentie belangrijk is. En dat krijg je niet door producten van nVidia en Intel te blijven kopen als AMD gewoon qua prijs/performance mee kan komen. En dat is wel wat er afgelopen jaren gebeurd is ondanks dat AMD soms sneller was ging men massaal voor Intel en nVidia.

Dus in dat opzicht verdienen we het om zo misbruikt en uitgeknepen te worden door die bedrijven. En dat ze nu ook met groot succes zie nVidia's winst cijfers maar eens.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:08
Astennu schreef op maandag 11 september 2017 @ 13:15:
[...]


Ik loop zelf vanaf de +- Rivia TNT tijd mee in de videokaarten markt. Dus alles wat hij verteld komt mij bekend voor. Hij heeft zelfs de driver cheats van de FX serie weg gelaten want daardoor was die nog wel wat sneller dan zijn voorganger maar beeld kwaliteit was echt veel slechter.
Maar ik vind het gewoon zo jammer dat dit inderdaad op twee fronten gebeurd is. Intel heeft het door omkopen van vendors voor elkaar gekregen om AMD in de CPU markt de grond in te drukken. En nVidia door game exclusie early acces in ruil voor development hulp en goede marketing.

Ik roep het ook al jaren dat wij als consument de sjaak zijn door ons eigen koop gedrag en het geloven van de marketing praatjes van Intel en nVidia. Maar mensen willen niet luisteren. En dit is idd het resultaat. Mensen vandaag de dag weten niet dat je vroeger 70-120% per GPU generatie per jaar kreeg. Nu 30-50% en als je naar CPU's kijkt moeten we al blij zijn met Intel's 2-5% per jaar en bij bepaalde benshmarks 10%.
Dit jaar lijkt er met de komst van Ryzen eigenlijk weer een fatsoenlijker product uit intel's kamp te komen een 6 core 12 Thread die er eigenlijk al lang had moeten zijn. Maar zo zie je maar weer dat concurrentie belangrijk is. En dat krijg je niet door producten van nVidia en Intel te blijven kopen als AMD gewoon qua prijs/performance mee kan komen. En dat is wel wat er afgelopen jaren gebeurd is ondanks dat AMD soms sneller was ging men massaal voor Intel en nVidia.

Dus in dat opzicht verdienen we het om zo misbruikt en uitgeknepen te worden door die bedrijven. En dat ze nu ook met groot succes zie nVidia's winst cijfers maar eens.
Zo jong nog maar, ik had jou toch wel ingeschat als iemand die al die hard aan het games was met een Virge S3 of originele Voodoo kaartjes ;)

Verder uiteraard grotendeels volledig met je eens, al moet ik zeggen dat ik het hele cpu gebeuren m.b.t. tot Intel een stuk kwalijker vind dan het GPU gedeelte. Ati / AMD had daar denk ik ook gewoon stappen kunnen maken en meer developer support kunnen aanbieden (mogelijk niet op het niveau van Nvidia). Maar goed slechte support is dan ook de reden dat ik destijds na jaren Ati / AMD afgestapt ben van AMD na het kopen van een HD7950. Ben bijna een jaar aan het kloten geweest met die kaart omdat AMD verzaakte een bug op te lossen waardoor de HD7950 en HD7970 constant vastliepen tijdens het gamen op een X58 systeem (en ook alleen op X58, ieder ander systeem met een andere chipset liep het als een zonnetje, maar ieder X58 systeem was prut) ondanks redelijk wat reports van mijzelf en "lotgenoten". Destijds heeft AMD echt even afgedaan bij mij. Vega was eigenlijk de eerste generatie waar ik weer met een schuin oog naar AMD aan het kijken was, nu zal dat mogelijk Navi gaan worden.

Maar verder heb je zeker gelijk, concurentie is zeer belangrijk, en ook aan haar imago zal AMD de komende jaren goed moeten werken want dat zal zeker een dingetje zijn waarom veel consumenten nog blindelings Intel of Nvidia kiezen. Ondanks acties uit het verleden hebben die partijen bij de gemiddelde consument gewoon nog steeds het beste "high end" imago, terwijl AMD vaak nog steeds als budget speler gezien wordt.

Acties:
  • +1 Henk 'm!
Dennism schreef op maandag 11 september 2017 @ 14:48:
[...]


Zo jong nog maar, ik had jou toch wel ingeschat als iemand die al die hard aan het games was met een Virge S3 of originele Voodoo kaartjes ;)

Verder uiteraard grotendeels volledig met je eens, al moet ik zeggen dat ik het hele cpu gebeuren m.b.t. tot Intel een stuk kwalijker vind dan het GPU gedeelte. Ati / AMD had daar denk ik ook gewoon stappen kunnen maken en meer developer support kunnen aanbieden (mogelijk niet op het niveau van Nvidia). Maar goed slechte support is dan ook de reden dat ik destijds na jaren Ati / AMD afgestapt ben van AMD na het kopen van een HD7950. Ben bijna een jaar aan het kloten geweest met die kaart omdat AMD verzaakte een bug op te lossen waardoor de HD7950 en HD7970 constant vastliepen tijdens het gamen op een X58 systeem (en ook alleen op X58, ieder ander systeem met een andere chipset liep het als een zonnetje, maar ieder X58 systeem was prut) ondanks redelijk wat reports van mijzelf en "lotgenoten". Destijds heeft AMD echt even afgedaan bij mij. Vega was eigenlijk de eerste generatie waar ik weer met een schuin oog naar AMD aan het kijken was, nu zal dat mogelijk Navi gaan worden.

Maar verder heb je zeker gelijk, concurrentie is zeer belangrijk, en ook aan haar imago zal AMD de komende jaren goed moeten werken want dat zal zeker een dingetje zijn waarom veel consumenten nog blindelings Intel of Nvidia kiezen. Ondanks acties uit het verleden hebben die partijen bij de gemiddelde consument gewoon nog steeds het beste "high end" imago, terwijl AMD vaak nog steeds als budget speler gezien wordt.
Mijn Voodoo Banshe was de eerste 3D kaart. Daar voor S3 virge 4MB geloof ik maar draaide NFS 3 voor geen meter :P

Dat van intel is zeker kwalijker maar zorgen voor Exclusieve toegang tot games zodat de tegenpartij niet kan optimaliseren is niet echt netjes. AMD werkt ook wel samen met Game dev's maar hebben er niet het geld voor wat nVidia heeft. Dus dit kunnen ze nu met gemak in stand houden. Net als Intel ook nooit meer achter hoeft komen te staan. Als dat zou gebeuren doen beide bedrijven iets heel erg fout. Ze hebben zo veel geld wat ze in R&D kunnen steken makkelijk 20x zo veel als AMD. AMD's budget is voor GPU/CPU samen een fractie van wat een Intel of nVidia alleen aan CPU's of GPU's uitgeeft.

Eerlijk gezegd denk ik niet dat het imago ooit nog goed gaat komen die andere bedrijven zijn nu simpelweg te groot hebben te veel geld. Daar kan je niet meer tussen komen. Wellicht nog wel in de buurt maar echt verslaan zoals met de 9700 Pro, X1900 XT en de Athlon K8 CPU's gaat denk ik niet meer gebeuren. Ik hoop van harte van wel maar nogmaals dan zouden Intel en nVidia iets heel erg verkeerd doen.

Volgend jaar krijgen we van nVidia een GV104 chip die 40-50% sneller is als de 1080 (en ja ik heb het niet over de 1080 Ti) En dan denk iedereen weer owh wat geweldig is nVidia! kopen kopen! terwijl er eigenlijk amper winst is tov de 1080 Ti.
980 Ti en 1080 Ti beide max overclocked laat maar een verschil zien van 15%.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Aan de CPU kant zeker vuil spel van Intel, want AMD was gewoon jarenlang beter dan Intel. Dat gaat overigens nog interesant worden want ik zie Intel geen IPC gain maken met Coffee Lake, terwijl er volgend jaar wel een nieuwe generatie Ryzen CPU's zal komen, die de overduidelijk mindere kanten van Ryzen kunnen op gaan lossen.

Aan de GPU kant heeft ATi eigenlijk ook al redelijk wat steken laten vallen, en na de overname door AMD werd het er niet beter op. het is daar ook niet puur Nvidia geweest waar het mis ging. Het grootste debacle is denk ik wel de APU/GPGPU strategie geweest. Discrete GPU's voor gaming vervangen voor een APU, met een zeer matige CPU kant van de APU, en een veel te slappe GPU kant voor gaming. Het was niet realistisch. Daarnaast kwamen de GPGPU kaarten zonder ecosysteem eromheen, en matige drivers toen ze toch voor gaming werden verkocht. Maakt de 79xx natuurlijk niet slecht, want ze gaan nog steeds behoorlijk, maar Nvidia haar aanpak na de Tesla 2.0/Fermi ramp was veel beter.

Eigenlijk heeft Nvidia de strategie van ATi/AMD overgenomen en verfijnd. Een kleinere die met hogere clocks als gaming chip, die aardig op kan boxen tegen een grotere chip, en ernaast een grote, dedicated chip voor HPC taken. Nu kwam de RTG met een grote chip voor zowel HPC als gaming, alla Tesla/Fermi, terwijl Nvidia met een "38/48/58" series chips komt. Stel je voor wat er was gebeurd als de 7000 series was uitgebracht met goede launch drivers? Dan was de GTX680 er nooit geweest in huidige vorm.

Kelper is ook een interessante serie omdat er chips missen uit de line-up.
GK104
GK106
GK107
GK110

Waar zijn GK100 en GK102? GK100 is denk ik vrij makkelijk, dat werd GK110. GK102 is verdwenen en ik denk dat ik wel weet waarom. Ik denk dat Nvidia GK102 in de planning had staan tegenover de 79xx series, maar omdat de drivers zo hard zogen het eerste jaar, was GK104 afdoende. Daarna sloopt de de 79xx series GK104, maar dat maakte niet uit, want GK104 chips waren verkocht. Dat ze snel achterhaald raakte en vervangen moesten worden was natuurlijk zeer mooi meegenomen voor Nvidia. Eigenlijk hun eerste planned obsolescence chip. De 7970 GHz versloeg de GTX680 al dik, en de overclockte GTX770 kon er ook niet bij.

De echte klapper had natuurlijk Hawaï moeten zij, die behoorlijk partij gaf aan de GK110, voor minder, als kleinere chip. De beslissing die kaart te overvolten en met zo'n waardeloze koeler te verkopen, dat was echt een van de domste acties van ATi/AMD/RTG/whatever ooit. Toen kwamen ook nog eens de miners om het te vergallen...

Jaar later besloot Nvidia om even wat minder winst te pakken met de GTX970, terwijl Fiji faalde. Ramp compleet. RX Vega had een redelijke counter kunnen zijn, als de kaarten gewoon op 1000mv hadden gelopen en 1400MHz clockspeed. Nu is het uithuilen, de meer techsavy krijgen een meesterlijke kaart voor een koopje met wat tweaking, en wachten op Navi, hopend dat de RTG zichzelf eens niet in de voet gaat schieten. :/


Dan nog wat anders met Vega 10. Ik vermoed eigenlijk dat er ook een fout is gemaakt in de ontwikkeling van de chip. Ze kunnen meer dan 400W trekken, en lijken qua clocks pas te stoppen bij 1750MHz. Dit is alleen niet koel te houden, tenzij je een AIO hebt, en het verbruik is gestoord. Nu weten we dat er voor Vega heel wat extra transistoren zijn gegooid in hogere clocks behalen. Dan vraag ik me af of het er niet veel te veel zijn geweest. Ik vraag me echt af wat bereikt was als de chip kleiner was geweest, tussen de 400 en 450mm2, en qua clocks onder de 1600MHz was uitgekomen. Had je waarschijnlijk een betere kaart gehad, die goedkoper te maken was. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:40
DaniëlWW2 schreef op maandag 11 september 2017 @ 15:46:
[...]


Dan nog wat anders met Vega 10. Ik vermoed eigenlijk dat er ook een fout is gemaakt in de ontwikkeling van de chip. Ze kunnen meer dan 400W trekken, en lijken qua clocks pas te stoppen bij 1750MHz. Dit is alleen niet koel te houden, tenzij je een AIO hebt, en het verbruik is gestoord. Nu weten we dat er voor Vega heel wat extra transistoren zijn gegooid in hogere clocks behalen. Dan vraag ik me af of het er niet veel te veel zijn geweest. Ik vraag me echt af wat bereikt was als de chip kleiner was geweest, tussen de 400 en 450mm2, en qua clocks onder de 1600MHz was uitgekomen. Had je waarschijnlijk een betere kaart gehad, die goedkoper te maken was. :/
De fout is geweest om met GCN door te gaan. Het was al duidelijk met Maxwell dat GCN niet hoog genoeg geklokt kan worden en op de hogere snelheden die het wel bereikt, gewoon teveel stroom verbruikt.

AMD loopt ongeveer twee jaar en een die-shrink achter qua perf/watt.

Daarom heb ik ook niet veel vertrouwen in Navi welke volgens één van AMD's roadmaps 'GCN 6' is.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • +1 Henk 'm!
NitroX infinity schreef op maandag 11 september 2017 @ 16:06:
[...]

De fout is geweest om met GCN door te gaan. Het was al duidelijk met Maxwell dat GCN niet hoog genoeg geklokt kan worden en op de hogere snelheden die het wel bereikt, gewoon teveel stroom verbruikt.

AMD loopt ongeveer twee jaar en een die-shrink achter qua perf/watt.

Daarom heb ik ook niet veel vertrouwen in Navi welke volgens één van AMD's roadmaps 'GCN 6' is.
Het probleem is denk ik niet GCN als overkoepelende achitectuur, maar de implementatie van GCN de afgelopen jaren.

GCN is vrij symmetrisch en strak in de verhoudingen. Je hebt voor vrijwel elke prestatiegerichte GCN chip de verdeling van vier pipelines, net zoals Vega. Dit omdat een GCN GPU je beeldscherm in feite in vier stukken hakt en elke pipeline een vierde van beeld voorziet. Even plaatje. :+

Afbeeldingslocatie: https://ic.tweakimg.net/ext/i/2001614599.png

Vega is net zoals Fiji een 16CU/16ROP's per pipeline chip, en dat is een serieus probleem omdat de ROP's alle primitives die al die CU's produceren niet kunnen renderen. Dit is een onbalans in de chip. Hawaï was de laatste high end AMD chip die in balans was. Ook daar 64 ROP's, verdeeld in 4x16ROPs, maar met 44CU's gedeeld door vier, dus elf per pipeline. De R9 290 die ook behoorlijk dicht op de R9 290X zat, had 40 CU's, dus 10 per pipeline. Dat is het punt waar GCN echt last lijkt te krijgen van verminderde prestaties.

Fiji was rampzalig om deze reden, maar na Fiji lijkt Raja Koduri zijn eerste invloed op ontwikkelingen er te zijn geweest. Polaris was een eerste poging om het probleem goedkoop en snel op te lossen, door preventief al primitives weg te gooien die de ROP's alleen maar volgooien met nutteloze extra workloads. Dat en hogere clocks, mogelijk gemaakt door 14nm, maakt Polaris sneller dan Hawaii, terwijl de hardware van de chip maar iets meer is dan een 7970 had. Een goed eerste stap dus.

Het probleem is dus duidelijk, en AMD engineering hebben ook al aangegeven dat een GCN chip maken met meer dan vier pipelines gewoon mogelijk is, maar het vraagt om een redesign van GCN. Het is dus een tijdrovend en duur proces, en de tijd of het geld hebben ze niet. De oplossing was namelijk vrij simpel geweest om te bedenken, maar blijkbaar niet om te implementeren. In plaats van een 64CU chip met 4 pipelines, had er ook een 66CU chip ontworpen kunnen worden, met 6 pipelines, of de 64CU chip met 8 pipelines. Vervolgens plaats je meer ROP's per pipeline. Bij de 6 pipeline varianten gewoon 16 per pipeline, waarmee je op 96ROP's was uitgekomen. Bij de 8 pipeline variant was je denk ik wel weggekomen met 12, voor wederom 96ROP's. Had je dit gekregen:

Vega 10 = 64/16CU 64/16ROP's
6 Pipeline = 66/11CU 96/16ROP's
8 Pipeline = 64/8CU 96/12ROP's

De verhouding CU tot ROP's was zo meer in lijn gekomen met Hawaï.

Het alternatief is natuurlijk meer ROP's en de vier pipeline structuur behouden. Wederom rekenend op 96 als logisch getal, had je er dan 24 per pipeline gehad. Dit had best wel eens een "Titanmepper" geweest kunnen zijn. Het verschil tussen een RX Vega 56 en 64 lijkt ook echt maar 2% te zijn, clock voor clock. Dat is een gigantische bottleneck, waar de extra 8CU's gewoon bijna niks lijken te doen.

Er is nog een ding dat mogelijkerwijs verandering kan brengen in deze situatie voor Navi. Primitive Shaders zouden indien actief twee dingen moeten doen. Ten eerste meerdere primitives per clock berekenen, waar elke voorgaande GCN GPU vast zit op een per clock, per pipeline. Vervolgens zouden Primitive Shaders ook in staat moeten zijn om nog meer zinloze primitives weg te gooien, net zoals de DSBR al doet. Dat zou de ROP's moeten ontlasten en de kaarten dus sneller maken in grafische applicaties, gaming dus. Dat is theorie, eerst maar eens zien wanneer het eindelijk werkt, en wat het oplevert. Van mij mag het natuurlijk enorm zijn, want ik heb een RX Vega 56. :+

Dan Navi zelf. De Navi geruchten zijn een schaalbare chip a Zen. Dan zou de RTG vrij moeten zijn om voorbij de 4 pipelines te gaan schalen en gaan presteren. Ik denk dat Navi ook niet anders zal zijn dan Vega qua hardware, maar hopelijk wel qua lay-out van die hardware. Dat zou Vega tot een testchip en een opvuller van de line-up maken totdat Navi er is. Laten we dat maar hopen. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Maanden te laat dit, en of het effectief zal zijn. :/

[ Voor 4% gewijzigd door DaniëlWW2 op 11-09-2017 19:30 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Beter laat dan nooit? Je kan natuurlijk wel meerdere losse bestellingen plaatsen dan betaal je de shipping wel elke keer maar dat vinden die miners in china niet erg verdienen ze zo terug.

Hier in europa zie je de eerste Rig's al weer te koop staan. Prijzen zijn gewoon niet goed genoeg meer nu meer mensen het zijn gaan doen en coins meteen dumpen tegen euro's. Als de koers zo blijft sukkelen ipv door stijgen naar 5000 en hoger kunnen we het hoogtepunt hier in europa wel een beetje gehad hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Laten we het hopen. Wat ook wel rolletje zal spelen is dat China de coins aan het aanpakken is.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op maandag 11 september 2017 @ 21:52:
^
Laten we het hopen. Wat ook wel rolletje zal spelen is dat China de coins aan het aanpakken is.
In China is niks wat het lijkt. Het gaat ook niet om aanpakken of uitbannen, maar om controle verkrijgen om er vervolgens zelf aan te verdienen. Er zullen ook wel een aantal enorme mining bedrijven offline gehaald worden omdat ze in de verkeerde politieke factie zitten binnen de CCP. Er is al jaren een machtsstrijd bezig in die partij, en er wordt flink gezuiverd. Die bedrijven zullen alleen weer opduiken onder nieuw management, en gewoon door gaan.

Dus nee, dit is de oplossing niet. De oplossing is dat AMD extra productiecapaciteit inschakelt om miners te voorzien van chips, en dat dit een gestage en stabiele factor gaat worden. Laat AMD maar cashen, door meer producten te verschepen. AMD schijnt sinds kort Polaris 20 chips, de laptop versies met lagere voltages, direct te verkopen aan miners. Dat had ik hier laatst ook al geplaatst. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op maandag 11 september 2017 @ 13:15:
Mensen vandaag de dag weten niet dat je vroeger 70-120% per GPU generatie per jaar kreeg. Nu 30-50% en als je naar CPU's kijkt moeten we al blij zijn met Intel's 2-5% per jaar en bij bepaalde benshmarks 10%.
Daar kan Intel niet zo heel veel aan doen toch? Design - en productieprocessen worden duurder en duurder en vooruitgang op chipproductie gebied langzamer en langzamer.
Keer op keer echte grote stappen verwachten is gewoon niet realistisch.

Acties:
  • +1 Henk 'm!
Olaf van der Spek schreef op dinsdag 12 september 2017 @ 11:30:
[...]

Daar kan Intel niet zo heel veel aan doen toch? Design - en productieprocessen worden duurder en duurder en vooruitgang op chipproductie gebied langzamer en langzamer.
Keer op keer echte grote stappen verwachten is gewoon niet realistisch.
Imo bullshit chips zijn kleiner dan in oudere processoren. Ze willen gewoon niet en het was niet nodig.

Ik durf te wedden dat als Ryzen er niet zou zin geweest en amd door was gegaan met bulldozer Coffee lake gewoon 4c 8t geweest was en de i9 er niet zou zijn. In ieder geval die high core versies niet.

Intel weet denk ik al een tijdje (meer dan een jaar voor launch) wat Ryzen zou gaan worden. Er waren genog leaks dat het een 8 core zou worden. Dus nu komen zij met een 6 core die sneller ie met gaming net ietsjes minder. Met content creation Maar snel genoeg om te concurreren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op maandag 11 september 2017 @ 19:38:
Als de koers zo blijft sukkelen ipv door stijgen naar 5000 en hoger kunnen we het hoogtepunt hier in europa wel een beetje gehad hebben.
Bitcoin mining was met GPUs sowieso al niet interessant toch? Dacht dat het 'probleem' Ethereum was.
Astennu schreef op dinsdag 12 september 2017 @ 11:42:
Imo bullshit chips zijn kleiner dan oudere processoren. Ze willen gewoon niet en het was niet nodig.
Het heeft even geduurd met meer cores maar ook daar haal je geen 70+% winst per generatie mee zoals vroeger gewoon was.

Ik denk trouwens dat bijna iedereen het er over eens is dat concurrentie gezond is.

[ Voor 37% gewijzigd door Olaf van der Spek op 12-09-2017 11:49 ]


Acties:
  • 0 Henk 'm!
Olaf van der Spek schreef op dinsdag 12 september 2017 @ 11:44:
[...]

Bitcoin mining was met GPUs sowieso al niet interessant toch? Dacht dat het 'probleem' Ethereum was.


[...]

Het heeft even geduurd met meer cores maar ook daar haal je geen 70+% winst per generatie mee zoals vroeger gewoon was.
In Europa is het moeilijk eth en zec waren best interessant. Maar dat zijn idd altcoins echt btc minen met gpu's is al jaren niet interessant meer.

Dat is wel maar maar ze kunnen echt wel beter dan de 2-5% die ze nu halen. Dit komt gewoon door een gebrek aan concurrentie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op dinsdag 12 september 2017 @ 11:50:
Dat is wel maar maar ze kunnen echt wel beter dan de 2-5% die ze nu halen. Dit komt gewoon door een gebrek aan concurrentie.
Waarom weet je zeker dat het veel beter kan? Op een gegeven moment bereik je echt een muur qua IPC en qua clocks. Qua perf/W is Intel volgens mij niet slecht bezig en dat is ook erg belangrijk.

Acties:
  • 0 Henk 'm!
Olaf van der Spek schreef op dinsdag 12 september 2017 @ 11:54:
[...]

Waarom weet je zeker dat het veel beter kan? Op een gegeven moment bereik je echt een muur qua IPC en qua clocks. Qua perf/W is Intel volgens mij niet slecht bezig en dat is ook erg belangrijk.
Bij Arm en Gpu's lukt het ook. 2-5% per jaar is gewoon niets. Bijna in de fout marge. Volgens jou beredenering zouden we dan over 20 jaar blij moeten Inn met 20% sneller omdat het steeds lastiger wordt. (beetje overdreven maar afgelopen 5-6 hebben we maar 20-30% winst afhankelijk van de applicatie) bij gelijke core en thread counts.
Als het dan steeds moeilijk wordt dan ziet de toekomst er heel slecht uit. Ik geloof daar moet echt in.

Performance per watt is alleen bij laptops beter geworden bij desktops sinds has well niet echt meer. Skylake en Kaby lake staan met hogere clocks bekend als heethoofden en verbruiken dan ook aardig wat voor een 4 core chip. De 8 cores en hoger kunnen er helemaal wat van.

Dus in dit segment is de winst niet zo groot. Ze. Kunnen best meer alu's in een core stoppen om de ipc te verbeteren. Natuurlijk zullen er wel bepaalde redenen zijn om dat wel of niet te doen.

Maar ik denk dat als we goede concurrentie hadden op gpu en cpu vlak we nu veel snellere cpu's zouden hebben. In de tijden dat AMD, Intel, nVidia en ATI dicht bij elkaar zaten hebben we gigantische stappen gezien. Die tijden komen denk ik niet meer teug ook niet met zware concurrentie. Maar beter dan 2-5% moet kunnen.
Of in ieder geval eens in de 3-4 jaar en dat is nu ook niet het geval. (ieder jaar een kleine stap 2-5% en dan eens in de 3 a 4 jaar een stap van 15%)

[ Voor 21% gewijzigd door Astennu op 12-09-2017 12:45 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:40
We zijn gewoon het tweede komen van de Voodoo Graphics nodig; een simpel, klein ontwerp dat doet wat het moet doen met zeer goede prestaties.

Ik vraag me af hoeveel kleiner en simpeler een gpu zou zijn als ze al dat compute gebeuren laten vallen en alleen DX12 en Vulkan ondersteunen.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:08
Astennu schreef op dinsdag 12 september 2017 @ 12:41:
[...]


Bij Arm en Gpu's lukt het ook. 2-5% per jaar is gewoon niets. Bijna in de fout marge. Volgens jou beredenering zouden we dan over 20 jaar blij moeten Inn met 20% sneller omdat het steeds lastiger wordt. (beetje overdreven maar afgelopen 5-6 hebben we maar 20-30% winst afhankelijk van de applicatie) bij gelijke core en thread counts.
Als het dan steeds moeilijk wordt dan ziet de toekomst er heel slecht uit. Ik geloof daar moet echt in.

Performance per watt is alleen bij laptops beter geworden bij desktops sinds has well niet echt meer. Skylake en Kaby lake staan met hogere clocks bekend als heethoofden en verbruiken dan ook aardig wat voor een 4 core chip. De 8 cores en hoger kunnen er helemaal wat van.

Dus in dit segment is de winst niet zo groot. Ze. Kunnen best meer alu's in een core stoppen om de ipc te verbeteren. Natuurlijk zullen er wel bepaalde redenen zijn om dat wel of niet te doen.

Maar ik denk dat als we goede concurrentie hadden op gpu en cpu vlak we nu veel snellere cpu's zouden hebben. In de tijden dat AMD, Intel, nVidia en ATI dicht bij elkaar zaten hebben we gigantische stappen gezien. Die tijden komen denk ik niet meer teug ook niet met zware concurrentie. Maar beter dan 2-5% moet kunnen.
Of in ieder geval eens in de 3-4 jaar en dat is nu ook niet het geval. (ieder jaar een kleine stap 2-5% en dan eens in de 3 a 4 jaar een stap van 15%)
Ik denk dat het een deel van beide is, uiteraard heeft Intel (in ieder geval op desktop vlak) de Core architectuur flink uitgemolken. Op mobile en server vlak zijn de ontwikkelingen echter wel flink doorgegaan, alleen niet direct op "IPC" en clockspeeds. Wel betere IGP's, meer cores (vooral Xeon range) maar ook bijv. zie je bijv. dat de performance op mobile flink is toegenomen terwijl de TDP's omlaag gegaan zijn. Waar je bij Ivy Bridge op een na alle 4c / 8t mobile parts op 45W (er was een 35W part) had en je met wat geluk een halve dag op een batterij kon worden gewerkt kan je nu straks met de 8ste core generaties 4c / 8t parts op een door de fabrikant instelbaar TDP van 10 tot 25W (default TDP is 15W) gaan zien in Ultrabooks waar je meer dan een volledige werkdag op kan werken.

Al met al is de vooruitgang er wel, maar op andere fronten dan waar wij als Tweaker het graag zouden willen zien vaak.

Met goede concurrentie waren de stappen mogelijk (ook ik verwacht ook logisch) wat groter geweest. Maar ik denk dat voor echte vooruitgang Intel toch van de core architectuur naar iets nieuws moet.

Acties:
  • 0 Henk 'm!
Dat zeg ik toch ook bij laptops zijn er wel goede verschillen. En qua IGP logisch daar lopen ze nog gigantische achter om AMD en nVidia.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:08
Astennu schreef op dinsdag 12 september 2017 @ 13:05:
Dat zeg ik toch ook bij laptops zijn er wel goede verschillen. En qua IGP logisch daar lopen ze nog gigantische achter om AMD en nVidia.
Ik denk vooral dat de desktop (helaas voor ons Tweakers) eigenlijk logischerwijs geen echt focus punt geweest is de laatste jaren. Het gebrek aan concurrentie is daar onderdeel van, maar ik denk ook dat het feit meespeelt dat voor het overgrote deel van het gebruik de performance gewoonweg afdoende is, voor een boel taken is de al voorhanden performance niet eens nodig. Het gros van de machines die ik zie staan (zowel zakelijk als privé) in deze categorie worden amper belast bij de werkzaamheden waar ze dagelijks voor gebruikt worden. Dan hou je al snel een categorie gamers en powerusers zoals een deel van ons Tweakers over die deze cpu's wel ten volle benutten, maar of die groep groot genoeg is om een groot focus punt van de maken betwijfel ik toch echt.

Nu AMD weer aan het venster komt kijken zal dit mogelijk veranderen de komende jaren omdat Intel het natuurlijk niet kan veroorloven deze markt volledig aan AMD te laten en dus zullen ze wel mee moeten gaan in ieder geval met wat AMD gaat brengen de komende jaren.

Acties:
  • 0 Henk 'm!

  • 6129(15)
  • Registratie: November 2004
  • Laatst online: 23-08 13:17

6129(15)

AD ASTRA PER ASPERA

Ik vraag me af hoeveel kleiner en simpeler een gpu zou zijn als ze al dat compute gebeuren laten vallen en alleen DX12 en Vulkan ondersteunen.
Dit doet Nvidia toch al gewoon vanaf Kepler? Ze hebben na Fermi grotendeels alle compute-onderdelen uit de GPU gesloopt omdat ze het power- en prestatiegewijs gewoon NIET konden managen.

Fermi was thans een ferme chip vanuit het perspectief van compute capabilities, heel flexibel. Daarom dat ze potentieel ook perfect DX12 konden draaien (en uiteindelijk ook draaien). Maar goed, Nvidia heeft dat "DX12 for Fermi"-verhaal laten aanslepen tot afgelopen Juli. Het meerendeel van de Fermi-based kaarten ligt natuurlijk al in de vuilbak.

[ Voor 33% gewijzigd door 6129(15) op 12-09-2017 13:24 ]


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Ook bij GPUs zien we dat vooruitgang minder en minder wordt.
ARM / mobile was altijd al power-limited.. en zijn gewoon laag begonnen. Als je laag begint is vooruitgang (ten opzichte van de eigen vorige generatie) veel eenvoudiger.
2-5% per jaar is gewoon niets. Bijna in de fout marge. Volgens jou beredenering zouden we dan over 20 jaar blij moeten Inn met 20% sneller omdat het steeds lastiger wordt. (beetje overdreven maar afgelopen 5-6 hebben we maar 20-30% winst afhankelijk van de applicatie) bij gelijke core en thread counts.
Als het dan steeds moeilijk wordt dan ziet de toekomst er heel slecht uit. Ik geloof daar moet echt in.
En waar zou dat volgens jou vandaan moeten komen?
Clocks kunnen nauwelijks meer omhoog. 2x zoveel transistors is ook niet gratis. En design / IPC is ook niet keer op keer met een factor 2x te verbeteren.
Dus in dit segment is de winst niet zo groot. Ze. Kunnen best meer alu's in een core stoppen om de ipc te verbeteren. Natuurlijk zullen er wel bepaalde redenen zijn om dat wel of niet te doen.
Het is in CPUs nu al heel lastig alle resources (ALUs) optimaal te benutten, meer toevoegen (zoals IBM Power) is niet echt nuttig. Bredere AVX is ook niet in alle workloads bruikbaar.

Acties:
  • 0 Henk 'm!
Olaf van der Spek schreef op dinsdag 12 september 2017 @ 13:49:
[...]

Ook bij GPUs zien we dat vooruitgang minder en minder wordt.
ARM / mobile was altijd al power-limited.. en zijn gewoon laag begonnen. Als je laag begint is vooruitgang (ten opzichte van de eigen vorige generatie) veel eenvoudiger.

[...]

En waar zou dat volgens jou vandaan moeten komen?
Clocks kunnen nauwelijks meer omhoog. 2x zoveel transistors is ook niet gratis. En design / IPC is ook niet keer op keer met een factor 2x te verbeteren.


[...]

Het is in CPUs nu al heel lastig alle resources (ALUs) optimaal te benutten, meer toevoegen (zoals IBM Power) is niet echt nuttig. Bredere AVX is ook niet in alle workloads bruikbaar.
Als ik je dat zou kunnen vertellen zou ik ander werk doen en bij een chipfabrikant werken.

Laten we zo zeggen als AMD met Ryzen 2 weer leuke winst weet te boeken en dus het gat met Intel verder weet te dichten of dicht loopt moet je dan eens zien waar Intel mee gaat komen ik heb zo'n vermoeden dat er dan ineens grotere stappen gemaakt gaan worden. In de komende 3 jaar gaan we het zien.
6129(15) schreef op dinsdag 12 september 2017 @ 13:21:
[...]


Dit doet Nvidia toch al gewoon vanaf Kepler? Ze hebben na Fermi grotendeels alle compute-onderdelen uit de GPU gesloopt omdat ze het power- en prestatiegewijs gewoon NIET konden managen.

Fermi was thans een ferme chip vanuit het perspectief van compute capabilities, heel flexibel. Daarom dat ze potentieel ook perfect DX12 konden draaien (en uiteindelijk ook draaien). Maar goed, Nvidia heeft dat "DX12 for Fermi"-verhaal laten aanslepen tot afgelopen Juli. Het meerendeel van de Fermi-based kaarten ligt natuurlijk al in de vuilbak.
Niet alle compute mogelijkheden zijn er uit maar wel aardig wat scheelt veel die space.
Als amd zo iets nou ook zou kunnen doen kunnen ze weer wat beter concureren. Echter kost dat ook weer geld dus zie dat niet snel gebeuren. Kan mij zo voorstellen dat de datacenter markt voor meer winst zorgt dan de gaming markt ondanks dat daar minder kaarten verkocht worden. Maar misschien zit ik er helemaal naast. Maar nvidia investeerd daar ook heel zwaar in. De GP100 is daar speciaal voor ontworpen.

[ Voor 33% gewijzigd door Astennu op 12-09-2017 13:57 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +5 Henk 'm!
NitroX infinity schreef op dinsdag 12 september 2017 @ 12:55:
Ik vraag me af hoeveel kleiner en simpeler een gpu zou zijn als ze al dat compute gebeuren laten vallen en alleen DX12 en Vulkan ondersteunen.
6129(15) schreef op dinsdag 12 september 2017 @ 13:21:
Dit doet Nvidia toch al gewoon vanaf Kepler? Ze hebben na Fermi grotendeels alle compute-onderdelen uit de GPU gesloopt omdat ze het power- en prestatiegewijs gewoon NIET konden managen.

Fermi was thans een ferme chip vanuit het perspectief van compute capabilities, heel flexibel. Daarom dat ze potentieel ook perfect DX12 konden draaien (en uiteindelijk ook draaien). Maar goed, Nvidia heeft dat "DX12 for Fermi"-verhaal laten aanslepen tot afgelopen Juli. Het meerendeel van de Fermi-based kaarten ligt natuurlijk al in de vuilbak.
Jullie hebben beide een geheel verkeerd beeld van wat "dat compute gebeuren" en DX12/Vulkan inhouden.

Laat ik beginnen met de grootste fout: een GPU heeft geen aparte onderdelen voor compute. Graphics en compute lopen door exact dezelfde eenheden. Een uitzondering hierop is FP64, waar (afhankelijk van de GPU) wel aparte units voor zijn omdat de standaard "maat" 32-bits is. Er zijn wel onderdelen die meer op graphics of compute zijn toegespitst, maar over het geheel wordt alles gewoon voor alles gebruikt.

Je kunt in een GPU niet zomaar willekeurig graphics en compute taken achter elkaar uitvoeren. Dat vereist zogenaamde context switches, die tijd kosten; Nvidia is hier trager in dan AMD. Ik weet even niet meer exact hoeveel, maar het kostte ze met Fermi/Kepler "veel" cycles om te schakelen terwijl AMD dit in 2, en later 1 cycle deed/doet. Dit moet al een hint zijn waarom alle GCN implementaties minder last hebben van compute taken in games.

Daar bovenop komt nog eens dat graphics en compute nogal in aard verschillen. Compute is veel vaker kort en op zichzelf staand, terwijl graphics over het algemeen series operaties zijn die op elkaar leunen. Als je het iets technischer wil hebben, graphics lenen zich beter voor ILP (instruction level parallelism) terwijl compute zich vaak beter lenen voor TLP (thread level parallelism). Hint #2.

Wat Nvidia tussen GF100/GF110, GF104/GF114 en GK104 heeft gedaan is dan ook niet het "weghalen" van enige onderdelen, als wel de verhoudingen en scheduling aanpassen. Van GF1x0 naar GF1x4 werden de SM's groter. Meer ALU's van alle soorten - belangrijkste was het aantal CUDA cores (32 -> 48) en SFU's (4 -> 8). Zonder al te technisch te worden (ik zal het proberen :D), had dat gevolgen voor hun warps (naam voor een blok van 32 threads). Ik ga niet uitleggen hoe dit precies allemaal in z'n werk ging (genoeg over te vinden met Google), maar het feit dat de cijfers niet meer overeen komen moet eigenlijk al een belletje laten rinkelen. Het komt er vooral op neer dat ze nu de bestaande warps over 3 blokken van 16 CUDA cores gingen verdelen met hun (toen, 2) warp schedulers in plaats van slechts 2 blokken. Dat is ILP. Ze konden dus niet meer threads uit voeren, maar wel elke thread in minder cycles (mits de instructies dat toe lieten). Leuk voor graphics, minder voor compute.

Kepler was een nog veel vreemder beest. Ze herhaalden wat ze met GF1x4 deden en vermenigvuldigden alles nog eens met een factor 4 (dus 192 CUDA cores, 32 SFU's). Waarom maal 4? Omdat de shader clock verdween - en die was het dubbele van de core clock. Dus de eerste verdubbeling was puur ter compensatie van de verdwenen shader clock. Het gevolg was wederom dat ze volle warps sneller konden verwerken, wat wederom graphics ten goede kwam.

Het is dus niet zo dat Nvidia iets weg heeft gehaald, ze hebben gewoon niets toegevoegd voor compute. Subtiel, maar uitermate belangrijk verschil. Alles wat ze met GF1x4 en Kepler deden kwam ten goede van graphics executie, terwijl het weinig tot niets voor compute deed. Compute ging in verhouding tot graphics dan ook wel achteruit, maar als je Fermi en Kepler vergelijkt zul je zien dat ze op hoog niveau grofweg dezelfde indeling hebben en dat compute ook nagenoeg gelijk ligt (clock-for-clock). Pas bij GK110, waar de verhoudingen op hoger niveau meer TLP toelaten zie je dat compute performance toeneemt. Ook dat is helemaal logisch.


Exact hetzelfde geldt voor AMD. AMD heeft geen speciale eenheden die alleen voor compute gebruikt worden. Sommige onderdelen zouden waarschijnlijk iets anders uit zien als ze puur op graphics zouden focussen, maar daar zouden ze niet noodzakelijkerwijs kleiner van worden - laat staan dat ze weg gelaten zouden worden. Het grote verschil tussen AMD en Nvidia is dat AMD een veel "vrijere" opzet heeft op hoog niveau, waardoor er van nature meer TLP beschikbaar is.


En het feit dat Fermi gunstigere verhoudingen voor compute had maakt niets uit voor DX12/Vulkan compatibiliteit. De enige reden dat Nvidia dat heeft geïmplementeerd is omdat het kan, hun vorm van e-peen. De algehele architectuur is er gewoon geschikt voor, maar de verhoudingen maken geen bal uit.

Acties:
  • 0 Henk 'm!
NitroX infinity schreef op dinsdag 12 september 2017 @ 12:55:
We zijn gewoon het tweede komen van de Voodoo Graphics nodig; een simpel, klein ontwerp dat doet wat het moet doen met zeer goede prestaties.

Ik vraag me af hoeveel kleiner en simpeler een gpu zou zijn als ze al dat compute gebeuren laten vallen en alleen DX12 en Vulkan ondersteunen.
Dan had je nog steeds een hardware scheduler nodig, die Nvidia kaarten al een paar generatues niet eens meer hebben, je hebt nog steeds pipelines nodig, rasterizer etc. Of je nu FP32 graphics of FP32 compute berekeningen doet maakt niks uit, het gaat met exact dezelfde hardware op de chip.

Wat je wel zal zien zijn veranderingen in de verhoudingen. GCN is altijd 64 ALU's per CU geweest, en dit zal ook niet snel gaan veranderen denk ik zo. Het is een balans tussen compute berekeningen die relatief kort zijn, en dus weinig fysieke hardware vragen, en graphics die langduriger zijn en dus meer parallel, meer hardware. Zie ook @Werelds zijn toelichting. :)

Nu draaide Fermi als pure compute GPU nog 32 ALU's per CU/SM. Kepler ging naar 192 ALU's per SM, met een interne load balancing mechaniek in elke CU. Maxwell had nog maar 128 ALU's per SM/CU en geen interne load balancing meer. Pascal GP102 en lager heeft ook nog 128 ALU's per CU. Deze zijn geoptimaliseerd voor graphics workloads, en hebben de extra ROP's hiervoor.

Maar nu voor het interessante. GP100 heeft dus 64 ALU's FP32 per CU/SM, en hiernaast nog 32 speciale ALU's voor FP64. Kijk eens aan, is dat even een interesant getal. GP100 is naast de FP64 prestaties, die Vega grotendeels mist, dus hetzelfde opgezet als GCN, voor compute taken. Er zijn wel meer overeenkomsten tussen Nvidia en AMD. Beiden hebben nu een tile based rasterizer implementatie die behoorlijk op elkaar lijken.

Het grootste verschil is en blijft alleen rasterization capaciteit.
-GP104 heeft 2,560 ALU's, verdeeld in 20 blokken van 128, die vervolgens verdeeld zijn in vier pipelines, en beschikt over 64 ROP's.
-GP102 heeft 3840 ALU's, verdeeld in 30 blokken van 128, die vervolgens verdeeld zijn in zes pipelines en de beschikking over 96 ROP's.
-Vega 10 heeft 4096 ALU's, verdeeld in 64 blokken van 64 en 4 pipelines, en de beschikking over 64 ROP's.

Het verschil is duidelijk in de verhouding, en dat is het probleem van Vega 10 voor graphics workloads. Het lijkt er echt op dat ze geen geld of tijd hadden om dit aan te passen, want Fiji was precies hetzelfde qua lay-out. Vega 10 kan botweg maar zoveel primitives/polygons verwerken in haar ROP's, dus omzetten van 2D naar 3D beelden, voordat deze tegen hun capaciteit lopen. Laat dit nu niet geheel toevallig uitkomen op prestaties rond de GTX1080, iets meer want er zit wel wat meer in vanwege botweg meer hardware op de chip, en dit gebeurd ook nog eens met lagere clocks. Dat maakt Vega echt niet tot een slecht chip op zichzelf. Is die ROP's limiet er niet, bij professioneel number crunching, dan is Vega sneller dan een GP102 chip.

Het meest duidelijk zal dit worden als je gebruikt maakt van Anti Aliasing. MSAA/SSAA worden door de ROP's gedaan. Deze zullen dus relatief weinig impact hebben op een Nvidia kaart met haar goede ALU vs ROP verhoudingen. Vega's prestaties zullen erg inzakken van deze AA methoden. Precies het tegenovergestelde zal gebeuren met shader based AA zoals FXAA, MLAA, CSAA etc etc. Daar zal Vega geen probleem mee hebben, terwijl Nvidia kaarten inzakken. Een voorbeeld was de benchmark van Hardware unboxed voor Vega, met Dirt 4. Dat bevestigde eigenlijk dat de ROP's het probleem zijn voor Vega 10.

Dus als je een Vega 10 hebt, ietwat van de MSAA afblijven gaat je gigantisch helpen. Ga ik ook zeker doen. Ik draaide gisteren eens de beruchte Hairworks bij de Witcher 3 als test, ook omdat ik al langer met de ROP's in mijn achterhoofd zat. Leuk zeg, 15 frames eraf. :')
Ja, dat is dus vooral heel veel MSAA, dus framerates zakken meteen in.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

De grote vraag, waarom heeft AMD er niet meer ROP's op gestopt, als dat inderdaad het probleem is. Ik kan me niet voorstellen dat ze dat dan bij AMD niet al snel in de gaten hadden en dat er dan ook een technische of financiële beperking is om dat te doen.

Ik had gisteren trouwens het tweede deel van AdoredTV zijn Nvidia-overzichtje gezien. Man, wat was hij pessimistisch. Ik deel dat pessimisime niet, ik denk dat Navi goede kansen gaat bieden voor AMD als het inderdaad een multi-die GPU wordt en wat betreft de node zal de samenwerking van GF met o.a. Samsung wel vruchten gaan afwerpen. Het kan een paar jaar duren maar ik denk dat AMD wel weer terugkomt en als ik iets heb geleerd over technologie dan is het dat je onmogelijk de verre toekomst kan voorspellen en dat de gekste dingen gebeuren. Wie had het succes van Ryzen verwacht tot 1-2 jaar geleden? Wie had verwacht dat AMD met een veel kleinere GPU Nvidia zo hard zou pakken dankzij de nodeverkleining en een nieuwe architectuur?

[ Voor 65% gewijzigd door Verwijderd op 12-09-2017 18:30 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Verwijderd schreef op dinsdag 12 september 2017 @ 18:24:
De grote vraag, waarom heeft AMD er niet meer ROP's op gestopt, als dat inderdaad het probleem is. Ik kan me niet voorstellen dat ze dat dan bij AMD niet al snel in de gaten hadden en dat er dan ook een technische of financiële beperking is om dat te doen.
Ik denk dat ze het voor de release van Fiji al wisten...
Maar hoe moeten ze het oplossen? Ze zitten al sinds 2012 in de problemen. Dat was het laatste jaar dat er een volledige nieuwe line-up van AMD kwam. Bij de R9 2xx waren alleen Tonga en Hawaï nieuw, de rest refresh van oudere chips. Voor de R9 3xx was vrijwel alles een refresh van Tonga of Hawaï, en Fiji was nieuw.

Daarna kwam Polaris 10/11 om alles van Hawai, Tonga, Pitcairn, Bonaire, Curaçao en Cape Verde te vervangen. Er was niet eens een poging meer om hoger te gaan. Dat kwam een jaar later, na alweer een refresh, nu van Polaris met Vega. Waar moeten ze het R&D budget vandaan halen? Ze kunnen niet eens meer een achitectuur naar beneden of boven schalen en afgeleide chips creëren zoals Nvidia altijd doet.

In deze periode kwam Nvidia met een twee generaties Kepler, wat bij elkaar een architectuurgeneratie was, een volle Maxwell generatie, een volle Pascal generatie, en begin volgend jaar Volta. Nu denk ik dat de "Volta" gaming chips in feite grotere en of hoger geclockte Maxwell/Pascal chips zullen zijn met enkele tientallen procenten erbij, puur op clocks, maar dat is al meer dan de RTG kon bereiken doen de afgelopen vijf jaar. :/
Ik had gisteren trouwens het tweede deel van AdoredTV zijn Nvidia-overzichtje gezien. Man, wat was hij pessimistisch. Ik deel dat pessimisime niet, ik denk dat Navi goede kansen gaat bieden voor AMD als het inderdaad een multi-die GPU wordt en wat betreft de node zal de samenwerking van GF met o.a. Samsung wel vruchten gaan afwerpen. Het kan een paar jaar duren maar ik denk dat AMD wel weer terugkomt en als ik iets heb geleerd over technologie dan is het dat je onmogelijk de verre toekomst kan voorspellen en dat de gekste dingen gebeuren. Wie had het succes van Ryzen verwacht tot 1-2 jaar geleden? Wie had verwacht dat AMD met een veel kleinere GPU Nvidia zo hard zou pakken dankzij de nodeverkleining en een nieuwe architectuur?
Nvidia is geen Intel hé. ;)
Ze vertragen zeker qua prestatieverbeteringen, generatie tot generatie, maar de Maxwell/Pascal is ook gewoon een zeer goede achitectuur voor gaming. Efficiënt, snel, schaalbaar, economisch in productie, wat wil je nog meer? AMD lijkt desondanks alsnog wat voordelen te hebben, zoals iets efficiëntere ROP's, de DSBR, een efficiënte hardware scheduler, snel kunnen switchen tussen graphics en compute berekeningen of toch zeer respectabele prestaties per clock, maar ze kunnen het niet meer omzetten in een echte winnaar, zoals de R9 290(X), maar dan met een goede koeler. :P
Overigens, die van RX Vega is echt niet zo slecht voor normaal gebruik. Perfect in staat om mijn undervolted RX Vega 56 stil te koelen, onder de 75 graden. Je moet er alleen niet mee overclocken. Nee, 1400MHz core clock aan hitte afvoeren, met minder dan 1000mv, kan die aan, en stil. Dat mijn kaart nu echt behoorlijk richting GTX1080 niveau gaat, en niet eens meer 160W verbruikt is gewoon een gigantische middelvinger naar Nvidia. :+

De technici van de RTG zijn echt niet slecht, wat ze op technisch presteren is eigenlijk net zo indrukwekkend als Nvidia met haar enorme R&D budget. Dat Vega 10 uberhaupt redelijk kan opboxen tegen GP100, GP102 en GP104 is gewoon uiterst indrukwekkend. Er zit alleen nog meer in GCN, als ze de middelen hebben om er meer uit te halen.

Ik zou niet verbaast zijn als Navi hetzelfde scenario is als Ryzen en hiervoor Bulldozer. Volhouden, enig volume maken en elke cent in R&D gooien voor de grote klapper. Ik onderschat alleen niet wat Navi in zou houden als technische uitdaging, als het echt een schaalbare multiple die chip gaat zijn.

Je kan bij een GPU niet zomaar vier aparte GPU's maken en "aan elkaar lijmen". Als dat kon, dan was Vega denk ik al "gelijmd". Nee, je zal moeten gaan werken met verschillende modulen, deze verbinden en op een interposer zetten. Zou je Vega schaalbaar maken dan zou je denk ik dit krijgen:

Afbeeldingslocatie: https://tweakers.net/ext/f/NiOuS5tvSMMeZRviSisNhBTw/full.jpg

Kleurtjes voor wat je allemaal op moet hakken, en apart moet gaan maken.

Je hebt een aparte die nodig voor de scheduler, de connecties van de GPU met de rest van de PC zoals PCI-E en I/O, en waarschijnlijk ook de L2 cache. Vervolgens heb je waarschijnlijk ook meerdere aparte Graphics Pipeline dies nodig, zodat je kan schalen. Ideaal gezien heb je hier een of twee typen voor, een puur FP16/FP32, en een speciale FP64 voor HPC taken. Deze moet je kunnen schalen in aantal, dus twee, vier, zes acht etc. Dit is weer een ander probleem omdat GCN tot dusver gelimiteerd was tot vier. Een tijdje terug was er een tweet van een AMD engineer dat dit geen harde limiet is, maar het moet wel ontwikkeld worden. Als je dan toch bezig bent, dan zal er ook wat gedaan moeten worden aan CU vs ROP verhoudingen.

Daarnaast heb je een zeer schaalbare scheduler nodig, en dan kan moet je meerdere L2 cashe dies hebben, of je moet de L2 onboard maken voor de Graphics pipeline die. Dan is het niet meer unified, maar dedicated, en moet je hier met waarden gaan spelen zodat je geen nieuwe bottleneck creëert.

Dit is dan alleen voor zover ik het snap he. :P
Ik denk dat het nog heel wat complexer is in de praktijk. Er zijn denk ik hele goede redenen waarom dit nog nooit is geprobeerd, het is namelijk nogal een uitdaging dit te creëren zonder latency issues die de prestaties verpesten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:40
DaniëlWW2 schreef op dinsdag 12 september 2017 @ 20:27:
[...]

Daarna kwam Polaris 10/11 om alles van Hawai, Tonga, Pitcairn, Bonaire, Curaçao en Cape Verde te vervangen. Er was niet eens een poging meer om hoger te gaan. Dat kwam een jaar later, na alweer een refresh, nu van Polaris met Vega. Waar moeten ze het R&D budget vandaan halen? Ze kunnen niet eens meer een achitectuur naar beneden of boven schalen en afgeleide chips creëren zoals Nvidia altijd doet.

[...]
Laat Hawaii maar weg uit die lijst hoor.

RXy70/y80 zijn vervangers van Tonga met prestaties die vergelijkbaar zijn met Hawaii. RXy60 is een vervanger voor Cape Verde met prestaties die vergelijkbaar zijn met Pitcairn en wat de RX 550 moet voorstellen is mij een raadsel. Bonaire, Pitcairn en Hawaii hebben geen opvolgers gekregen.

Graphene; a material that can do everything, except leave the lab. - Asianometry


  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Oh, dear. :+

[ Voor 8% gewijzigd door foppe-jan op 13-09-2017 08:15 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 06-09 14:11
AMD Radeon Technologies Group Raja Koduri Goes on Sabbatical
I am looking to start my time-off on Sept 25th and return in December.
As we enter 2018, I will be shifting my focus more toward architecting and realizing this vision and rebalancing my operational responsibilities.
Sommige mensen speculeren dat dit een opzetje kan zijn tot ontslag of een andere functie voor Raja en dat ze het op deze manier willen doen overkomen alsof het zijn eigen keuze is om te stoppen. Ik denk zelf niet dat hij ontslagen wordt, maar hij hint zelf al op een andere 'focus'. Hij zou dus best een functie van 'Lead Architect' o.i.d. kunnen krijgen en niet meer de hele tent runnen.

Interessant is ook dat de CEO Lisa Su zijn taken gaat waarnemen, ik vraag me af of ze hiervan gebruik gaat maken om de bezem door RTG te halen. Dat heeft ze immers ook al bij AMD zelf gedaan toen ze aantrad. Het is denk ik wel duidelijk dat Vega niet is geworden wat ze er van hadden verwacht. Dan kan Raja terugkomen en zijn handen in onschuld wassen?

[ Voor 23% gewijzigd door FortyOne op 13-09-2017 10:01 ]


  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Gegeven "As we enter 2018, I will be shifting my focus more toward architecting and realizing this vision and rebalancing my operational responsibilities", gaat er overduidelijk het e.e.a. veranderen.

[ Voor 4% gewijzigd door foppe-jan op 13-09-2017 10:05 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
FortyOne schreef op woensdag 13 september 2017 @ 09:53:
Dan kan Raja terugkomen en zijn handen in onschuld wassen?
Naast dat Vega een hardware project is, is het ook een enorm software project. Een nieuwe argitectuur softwarematig ondersteunen duurt bij CPU's al twee jaar. Met Vega is dat waarschijnlijk nog moeilijker, neem daarbij dat meer dan 50% van de software projecten uitloopt en je weet eigenlijk van te vooren dat je op ramkoers zit. Het is ook karakteriserend voor het telkens uitstellen van de release date.

Daarbij heb ik het vermoeden dat ze teveel uitbesteden aan ontwikkel teams op een ander continent, met al het respect, daar werkt een ontwikkel team gewoon anders. Dit zorgt er waarschijnlijk voor dat Raja vanuit zijn huidige postie eigenlijk geen goed zicht had op de voortgang. Het lijkt me dus aannemelijk dat hij zijn poistie voor 2018 gaat veranderen om herhaling te voorkomen, waarschijnlijk betekent dat, dat hij meer voeten aan de grond heeft in het ontwikkel traject en minder naar buiten zal treden als het gezicht van RTG.

Maar mischien heb ik het mis, het is natuurlijk ook enorm frustreerent als je de volle potentie, van iets waar je zo lang en met zoveel passie aan werkt, niet kunt laten zien. Een tijdje rust nemen is dan verstandig.

Acties:
  • +1 Henk 'm!
Mensen beoordelen Vega vooral op Game prestaties en roepen de chip vervolgens tot mislukking uit en zeggen dat Raja moet opstappen.
Vega is geen game only chip. deze moest vooral de Professional en Datacenter markt gaan bedienen en volgens mij doet hij dat meer dan prima. De Gaming prestaties vallen helaas tegen maar dit was niet het belangrijkste doel van die chip.

Natuurlijk is het heel jammer maar om nu maar te zeggen dat Raja helemaal weg moet. (Wordt hier en daar volop geroepen) Misschien was dit wel pressies zijn opdracht en heeft hij die uitgevoerd zoals het moest. AMD heeft nu eenmaal het geld niet om en een Game only chip te ontwerpen alla GP104 en GP102 en daarnaast een compute monster zoals GP100/GV100. Vega doet beide taken en dan zie je dat gaming + het verbruik daar niet ideaal is.

Daarnaast snap ik het ook heel goed als hij tijd nodig heeft voor de familie. Polaris en Vega zullen waarschijnlijk veel extra tijd gevraagd hebben buiten de reguliere uren.

Ik vind het een beetje te makkelijk om dus zo te oordelen zonder alle inside informatie te hebben. (vooral op andere fora wordt er groepen dat ze hopen dat hij weg gaat en zo. Erg jammer allemaal)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Tja, mijn vraag is vooral of ze de softwarekant serieus genoeg nemen en financieren, en dat gaan we denk ik in de eerste plaats zien aan laptop-RR, die ik eerder dit jaar half oktober op zijn laatst dacht te verwachten. Als dat lukt, met drivers, in volume in de winkels voor het kerstkoopseizoen, zal het wel loslopen / is het goedgekomen.

[ Voor 8% gewijzigd door foppe-jan op 13-09-2017 11:10 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:47
Met een Jack of all Trades kaart kom je er niet.

AMD wordt door sommigen echt met hand en tand verdedigd...

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Astennu schreef op woensdag 13 september 2017 @ 11:01:
Mensen beoordelen Vega vooral op Game prestaties en roepen de chip vervolgens tot mislukking uit en zeggen dat Raja moet opstappen.
Vega is geen game only chip. deze moest vooral de Professional en Datacenter markt gaan bedienen en volgens mij doet hij dat meer dan prima. De Gaming prestaties vallen helaas tegen maar dit was niet het belangrijkste doel van die chip.

*knip*
Dan hadden ze hem zo op de markt moeten zetten en promoten. En dat hebben ze niet gedaan, dus daarom krijgen ze volle laag.

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
(Of het genoeg wordt gedaan, en of er voldoende softwareondersteuning is, blijft giswerk, maar dat is een andere discussie. Aankomsttijd/succes laptop RR zal echter een goede indicatie zijn van de vorderingen.)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
-The_Mask- schreef op woensdag 13 september 2017 @ 11:25:
Dat wordt wel gedaan, maar jij en vele anderen focussen zich op de game markt en kijken dan ook alleen daar na.
Ik heb idd een GTX1080 gekocht na de eerste reviews van Vega :P

Acties:
  • +1 Henk 'm!
ArcticWolf schreef op woensdag 13 september 2017 @ 11:31:
[...]

Ik heb idd een GTX1080 gekocht na de eerste reviews van Vega :P
Tja En straks mag je blij zijn met 5-10% prestatie winst per jaar net als op de CPU mark en dan heb je oa je zelf aan te denke n :w

Ze slecht als mensen zeggen dat Vega is vind ik persoonlijk wel mee vallen. Ben er erg tevreden over. De 64 is niet zo interessant maar de 56 is een prima product.

[ Voor 20% gewijzigd door Astennu op 13-09-2017 11:34 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
foppe-jan schreef op woensdag 13 september 2017 @ 11:06:
Tja, mijn vraag is vooral of ze de softwarekant serieus genoeg nemen en financieren, en dat gaan we denk ik in de eerste plaats zien aan laptop-RR, die ik eerder dit jaar half oktober op zijn laatst dacht te verwachten. Als dat lukt, met drivers, in volume in de winkels voor het kerstkoopseizoen, zal het wel loslopen / is het goedgekomen.
RR moet de boel goed op orde hebben, anders werkt dat de adoptie van Ryzen in laptops hard tegen.
(Maar de linux drivers sugereeren als dat Vega in RR er beter voor staat dan Vega RX)
418O2 schreef op woensdag 13 september 2017 @ 11:13:
Met een Jack of all Trades kaart kom je er niet.

AMD wordt door sommigen echt met hand en tand verdedigd...
En toch is dat wat AMD altijd heeft gedaan, een mindere kaart maken dan Nvidia en daar vervolgens het meeste uit halen.
Verschil is nu alleen dat deze kaart op dit moment duurder lijkt om te maken en minder presteert. Een lastige situatie voor AMD, bijna bulldozer achtig, gelukkig lijkt het erop dat het probleem voornamelijk software is. Maar als dat nog een jaar duurt hebben we er ook niet veel aan.

Acties:
  • +5 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Vega is geen slecht product.

Dit is het enige wat er mis is gegaan:
- Fouten met marketing, geen consistente boodschap.
- Vega is te lang uigesteld en kon daarmee niet voldoen aan de hoop (en dan bedoel ik dus niet verwachting) dat AMD weer mee kon komen met de 1080ti en daardoor een prijzenoorlog zou ontketenen. De release is zo lang uitgesteld dat iedereen ging hopen dat het wel een topproduct ging worden.

Verder is voor de zuivere gamer NVidia de betere keuze op het moment. Dat wil echter niet zeggen dat dit plaatje voor specifieke games of na wat driver updates in de toekomst kan veranderen.

Ik draag AMD een warm hart toe en ik zou graag zien dat ze een gezonde concurrentie met NVidia zouden kunnen handhaven, vandaar mijn keuze voor Vega. Bovendien is het snel genoeg voor wat ik doe. Plus houd wel van een beetje tweaken en Vega nodigt daar veel meer voor uit dan Pascal. Pascal is op het vlak van tweaken eigenlijk maar saai. :+

Edit: * Blaat probeert zo genuanceerd mogelijk te zijn. Slapen jullie al? :P

[ Voor 4% gewijzigd door Blaat op 13-09-2017 11:59 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Er zijn natuurlijk wel wat fouten gemaakt alleen zonder inside info is het moeilijk te zeggen hoeveel daarvan bij Raja ligt.

Feit blijft dat ze met een relatief klein budget moesten werken.
Raja heeft imo wel duidelijkere en logische contouren uitgezet en ook meer focus op de drivers / software kant.

De te klaren klus lijkt me ook wel enorm en ik kan me er zeker iets bij voorstellen dat hij even pauze neemt.
En misschien past een andere rol ook wel meer bij hem, dat is ook geen schande.

Blijft een sympathieke kerel die helaas iets te hoge verwachtingen heeft neergezet in de marketing in mijn ogen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

FortyOne schreef op woensdag 13 september 2017 @ 09:53:
AMD Radeon Technologies Group Raja Koduri Goes on Sabbatical

Sommige mensen speculeren dat dit een opzetje kan zijn tot ontslag of een andere functie voor Raja en dat ze het op deze manier willen doen overkomen alsof het zijn eigen keuze is om te stoppen. Ik denk zelf niet dat hij ontslagen wordt, maar hij hint zelf al op een andere 'focus'. Hij zou dus best een functie van 'Lead Architect' o.i.d. kunnen krijgen en niet meer de hele tent runnen.

Interessant is ook dat de CEO Lisa Su zijn taken gaat waarnemen, ik vraag me af of ze hiervan gebruik gaat maken om de bezem door RTG te halen. Dat heeft ze immers ook al bij AMD zelf gedaan toen ze aantrad. Het is denk ik wel duidelijk dat Vega niet is geworden wat ze er van hadden verwacht. Dan kan Raja terugkomen en zijn handen in onschuld wassen?
Ik weet denk ik wel waar dit vandaan komt. Er was kennelijk een beetje een machtsstrijd bezig binnen AMD tussen Su en Koduri over R&D budget en leiderschap. De RTG ontstond hieruit als een autonoom onderdeel binnen AMD, maar het meeste R&D lijkt naar Zen te zijn gegaan. Beiden kanten van AMD hebben gezien hun beperkte R&D budget wel goed geleverd. Zen is een groot succes, Polaris is niet aan te slepen, en Vega is een serieuze aanval op de HPC markt, met enorme per verkochte winsten.

Het verschil zit in de marketing, die ronduit waardeloos was voor RX Vega. Vervolgens hebben ze het product ook nog eens onnodig slechter gemaakt met te hoge voltages, die het resultaat hadden dat de effectieve clockspeed omlaag ging. Dat is gewoon niet acceptabel. Ondertussen lijkt Koduri zelf overwerkt te zijn in zijn taken. Hij leidt de RTG, zowel hardware als software, de zakelijke dingen en is betrokken bij het ontwerpen van chips. Dat is nogal wat. Hij gaat dus waarschijnlijk terug naar hoofd architect, en iemand anders gaat de RTG leiden. Ik sluit ook niet uit dat er een aantal taken weggehaald gaan worden van de RTG, na dit debacle van een launch. Marketing in ieder geval. :P

Het is nu taak zoveel mogelijk chips, voor een zo hoog mogelijke prijs te verkopen om de R&D kist te spekken voor wat er na Navi komt. Met de RX Vega 64 voorraden gaat het denk ik niet snel meer goed komen, met de RX Vega 56 wel. Er is ook eigenlijk geen reden om een RX Vega 64 te kopen gezien het prestatieverschil. Die volle chips kan je beter verkopen voor een veel fout, verreweg de meeste gamers zullen ze toch niet willen.

Een sabbatical in Q4 heeft ook zo zijn redenen. Koduri zegt dat hij dan tijd heeft, en dat zal kloppen, omdat Navi haar tape-out eraan zit te komen. Daarna gaat het circus verder met de vervanger van Navi. Die is ook allang in ontwikkeling, maar die tape-out gaat er denk ik niet voor 2019 zijn. Dus nu eerst Navi afronden, en dan de RTG wederom reorganiseren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Het verschil zit zeker niet in de marketing. Zen is gewoon een veel beter produkt dan Vega.

Dat is waar het vooral mis gaat.

Zen is zo disruptive naar hun grootste concurrent toe dat Intel allerlei produkten naar voren haalt en aanpast en dat is Vega in de verste verte niet. nVidia ligt echt nergens wakker van. Zen is dan ook veel makkelijker te marketen.

Laat onverlet dat Vega marketing niet heel geweldig was. :X

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Help!!!! schreef op woensdag 13 september 2017 @ 12:52:
^
Het verschil zit zeker niet in de marketing. Zen is gewoon een veel beter produkt dan Vega.

Dat is waar het vooral mis gaat.

Zen is zo disruptive naar hun grootste concurrent toe dat Intel allerlei produkten naar voren haalt en aanpast en dat is Vega in de verste verte niet. nVidia ligt echt nergens wakker van. Zen is dan ook veel makkelijker te marketen.

Laat onverlet dat Vega marketing niet heel geweldig was. :X
Je beseft je dat Vega 10 voor iets meer dan 10mm2 extra die space, en lagere clocks, GP102 aardig te snel af is in HPC taken he? :P
Sterker nog, het is een aardige bedreiging voor GP100, uitgezonderd FP64 prestaties waar je speciale hardware voor nodig hebt. Verder kwam die chip dit voorjaar er pas, en een paar maanden later was GV100 er al. Laat Nvidia nu zelfs een aantal van die chips weg hebben gegeven aan onderzoeksinstituten.

Hoe bedoel je, geen bedreiging en geen producten naar voren gehaald? ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

Blaat schreef op woensdag 13 september 2017 @ 11:57:
Vega is geen slecht product.

Dit is het enige wat er mis is gegaan:
- Fouten met marketing, geen consistente boodschap.
- Vega is te lang uigesteld en kon daarmee niet voldoen aan de hoop (en dan bedoel ik dus niet verwachting) dat AMD weer mee kon komen met de 1080ti en daardoor een prijzenoorlog zou ontketenen. De release is zo lang uitgesteld dat iedereen ging hopen dat het wel een topproduct ging worden.

Verder is voor de zuivere gamer NVidia de betere keuze op het moment. Dat wil echter niet zeggen dat dit plaatje voor specifieke games of na wat driver updates in de toekomst kan veranderen.
Ik denk dat jij dit bedoelt: "Dat wil echter niet zeggen dat dit plaatje voor specifieke games of na wat driver updates in de toekomst niet kan veranderen."
Op zich is Vega56 de beste keuze tussen de Vega-kaarten en de 1070 en de 1080 maar ze zijn wel belachelijk laat en er is nog geen effect van de architectuurverbeteringen voor gaming. Hopelijk komt dat alsnog.

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:07

Apoca

Array Technology Industry

Verwijderd schreef op woensdag 13 september 2017 @ 16:25:
[...]
Op zich is Vega56 de beste keuze tussen de Vega-kaarten en de 1070 en de 1080 maar ze zijn wel belachelijk laat en er is nog geen effect van de architectuurverbeteringen voor gaming. Hopelijk komt dat alsnog.
Check en die positie is ook precies de reden dat ik een Vega56 tegen MSRP heb gekocht en geen 1070 of 1080 :)

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
DaniëlWW2 schreef op woensdag 13 september 2017 @ 13:03:
[...]


Je beseft je dat Vega 10 voor iets meer dan 10mm2 extra die space, en lagere clocks, GP102 aardig te snel af is in HPC taken he? :P
Sterker nog, het is een aardige bedreiging voor GP100, uitgezonderd FP64 prestaties waar je speciale hardware voor nodig hebt. Verder kwam die chip dit voorjaar er pas, en een paar maanden later was GV100 er al. Laat Nvidia nu zelfs een aantal van die chips weg hebben gegeven aan onderzoeksinstituten.

Hoe bedoel je, geen bedreiging en geen producten naar voren gehaald? ;)
Nvidia geeft al langer "gratis'' hardware weg aan onderzoeksinstituten en universiteiten. Dit heeft niks met bedreiging van AMD te maken, maar meer met vendor lock-in in een zo vroeg mogelijk stadium.
Dit deden ze vroeger al met CUDA, en nu weer met de hele hype rond AI en machine learning.

Edit:
Heb even moeten googelen, maar tussen de aankondigingen van GP100 en GV100 zit bijna een jaar. Dus lijkt me niet dat Nvidia snel GV100 heeft gepushed om Vega te counteren.

[ Voor 8% gewijzigd door ColinZ op 13-09-2017 20:14 ]

ColinZ schreef op woensdag 13 september 2017 @ 20:05:
[...]

Nvidia geeft al langer "gratis'' hardware weg aan onderzoeksinstituten en universiteiten. Dit heeft niks met bedreiging van AMD te maken, maar meer met vendor lock-in in een zo vroeg mogelijk stadium.
Dit deden ze vroeger al met CUDA, en nu weer met de hele hype rond AI en machine learning."
Maar doen ze het ook zo publiekelijk? Verder heeft Nvidia nog een concurrent erbij gekregen zo lijkt het, Google.
Edit:
Heb even moeten googelen, maar tussen de aankondigingen van GP100 en GV100 zit bijna een jaar. Dus lijkt me niet dat Nvidia snel GV100 heeft gepushed om Vega te counteren.
GP100 was er dit voorjaar pas als beschikbaar product, en GV100 is er nu ook al, of is zeer dicht bij beschikbaarheid die in Q3 plaats zou vinden. Nee, dat is behoorlijk snel op elkaar. GV100 was ook nog eens $3 miljard om te maken, en GP100 liep kennelijk ook al in de miljarden. Nee, dat klopt niet. Waarom zou Nvidia een aantal maanden na GP100 al met de opvolgende GV100 komen als GP100 voldoet? Ik onderschat Nvidia echt niet. Ze reageren nu zo snel, omdat ze zich niet laten ondermijnen door Vega 10. Nu zal Vega 10 alsnog een zeer goed product zijn voor vele taken, maar Nvidia uitdagen op de AI markt, dat kan nu niet echt meer. Dat was overigens toch al lastig geworden heb ik begrepen, omdat AI research kennelijk ook om FP64 vraagt,en Tensor Procession Units a.k.a Tensorcores voor Nvidia. Nu is het een zekerheid geworden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
418O2 schreef op woensdag 13 september 2017 @ 11:13:
Met een Jack of all Trades kaart kom je er niet.

AMD wordt door sommigen echt met hand en tand verdedigd...
Volgens mij is ook een van de eerste dingen die je bij economie leert is dat je producten moet spreiden, het is alsof AMD alleen een boorhamer maakt terwijl sommige mensen een accu tol nodig hebben of een klopboor.
De Vega chip is te duur voor gamers maar ze zouden ze waarschijnlijk voor meer kunnen verkopen aan profesionals.

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
DaniëlWW2 schreef op woensdag 13 september 2017 @ 21:08:
[...]

Maar doen ze het ook zo publiekelijk? Verder heeft Nvidia nog een concurrent erbij gekregen zo lijkt het, Google.

[...]

GP100 was er dit voorjaar pas als beschikbaar product, en GV100 is er nu ook al, of is zeer dicht bij beschikbaarheid die in Q3 plaats zou vinden. Nee, dat is behoorlijk snel op elkaar. GV100 was ook nog eens $3 miljard om te maken, en GP100 liep kennelijk ook al in de miljarden. Nee, dat klopt niet. Waarom zou Nvidia een aantal maanden na GP100 al met de opvolgende GV100 komen als GP100 voldoet? Ik onderschat Nvidia echt niet. Ze reageren nu zo snel, omdat ze zich niet laten ondermijnen door Vega 10. Nu zal Vega 10 alsnog een zeer goed product zijn voor vele taken, maar Nvidia uitdagen op de AI markt, dat kan nu niet echt meer. Dat was overigens toch al lastig geworden heb ik begrepen, omdat AI research kennelijk ook om FP64 vraagt,en Tensor Procession Units a.k.a Tensorcores voor Nvidia. Nu is het een zekerheid geworden. :)
offtopic:
Overigens is Nvidia's eerste concurrent op dit vlak niet AMD, maar IBM -- zie ook deze artikelen: https://www.technologyrev...ck-for-ibms-ai-ambitions/ & https://www.statnews.com/2017/09/05/watson-ibm-cancer/
(beide enigszins kritisch over 'medische AI', die veel hype, en tot dusver weinig resultaten heeft opgeleverd).

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:47
Nature schreef op woensdag 13 september 2017 @ 21:41:
[...]


Volgens mij is ook een van de eerste dingen die je bij economie leert is dat je producten moet spreiden, het is alsof AMD alleen een boorhamer maakt terwijl sommige mensen een accu tol nodig hebben of een klopboor.
De Vega chip is te duur voor gamers maar ze zouden ze waarschijnlijk voor meer kunnen verkopen aan profesionals.
Als er een 1.1 komt die op 1v draait en goede koeling heeft die niet throttled is het een prima kaart. Dat je eerst dagenlang moet tweaken voor stabiele settings accepteert de markt niet.
Nature schreef op woensdag 13 september 2017 @ 21:41:
[...]


Volgens mij is ook een van de eerste dingen die je bij economie leert is dat je producten moet spreiden, het is alsof AMD alleen een boorhamer maakt terwijl sommige mensen een accu tol nodig hebben of een klopboor.
De Vega chip is te duur voor gamers maar ze zouden ze waarschijnlijk voor meer kunnen verkopen aan profesionals.
Dat doen ze dus ook. ;)

Voor de volle Vega 10 chip met alle 64CU's bestaan de volgende modellen:
Vega FE
Instinct MI25
Radeon Pro WX9100
Radeon Pro SSG
RX Vega 64

Voor de cut down Vega 10 met 56CU bestaat:
RX Vega 56.

Lijkt me heel duidelijk. Die Radeon Pro SSG moet ook $7.000 kosten per kaart terwijl de Radeon Pro WX9100 maar $2200 is. Een koopje als je het vergelijkt met de Quadro P6000 die ruim over de €6000 gaan, en echt niet beter. Nee, de aanval is geopend door AMD.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

ArcticWolf schreef op woensdag 13 september 2017 @ 11:17:
[...]

Dan hadden ze hem zo op de markt moeten zetten en promoten. En dat hebben ze niet gedaan, dus daarom krijgen ze volle laag.
Je gaat je eigen glazen niet ingooien door te zeggen "We hebben een hele leuke GPU gemaakt voor de professionele markt en omdat we eigenlijk geld te weinig hebben zetten we hem ook maar in voor de gaming markt"

Hier weten we allemaal wel dat het gewoon zo is maar dat ze dat als een PR statement naar buiten brengen kan je gewoon niet verwachten.

Verwijderd

De kogel is door de kerk.

https://nl.hardware.info/...t-stap-opzij-tot-december

Het kan natuurlijk echt zo zijn dat het alleen om zijn familie te doen is maar volgens mij steekt er meer achter.

Kunnen we gaan wedden of hij nog terugkomt en in welke capaciteit ? })

[ Voor 13% gewijzigd door Verwijderd op 14-09-2017 15:19 ]


Verwijderd

Eerst en vooral even dit.

Je kan erover discussiëren of dat er uitzonderingen zijn en of dat er een binning plaatsvindt in het voordeel van de 64 maar voor alle spellen die hij gebruikte geeft Vega 64 bij dezelfde klokfrequentie van zowel de GPU als de HBM geen verschil in FPS. Mijn conclusie is dat die 8 extra CU's geen bijdrage leveren aangezien er elders een bottleneck is, met andere woorden, het ontwerp is niet in balans voor gaming..

Ik denk dat de uitslag van dit testje weinig verrassend is voor de meeste mensen hier, we zagen dit wel aankomen gezien de nogal beperkte extra prestaties van 64 in vergelijking met 56 terwijl 56 ook nog eens fors lager geklokt (inclusief HBM) was bij de meeste vergelijkingen en gezien het feit dat 56 met een hogere klokfrequentie voor de HBM zo dicht de 64 naderde. Ook de constatering dat MSAA zo hard wordt afgestraft terwijl voor hetzelfde spel met een minder veeleisende vorm van AA de Vega-kaarten veel beter presteren in vergelijking met de Nvidia-kaarten, o.a. van toepassing bij Dirt 4, was een duidelijke aanwijzing dat er zo'n bottleneck is. Zonde!
418O2 schreef op woensdag 13 september 2017 @ 11:13:
Met een Jack of all Trades kaart kom je er niet.
Soms wel, Ryzen is een Jack of all Trades. ;)
Wat betreft Vega is de conclusie duidelijk, met de huidige performance is de 64 een miskoop en de 56 een prima optie, of dat dit komt doordat de kaart te veel is ontwikkeld voor andere toepassingen dan gaming of door een beperkt R&D-budget of een gebrek aan tijd weet ik niet.
AMD wordt door sommigen echt met hand en tand verdedigd...
Daar heb ik geen mening over. Ik ben zelf geneigd AMD te verdedigen voor veel zaken (lager R&D-budget, achterstand in sommige opzichten, jack of all trades voor de CPU) aangezien ik weet wat Intel en Nvidia hebben geflikt maar ik ben ook heel erg kritisch m.b.t. de foute beslissingen die AMD zelf heeft genomen. Dat die kaart niet in balans is kan echt niet en de marketing voor Vega was slecht, ik heb hier meermaals forse kritieke geuit op het feit dat AMD de cryptominig actief ondersteunt met een update die speciaal op de mining was gericht. Vergeet het feit dat het hiermee de gamers dupeert, ook zakelijk gezien lijkt het mij een slechte beslissing voor de lange termijn, als straks die zeepbel barst dan moet AMD het weer een paar jaar lang (hopelijk ;)) hebben van de gamers die het naar Nvidia heeft gejaagd en de developers zullen minder geneigd zijn te optimaliseren voor AMD en samen te werken met AMD als het marktaandeel voor gaming lager ligt. Natuurlijk, voor een deel komt die optimalisatie wel dankzij die twee consoles maar het optimaliseren voor de PC is een ander verhaal.

Wij hebben natuurlijk lang niet alle relevante informatie, de indruk lijkt te zijn dat de RTG tak nog steeds een stiefkindje is, er is extra budget naar de software gegaan maar het R&D-budget zou te laag liggen en Koduri zou hierover hebben 'gevochten' met Su, zoals het hoort. Het is in ieder geval een feit dat de kaart niet in balans is met de huidige software. We mogen nog een beetje hopen dat driververbeteirngen dit verbeteren maar ik denk dat het naïef is om te verwachten dat dat voor 100% het probleem gaat oplossen.

[ Voor 33% gewijzigd door Verwijderd op 14-09-2017 15:36 ]


Verwijderd

DaniëlWW2 schreef op donderdag 14 september 2017 @ 00:00:
[...]


Dat doen ze dus ook. ;)

Voor de volle Vega 10 chip met alle 64CU's bestaan de volgende modellen:
Vega FE
Instinct MI25
Radeon Pro WX9100
Radeon Pro SSG
RX Vega 64

Voor de cut down Vega 10 met 56CU bestaat:
RX Vega 56.

Lijkt me heel duidelijk. Die Radeon Pro SSG moet ook $7.000 kosten per kaart terwijl de Radeon Pro WX9100 maar $2200 is. Een koopje als je het vergelijkt met de Quadro P6000 die ruim over de €6000 gaan, en echt niet beter. Nee, de aanval is geopend door AMD.
Het is voor de gamer heel simpel: als ik kijk naar beschikbare kaarten, dan is de goedkoopste Vega64 die ik tegenkom ca EUR 700,-. De goedkoopste beschikbare 1080Ti kost ca EUR 760,- Voor dat prijsverschil koop ik voor gaming wel een 1080Ti.

In compute maakt Vega64 echter gehakt van die 1080Ti, dus als ik beide wil doen (gamen en compute) dan koop ik een Vega. Als ik alleen compute wil doen, dan hangt het van het budget af. Vega is dan goedkoop maar nVidia's dure compute kaarten zijn end to end ECC enabled. Is dat belangrijk en heb je het budget kom je bij nVidia, is het niet belangrijk of heb je beperkt budget, bij AMD.

AMD heeft de aanval op compute ingezet. En gaming kunnen ze nu iig iets bieden dat enigzins 4k aankan. Niet de beste kaart, maar tegen de advies prijs redelijk waar voor je geld.

Door de geweldige compute is hij echter nergens voor advies te krijgen en niet de moeite waard voor pure gaming.

Drivers gaan het verschil met 1080Ti echt niet goedmaken.

Verwijderd

Verwijderd schreef op donderdag 14 september 2017 @ 15:13:
De kogel is door de kerk.

https://nl.hardware.info/...t-stap-opzij-tot-december

Het kan natuurlijk echt zo zijn dat het alleen om zijn familie te doen is maar volgens mij steekt er meer achter.
Dat is inderdaad een beetje oud nieuws.
Volgens de geruchten was Koduri ontevreden over het budget wat RTG krijgt. Of dat dat iets te maken heeft met deze veranderingen en beslissingen zou ik niet hieruit durven concluderen, daarvoor weten we echt te weinig. Het kan bijvoorbeeld ook mede te maken hebben met dat hij toch een ingenieur in hart en nieren is en beter op zijn plaats is als leider van de technische troepen dan als halve zakenman die ook al die andere zaken moet doen. Laten we er maar niet naar speculeren totdat er meer concrete informatie is, dat heeft toch geen zin. Het lijkt me waarschijnlijk dat hij bij AMD blijft en dat hij straks als soort van hoofd van de technici verder gaat, die man is veel te waardevol om te laten gaan en ik vermoed dat het succes van Ryzen ruimte schept om ook RTG een hoger budget te geven en dat de top van het bedrijf gemotiveerd is om dit te doen omdat ze zagen hoeveel succes het voor Ryzen opleverde. Ik kan me voorstellen dat Koduri ook wel graag Navi wil afwerken, dat is zijn kindje als het ware, Vega werd door andere mensen opgestart.
Verwijderd schreef op donderdag 14 september 2017 @ 15:35:
[...]

Het is voor de gamer heel simpel: als ik kijk naar beschikbare kaarten, dan is de goedkoopste Vega64 die ik tegenkom ca EUR 700,-. De goedkoopste beschikbare 1080Ti kost ca EUR 760,- Voor dat prijsverschil koop ik voor gaming wel een 1080Ti.
Een achterhaalde discussie. Zie het begin van mijn laatste reactie voor een extra reden dat het onzin is om de 64 erbij te betrekken aangezien de 56 dezelfde FPS geeft bij spellen. Bij normale prijzen zijn de logische keuzes de Vega 56 en de 1080 ti, afhankelijk van hoeveel performance je wil. De 1070 valt af omdat het minder presteert dan de 56 en de 1080 valt af omdat het veel te dicht bij de 56 zit. Wil je rond 1080 performance uitkomen, kies de 56 wanneer de prijzen normaal worden (eind 2017 of begin 2018), wil je een stap hoger dan heb je geen andere keuze dan de 1080 ti, maar koop dan ook een G-Sync monitor. ;)

[ Voor 25% gewijzigd door Verwijderd op 14-09-2017 15:41 ]

Pagina: 1 ... 13 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.