Acties:
  • 0 Henk 'm!

Verwijderd

Rezk schreef op dinsdag 24 oktober 2017 @ 11:53:
[...]


Dat zijn wel hele flinke cijfers zeg. Ik zal het eens zien vanavond :9~
Niet zo vreemd bij nieuwe spellen.
Jammer dat het niet betrekking heeft op een beter spel dan Destiny 2. :X
Een softwaremedewerker van Nvidia deed hier eens een uitspraak over, hij legde uit dat ze tal van hacks hebben ingebouwd in de drivers die per spel aan en uit worden geschakeld om gepruts van programmeurs van developers op te vangen. Dat wordt nog wat als Vulkan en DX12 de standaard worden. Interessanter is wat de marge is met meer algemene verbeteringen voor de aansturing van de Vega-kaarten. Dus tweaks die bij alle spellen of veel spellen de performance verbeteren doordat beter de mogelijkheden en de beperkingen van de architectuur worden benut.

[ Voor 5% gewijzigd door Verwijderd op 24-10-2017 21:10 ]


Acties:
  • 0 Henk 'm!
Ik neem dergelijke claims altijd met een korreltje zout. :P
Kennelijk presteerde AMD niet heel goed met Destiny 2 als ik benchmarks erbij pak.
https://www.techspot.com/...-destiny-2-pc-benchmarks/,

Maar maximaal 50% erbij voor de RX580 zou gewoon betekenen dat die de GTX1080 gaat verslaan. RX Vega 56 zou ondertussen de GTX1080Ti slopen. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

Verwijderd schreef op dinsdag 24 oktober 2017 @ 21:09:
[...]

Niet zo vreemd bij nieuwe spellen.
Jammer dat het niet betrekking heeft op een beter spel dan Destiny 2. :X
Een softwaremedewerker van Nvidia deed hier eens een uitspraak over, hij legde uit dat ze tal van hacks hebben ingebouwd in de drivers die per spel aan en uit worden geschakeld om gepruts van programmeurs van developers op te vangen. Dat wordt nog wat als Vulkan en DX12 de standaard worden. Interessanter is wat de marge is met meer algemene verbeteringen voor de aansturing van de Vega-kaarten. Dus tweaks die bij alle spellen of veel spellen de performance verbeteren doordat beter de mogelijkheden en de beperkingen van de architectuur worden benut.
Dat is toch allang en breed bekent, remember Fartcry :+

@DaniëlWW2 zelfs al zou dat 25% zijn dat schiet die de 980 voorbij

[ Voor 4% gewijzigd door Damic op 24-10-2017 21:40 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 13-09 14:28
Lord_Dain schreef op dinsdag 24 oktober 2017 @ 20:57:
Zo dat is veelbelovend..we gaan het meemaken!!!

[edit]
[afbeelding]

THAT SHIT IS REAL!!!!!!!!! WTF! _/-\o_ :9~
Met de volgende instellingen op een Vega 56:
P6: 1602Mhz/1000mv
P7: 1667Mhz/1025mv
Mem: 950Mhz, 900mv
Energielimiet + 50%

Ter vergelijking, de MSI 1080ti Gaming X doet out of the box 5800.
je kaart lijkt het beter te doen dan mijn 64LQ 0_o misschien toch maar eens wat meer verdiepen in het overclocking. En een 2e radiator fan opscharrelen om die temperatuur zo laag mogelijk te houden.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 09:57
Daar kan ik geen uitspraak over doen, ik heb zelf wel de 64 air in handen gehad maar die was maar 5-10% sneller dan de 56 dus ik heb uiteindelijk gekozen om de 56 te houden.. ik kreeg overigens zojuist een nog hogere score (4650 punten superposition 1080p extreme) met nog eens -25mv op de GPU voltage.

Dan kom ik op 5800/4650= ca 1,25. Dus in deze benchmark haalt de 1080ti die ik had out of the box slechts 25% meer performance/score! Dat is wel redelijk bizar, denk dat de Vega 56 de 1080 nu verslaat. Het is nu nog de vraag natuurlijk hoe dit zich verhoudt tot andere benches en games.

Wel heel grappig dat deze performance boost zo vlak na de release van de 1070ti komt overigens.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
DaniëlWW2 schreef op dinsdag 24 oktober 2017 @ 21:10:
Ik neem dergelijke claims altijd met een korreltje zout. :P
Kennelijk presteerde AMD niet heel goed met Destiny 2 als ik benchmarks erbij pak.
https://www.techspot.com/...-destiny-2-pc-benchmarks/,

Maar maximaal 50% erbij voor de RX580 zou gewoon betekenen dat die de GTX1080 gaat verslaan. RX Vega 56 zou ondertussen de GTX1080Ti slopen. :P
Het is niet precies een claim, deze informatie (performance) van de driver wordt zo ver ik weet automatisch gegenereerd nadat de driver intern is getest.
We zullen binnenkort wel weer ergens een review zien waarin dit wordt gechecked.

Acties:
  • 0 Henk 'm!

  • Reksho
  • Registratie: Maart 2009
  • Laatst online: 05-09 00:10
Sp3ci3s8472 schreef op woensdag 25 oktober 2017 @ 12:43:
[...]


Het is niet precies een claim, deze informatie (performance) van de driver wordt zo ver ik weet automatisch gegenereerd nadat de driver intern is getest.
We zullen binnenkort wel weer ergens een review zien waarin dit wordt gechecked.
Nou, met mijn RX580 met alles op high op 1440p heb ik vrijwel een locked 60fps. Af en toe wel dips maar gelukkig bestaat Freesync 8)

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Nice gecrashte beurskoers na de earnings van gisteren :') Zullen we maar een paar aandelen ophalen?

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

Verwijderd

Lord_Dain schreef op dinsdag 24 oktober 2017 @ 23:00:
Daar kan ik geen uitspraak over doen, ik heb zelf wel de 64 air in handen gehad maar die was maar 5-10% sneller dan de 56 dus ik heb uiteindelijk gekozen om de 56 te houden.. ik kreeg overigens zojuist een nog hogere score (4650 punten superposition 1080p extreme) met nog eens -25mv op de GPU voltage.

Dan kom ik op 5800/4650= ca 1,25. Dus in deze benchmark haalt de 1080ti die ik had out of the box slechts 25% meer performance/score! Dat is wel redelijk bizar, denk dat de Vega 56 de 1080 nu verslaat. Het is nu nog de vraag natuurlijk hoe dit zich verhoudt tot andere benches en games.

Wel heel grappig dat deze performance boost zo vlak na de release van de 1070ti komt overigens.
De kaart is bij launch eruit gerushed. Weinig tijd om fatsoenlijke drivers te schrijven denk ik. Maar als de kaart nu inderdaad een slag sneller is dan de 1080 dan is dat zeer goed nieuws voor AMD.

Acties:
  • 0 Henk 'm!

Verwijderd

Is het inmiddels bekend wanneer de refresh van Vega komt? We weten dat in februari Ryzen refresh komt, mogen we Vega ook rond die verwachten of zou die tot een paar maanden later pas komen omdat ze eerst veel Ryzen-CPU's (meer lucratief) willen produceren?
Verwijderd schreef op woensdag 25 oktober 2017 @ 14:18:
[...]


De kaart is bij launch eruit gerushed. Weinig tijd om fatsoenlijke drivers te schrijven denk ik. Maar als de kaart nu inderdaad een slag sneller is dan de 1080 dan is dat zeer goed nieuws voor AMD.
Weinig tijd voor de launch? Dat lijkt me niet, in december demonstreerden ze al een werkende Vega-kaart voor Doom@4k. Eerder dat ze een te klein team hebben en/of dat het erg ingewikkeld (meer dan bij de architecturen die Nvidia de laatste generaties gebruikte) is om voor die architectuur de drivers te optimaliseren?
Niet te vroeg victorie kraaien, ik vermoed dat er nog aardig wat rek zit in de performance en op basis van tal van 4k benchmarks en de recente geschiedenis (780/970/980/1060 vs. 290/390/480/470) vermoed ik dat uiteindelijk de Vega56 de 1080 voorbij zal gaan maar all around sneller dan de 1080, zo ver zal het wel nog niet zijn als je naar alle spellen (met of zonder Gimpworks) kijkt. Wel spijtig dat MSAA lastig is voor Vega.

[ Voor 3% gewijzigd door Verwijderd op 25-10-2017 15:19 ]


Acties:
  • +1 Henk 'm!
Verwijderd schreef op woensdag 25 oktober 2017 @ 15:14:
Is het inmiddels bekend wanneer de refresh van Vega komt? We weten dat in februari Ryzen refresh komt, mogen we Vega ook rond die verwachten of zou die tot een paar maanden later pas komen omdat ze eerst veel Ryzen-CPU's (meer lucratief) willen produceren?
Ik weet niet waarom je nog steeds vasthoud aan een Vega 10 refresh, maar ik betwijfel of die er nog gaat komen, of ooit wel gepland was voor 12nm. Vega 11 gaat 12nm zijn, dat lijkt nu redelijk vast te staan. Vervolgens lijkt AMD voor de GPU's toch weer voor TSMC te gaan kiezen. Dat zou dus betekenen dat een H2/2018 release van Navi realistisch is. Er komt dan zeker geen refresh van Vega 10. Nee, Vega 10 zal over een jaar vervangen worden, of al vervangen zijn. Risico productie voor 7nm bij TSMC loopt al even, en volledige productie zal in de lente beginnen.

https://www.anandtech.com...-nm-8-nm-and-6-nm-added/2

Ik zou ook niet eens verbaast meer zijn als de Geforce Volta er ook pas over een jaar is. Op het moment is er botweg geen enkele noodzaak om deze uit te brengen op TSMC 12nm, en vervolgens een paar maanden erna tegen Navi aan te lopen op een veel kleinere procedé. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op woensdag 25 oktober 2017 @ 17:26:
[...]


Ik weet niet waarom je nog steeds vasthoud aan een Vega 10 refresh
Volgens mij werd er gemeld dat die er zou komen, op een gelekte slide van AMD, tenzij het om een andere Vega-kaart ging. Het ligt m.i. ook wel voor de hand aangezien je toch gratis 10-15% meer performance krijgt, waarom zou je dat laten liggen? Is het zo zeker dat Vega11 niet gewoon een refresh is van Vega10 in plaats van een kleiner modelletje? Zo'n kleiner model, daar zie ik nu geen nut in. Een kaart die ergens tussen de 1060 en de 1070 in valt, bijna 2 jaar later uitkomt en ongetwijfeld €200-300 zou gaan kosten. Een halve tier vooruitgang in bijna 2 jaar tijd. -gaap-
Ik weet dat Videocardz inmiddels meer dan een jaar geleden meldde dat Vega11 het kleine broertje zou worden maar die planning kan inmiddels zijn aangepast, mogelijk omdat Vega10 minder goed presteerde dan dat werd gehoopt.
Vervolgens lijkt AMD voor de GPU's toch weer voor TSMC te gaan kiezen. Dat zou dus betekenen dat een H2/2018 release van Navi realistisch is.
Dat zou mooi zijn. Hoe sneller hoe liever in ieder geval want er zijn nog steeds geen AIB-Vega-kaarten met open koelers en Polaris is inmiddels alweer 1,5 jaar oud.

[ Voor 26% gewijzigd door Verwijderd op 25-10-2017 18:35 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Ze komen medio volgend jaar iig als eerst met een enterpriseproduct. consumenten hebben ze nog niets over gezegd.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

DaniëlWW2 schreef op dinsdag 24 oktober 2017 @ 21:10:
Ik neem dergelijke claims altijd met een korreltje zout. :P
Kennelijk presteerde AMD niet heel goed met Destiny 2 als ik benchmarks erbij pak.
https://www.techspot.com/...-destiny-2-pc-benchmarks/,

Maar maximaal 50% erbij voor de RX580 zou gewoon betekenen dat die de GTX1080 gaat verslaan. RX Vega 56 zou ondertussen de GTX1080Ti slopen. :P
Zo ver is het nog niet, maar wederom bij een nieuwe game weer goede resultaten voor Vega:
Afbeeldingslocatie: https://www.guru3d.com/index.php?ct=articles&action=file&id=35832

Niet op voorraad.


Acties:
  • 0 Henk 'm!
Ik begin mij echt af te vragen wat Vega 10 zo goed doet, dat AMD met drivers opeens "Nvidia niveau" van optimalisaties laat zien. Ik had wel wat verwacht, maar het is nu al een aantal keer, veel meer dan ik had durven hopen. :Y

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 12:53
DaniëlWW2 schreef op woensdag 25 oktober 2017 @ 17:26:
[...]

Ik zou ook niet eens verbaast meer zijn als de Geforce Volta er ook pas over een jaar is. Op het moment is er botweg geen enkele noodzaak om deze uit te brengen op TSMC 12nm, en vervolgens een paar maanden erna tegen Navi aan te lopen op een veel kleinere procedé. ;)
Ik betwijfel of Volta er voor de desktop komt. Pascal naar 12nm en hogere frequenties zou volgens mij al genoeg moeten zijn om de strijd aan te gaan met de Vega refreshes. Als Nvidia voor 2019 een nieuwe architectuur op de planning heeft staan, dan zie ik ze wel meteen naar die overstappen voor de desktop.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • +1 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 09:58
Ik heb ook wat benchmarks gedraaid met de nieuwe drivers.

Vega 64 met EK waterblok +20% power limit, 1735MHz core en 1060MHz HBM.

Heaven 1440p. 4x AA, max tesselation:
Windows 7 --- 17.10.1 --- 17.10.2
1817 --- 1828
Windows 10 --- --- 1912 (build 1703)
--- --- 1916 (fall update)

Super Position 1080p extreme:
Windows 7 --- 4464 --- 4552
Windows 10 --- --- 5157 (build 1703)
--- --- 5161 (fall update)

Tomb Raider 1440p max settings, motion blur off:
Windows 7 --- 64,1 --- 64,6
Windows 10 --- --- 64,9 (build 1703)
--- --- 65,3 (fall update)

Tomb Raider benchmark heeft redelijk wat variatie, dus ben ik geneigd te zeggen identieke prestaties tussen Windows versies en driver versies.
Heaven en Super postition duidelijk sneller onder Windows 10. Fall update brengt geen prestatie verbetering.
De driver update heeft vooral invloed op de Super Position benchmark gehad.

edit: dit was bedoeld voor Vega ervaringen 8)7

iRacing Profiel


Acties:
  • 0 Henk 'm!
NitroX infinity schreef op woensdag 25 oktober 2017 @ 20:14:
[...]

Ik betwijfel of Volta er voor de desktop komt. Pascal naar 12nm en hogere frequenties zou volgens mij al genoeg moeten zijn om de strijd aan te gaan met de Vega refreshes. Als Nvidia voor 2019 een nieuwe architectuur op de planning heeft staan, dan zie ik ze wel meteen naar die overstappen voor de desktop.
Ik betwijfel behoorlijk of er wel een Vega refresh komt. Vega 11 lijkt een 12nm chip te worden, en zal dan de GTX1060 waarschijnlijk verslaan met enige marge. Tien a twintig procent denk ik zo, dus langzaam richting een GTX1070. Vega 10 moet ik nog zien. Gezien "mijn" ontdekking dat Navi op 7nm TSMC gebakken zal worden, is H2/2018 een realistisch gegeven voor Navi. Er is botweg geen tijd om een refresh voor Vega 19 te produceren en te verkopen als H2/2018 gehaald word. Het zou ook een serieuze verspilling van financiële middelen zijn om dit vlak voor Navi te gaan doen.

Voor zelfs een kleine die shrink moet je alleen maar de gehele chip, dus al die 12,5 miljard transistoren opnieuw indelen en bedraden. Het kost niet voor niks een jaar om een ontwerp naar de winkel te krijgen. Komt er een Vega 10 refresh, dan moet hier al heel lang aan gewerkt zijn, en moet AMD een business case hebben gezien dit te doen. Ik zie die in ieder geval niet...

Verder heeft Nvidia met Pascal hun architectuur in feite in tweeën gedeeld. GP100, en hierop voortbordurend GV100 hebben meer gemeenschappelijk met Vega 10 dan met GP102-107. Er is geen uniforme Pascal architectuur, er zijn er twee, "Geforce" en "Tesla". Als Volta ooit nog mocht verschijnen, dan is het waarschijnlijk een nieuwe Maxwell/Pascal Geforce architectuur met wat tweaks en iets hogere clocks. Voor Geforce is dat ruim afdoende, en het is goedkoop dit te doen. Na de naar schatting $2-3 miljard voor de R&D van alleen GP100, en dan nog eens $3 miljard voor GV100, die binnen een jaar GP100 al vervangt, is dat een relevant criterium geworden, zelfs voor Nvidia.

Het is ook zo bizar moeilijk geworden om nog serieuze prestatiesprongen door te voeren voor absoluut cutting edge hardware. De klassieke en relatief simpele methode van transistoren verkleinen is min of meer dood, en is dat al jaren. Kijk naar Intel die voorlagen qua nodes. Sinds Skylake staat het bijna stil. Dat komt omdat Intel botweg niks meer kan vinden wat prestaties serieus moet verbeteren in een goed doorontwikkelde architectuur. Ze wachten nu op een nieuwe node, die jaar na jaar maar niet materialiseerde.


Je moet nu werken met bizar kleine details zoals extra lagen in de chip inbouwen, om de bedrading langs de verticale as te verspreiden. Een kostbare procedure want het maakt je wafers duurder. Wederom Intel. Die zaten voor Nehalem/Sandy/Ivy/Haswell op negen lagen. Bij Broadwell gingen ze naar 13. Staat AMD met Zen tegenover. Zen is een extreem compacte chip, op 10 a 20% inferieure node, afhankelijk van wel onderdeel je pakt, en twaalf lagen. De compactheid en slechtere node belet nu nog hogere clocks, de extra laag gaat ver in het heeft dat beetje extra IPC van Intel.

Dit alles gebeurd voor voor een paar procent meer prestaties. De enige groei zit nog in groter en meer. Grotere chips, meer ALU's, meer transistoren, meer cache etc etc. Allemaal duur en complex.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Een volgende stap kan eigenlijk alleen nog gemaakt worden als er een nieuw wiskundig algoritme komt, met het risico dat niemand het gaat ondersteunen.
Kleinere node, is erg kostbaar geworden. Daardoor zijn meer transistoren ook automatisch duurder. Multi die chips kan, als dat software matig te realiseren is. Low-level api, daar kan nog wat gehaald worden als de games makers daar moeite in willen steken. Volgende stap zou dan een compleet andere benadering van grafische berekeningen worden, maar wie durft.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Lijkt dat Nvidia niet veel moeite doet om Wayland (Linux vervanging van X11) te supporten en dat devs daar niet zo blij mee zijn :+. Grappige herhaling van Linus zijn "Nvidia fuck you".
https://drewdevault.com/2017/10/26/Fuck-you-nvidia.html

Als kleine aanvulling:
https://wiki.archlinux.org/index.php/Sway
Sway. sway is a compositor for Wayland designed to be fully compatible with i3. ... Sway is a drop-in replacement for the i3 window manager, but for Wayland instead of X11. It works with your existing i3 configuration and supports most of i3's features, and a few extras.
offtopic:
Het zou in het Nvidia topic moeten, maar daar willen ze het waarschijnlijk niet eens weten :P

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Sp3ci3s8472 schreef op zaterdag 28 oktober 2017 @ 01:03:
Lijkt dat Nvidia niet veel moeite doet om Wayland (Linux vervanging van X11) te supporten en dat devs daar niet zo blij mee zijn :+. Grappige herhaling van Linus zijn "Nvidia fuck you".
https://drewdevault.com/2017/10/26/Fuck-you-nvidia.html

Als kleine aanvulling:
https://wiki.archlinux.org/index.php/Sway

[...]


offtopic:
Het zou in het Nvidia topic moeten, maar daar willen ze het waarschijnlijk niet eens weten :P
ach, het is nou niet alsof i3 zo'n enorme user base heeft; gebrek aan wayland support ueberhaupt lijkt me relevanter.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

FP16 Shaders i.c.m. Vulkan lijkt lekker te lopen op Vega, aannemende dat FP16 aan staat. Zo niet ben ik benieuwd wat FP16 nog voor verschil kan geven.

[ Voor 44% gewijzigd door Verwijderd op 28-10-2017 19:19 ]


Acties:
  • +1 Henk 'm!
Dat kun je niet uit de video halen, wat wel zichtbaar is is de videokaart welke bij nVidia niet volledig belast wordt, waarschijnlijk door een CPU bottleneck/driver overhead.

[ Voor 4% gewijzigd door -The_Mask- op 28-10-2017 19:22 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Nee inderdaad, was iets te snel. Al zegt de uploader in de comments wel dat in ieder geval Vulkan gebruikt wordt. Over Rapid Packed Math helaas niets.

Acties:
  • 0 Henk 'm!
-The_Mask- schreef op zaterdag 28 oktober 2017 @ 19:22:
Dat kun je niet uit de video halen, wat wel zichtbaar is is de videokaart welke bij nVidia niet volledig belast wordt, waarschijnlijk door een CPU bottleneck/driver overhead.
Heeft nVidia de laatste tijd vaker last van....
AMD had nu al een aantal keer de drivers eerder op orde. Goede ontwikkeling.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Computerbase heeft ook getest, maar heeft wisselende resultaten bij AMD. Ligt blijkbaar sterk aan wat je benched....

https://www.computerbase....2-new-colossus-benchmark/

Acties:
  • 0 Henk 'm!

Verwijderd

Zeara schreef op zondag 29 oktober 2017 @ 00:04:
Computerbase heeft ook getest, maar heeft wisselende resultaten bij AMD. Ligt blijkbaar sterk aan wat je benched....

https://www.computerbase....2-new-colossus-benchmark/
Je ziet dat Vega goed uit de verf komt bij lage instellingen maar vanaf hoog wordt ingehaald door de 1080. Misschien een of andere instelling waarbij de bandbreedte van Vega ontoereikend is? Eens opzoeken wat het verschil is tussen hoog, ultra en de twee standen erboven?

[ Voor 46% gewijzigd door Verwijderd op 29-10-2017 01:44 ]


Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 09:57
Ondertussen haal ik met mijn Vega 56 op Vega 64 BIOS sinds de laatste driver update deze bizarre score.
Afbeeldingslocatie: https://i.imgur.com/j948ztz.png
De 1080ti Gaming X die ik paar weken in een vlaag van verstandsverbijstering heb gekocht (inmiddels weer verkocht) haalde 'slechts' 5800 punten. Tuurlijk, het is maar een benchmark, maar ik heb de afgelopen dagen vele urenlange sessies Shadow of War gespeeld en retestabiel. De potentie is er dus. Helaas niet out-of-the-box wat dan wel het grote issue is voor AMD.

[ Voor 26% gewijzigd door Lord_Dain op 29-10-2017 10:46 ]


Acties:
  • 0 Henk 'm!

  • Louw Post
  • Registratie: Februari 2006
  • Laatst online: 13-09 10:47

Louw Post

Cerenas

Wauw, domme fout gemaakt als Rainbow Six Vegas speler en blindelings 17.11.1 geïnstalleerd. Ondanks dat er in de patch notes staat dat er problemen kunnen optreden heb ik elke game al problemen. Geprobeerd via de schone installatie optie van AMD de vorige versie te installeren, maar het probleem bleef voorkomen. Niet echt veel zin om er meer moeite in te stoppen, maar die schone installatie lijkt dan toch niet zo schoon te zijn?

Misschien een goede reden om weer verder te gaan met wat andere games voor nu.
Known Issues
  • Tom Clancy's Rainbow Six Siege may experience an application hang when breaching walls with grenades or explosives.

Acties:
  • +2 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

@Louw Post DDU en de vorige installeren ;)

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +1 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
The new product, which will be part of our 8th Gen Intel Core family, brings together our high-performing Intel Core H-series processor, second generation High Bandwidth Memory (HBM2) and a custom-to-Intel third-party discrete graphics chip from AMD’s Radeon Technologies Group* – all in a single processor package.
https://newsroom.intel.co...phics-sleek-thin-devices/
"An AMD spokesman said that laptops built on Intel’s new chip won’t compete directly with those based on AMD’s coming Ryzen Mobile, another power-efficient chip that combines general-purpose processing and graphics. The Intel chip will appeal to serious gamers, he said. The AMD unit, which the company expects to ship by the end of the year, is capable of running games, but not specialized for that purpose. “We’re playing in a complementary market,” the spokesman said. said.
Niet zo snugger om mee te gaan met die "seriouszzzz gamerz"-suggestie. Maar Semi-Custom dus.

[ Voor 40% gewijzigd door foppe-jan op 06-11-2017 15:19 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 13-09 14:28
foppe-jan schreef op maandag 6 november 2017 @ 15:16:
[...]

https://newsroom.intel.co...phics-sleek-thin-devices/

[...]

Niet zo snugger om mee te gaan met die "seriouszzzz gamerz"-suggestie. Maar Semi-Custom dus.
Die geruchten die tegengesproken werden van een half jaar geleden ofso waren dus toch waar.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • Louw Post
  • Registratie: Februari 2006
  • Laatst online: 13-09 10:47

Louw Post

Cerenas

AMD kan het geld waarschijnlijk goed gebruiken, maar ik vind alsnog wel raar dat ze dit doen nu ze zelf ook een goede CPU kunnen leveren.

In het nieuwsbericht op Tweakers staat dat Intel aangeeft om beter te kunnen concurreren tegen NVidia, maar waarom zou Intel dit willen? Als AMD dit aangaf had ik het logisch gevonden.

Acties:
  • +1 Henk 'm!

Verwijderd

Louw Post schreef op maandag 6 november 2017 @ 16:52:
AMD kan het geld waarschijnlijk goed gebruiken, maar ik vind alsnog wel raar dat ze dit doen nu ze zelf ook een goede CPU kunnen leveren.

In het nieuwsbericht op Tweakers staat dat Intel aangeeft om beter te kunnen concurreren tegen NVidia, maar waarom zou Intel dit willen? Als AMD dit aangaf had ik het logisch gevonden.
Omdat Intel geen echt serieuze GPU heeft die het op kan boxen tegen Nvidia.

Het is een chip met HBM2 begreep ik. Er zit dus een hoop potentie in. Veel IGP's waren gelimiteerd tot shared geheugen, een GDDR(5) chip op moederbord of duur cache geheugen op de CPU die nog eens gedeeld moest worden ook.

Acties:
  • +1 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Louw Post schreef op maandag 6 november 2017 @ 16:52:
AMD kan het geld waarschijnlijk goed gebruiken, maar ik vind alsnog wel raar dat ze dit doen nu ze zelf ook een goede CPU kunnen leveren.

In het nieuwsbericht op Tweakers staat dat Intel aangeeft om beter te kunnen concurreren tegen NVidia, maar waarom zou Intel dit willen? Als AMD dit aangaf had ik het logisch gevonden.
mindshare, hbm2 volume, en blijkbaar verwachten ze niet met de H-serie (performance) te kunnen concurreren, en dat eventuele verloren verkopen aan CPUs worden gecompenseerd met reclame/omzet voor vega/radeon..

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13:43
Breaking news: Intel en AMD gaan samen werken om tegenwicht te bieden tegen Nvidia:

http://ir.amd.com/phoenix...nding&cat=news&id=2314568
AMD Delivers Semi-Custom Graphics Chip For New Intel Processor
SUNNYVALE, Calif., Nov. 06, 2017 (GLOBE NEWSWIRE) -- AMD (NASDAQ:AMD) today announced that it designed a semi-custom graphics processor unit (GPU) that will be integrated into a new Intel multi-chip processor package. The new product, designed by Intel, integrates an Intel® Core™ processor, semi-custom Radeon™ graphics chip, and second generation High Bandwidth Memory (HBM2) into a single package

[ Voor 60% gewijzigd door sdk1985 op 06-11-2017 17:41 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Balance
  • Registratie: Januari 2013
  • Laatst online: 02-09 08:50
Ook een uitgebreid artikel van de burenVega-GPU in een Intel-package leidt tot interessante mogelijkheden. FreeSync in laptops bijvoorbeeld. Koeling zal wel een uitdaging worden, als ik zie hoe klein die chip is. Misschien iets van een vaporchamber zoals ook in de Xbox One X en GTX 1080 gebruikt wordt.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
If nothing else betekent het meer geld en reden voor devstudios (en programma's?) voor vega driveroptimalsatie.

[ Voor 24% gewijzigd door foppe-jan op 06-11-2017 19:21 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
Balance schreef op maandag 6 november 2017 @ 17:53:
Ook een uitgebreid artikel van de burenVega-GPU in een Intel-package leidt tot interessante mogelijkheden. FreeSync in laptops bijvoorbeeld. Koeling zal wel een uitdaging worden, als ik zie hoe klein die chip is. Misschien iets van een vaporchamber zoals ook in de Xbox One X en GTX 1080 gebruikt wordt.
Zeker leuke mogelijkheden voor AMD om wat meer marktaandeel te krijgen + naamsbekendheid.
Qua koeling valt denk ik wel mee. Vega is erg zuinig op lage voltages maar als je Vega gaat pushen loopt het verbruik wel uit de hand.

Aan de andere kant heeft AMD met Ryzen ook een leuk CPU gedeelte wat op lagere clocks en voltages (gezien de verwachtingen van de nieuwe Ravens Ridge 2700U) mee kan komen met intel.

Dus met Zen2 zouden ze zelf ook zo iets uit kunnen brengen. Echter zullen gamers door de naams bekendheid van Intel toch eerder voor een Intel CPU gaan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13-09 13:58
https://videocardz.com/73921/raja-koduri-leaves-amd

Was te verwachten na het VEGA debacle.
Kost prijs te hoog, performance te laag, power te hoog en de kaart verkoopt uiteindelijk ook niet.
Jammer.
Balance schreef op maandag 6 november 2017 @ 17:53:
Ook een uitgebreid artikel van de burenVega-GPU in een Intel-package leidt tot interessante mogelijkheden. FreeSync in laptops bijvoorbeeld. Koeling zal wel een uitdaging worden, als ik zie hoe klein die chip is. Misschien iets van een vaporchamber zoals ook in de Xbox One X en GTX 1080 gebruikt wordt.
Die samples hebben we al 9 maanden ofzo liggen. Jammer dat de beurs niet zoveel reageerde op dit bericht had meer verwacht.

Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 06-09 14:11
RIP Raja. Jammer, ik vond het altijd wel leuk om naar zijn presentaties te kijken. Geen idee of de malaise bij RTG aan hem te wijten is, maar hoe dan ook was hij eindverantwoordelijk.

Over Intel/AMD: veel mensen gaan ervan uit dat het een Vega chip moet zijn vanwege HBM2, maar vergeet niet dat Intel er nog aan heeft kunnen sleutelen (custom chip). Bronnen die eerder het e.e.a. juist voorspeld hebben, zeggen dat het op Polaris is gebaseerd. Het valt dus nog maar te bezien.

Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 06-09 14:11
The Source schreef op dinsdag 7 november 2017 @ 22:52:Die samples hebben we al 9 maanden ofzo liggen. Jammer dat de beurs niet zoveel reageerde op dit bericht had meer verwacht.
Haha, dat is dan redelijk goed geheim gehouden want tot voor kort werden de 'believers' voor gek verklaard.

Wanneer kunnen we notebooks verwachten, rondom CES in januari? En dan bedoel ik in de winkel :*)

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
The Source schreef op dinsdag 7 november 2017 @ 22:52:
Die samples hebben we al 9 maanden ofzo liggen. Jammer dat de beurs niet zoveel reageerde op dit bericht had meer verwacht.
Denk dat niet duidelijk (genoeg) is hoe groot de markt hiervoor zal zijn (wat ook zal afhangen van prestaties, vooral mbt koelbaarheid).

@41: dat is waar, en het is idd vrij opvallend dat de chipnaam nergens wordt genoemd. kans is dus reeel dat het idd een polarischip betreft.
En idd, rip Raja.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
Raja. -O-
Tja, het zat er al een beetje aan te komen. De RTG functioneerde gewoon niet goed, en dat is een understatement. Ik had gedacht dat Raja teruggezet zou worden naar puur technische zaken, maar hij vertrekt nu helemaal. :/

Kennelijk komen er nu wel meer middelen beschikbaar voor de RTG. :)


Oh en om nog even te illustreren hoe gigantisch die AMD/Intel deal in potentie is.

Afbeeldingslocatie: https://images.anandtech.com/doci/11762/mwq2-002b_575px.png

https://www.anandtech.com...card-shipments-in-q2-2017

Natuurlijk gaat het nu om een klein segment voor highend mobiele chips, maar dat zal toch al snel betekenen dat AMD, Nvidia kan passeren in marktaandeel. Nvidia mobile lijkt in ieder geval redelijk dood te zijn buiten het extreme gaming laptop segment, nu zowel Intel als AMD met hun eigen APU's komen, met AMD GPU's.

[ Voor 4% gewijzigd door DaniëlWW2 op 07-11-2017 23:39 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Slecht nieuws - Raja Koduri is weg bij AMD!!
https://hexus.net/tech/ne...nologies-boss-leaves-amd/

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13-09 13:58
DaniëlWW2 schreef op dinsdag 7 november 2017 @ 23:31:
Raja. -O-
Tja, het zat er al een beetje aan te komen. De RTG functioneerde gewoon niet goed, en dat is een understatement. Ik had gedacht dat Raja teruggezet zou worden naar puur technische zaken, maar hij vertrekt nu helemaal. :/

Kennelijk komen er nu wel meer middelen beschikbaar voor de RTG. :)


Oh en om nog even te illustreren hoe gigantisch die AMD/Intel deal in potentie is.

[afbeelding]

https://www.anandtech.com...card-shipments-in-q2-2017

Natuurlijk gaat het nu om een klein segment voor highend mobiele chips, maar dat zal toch al snel betekenen dat AMD, Nvidia kan passeren in marktaandeel. Nvidia mobile lijkt in ieder geval redelijk dood te zijn buiten het extreme gaming laptop segment, nu zowel Intel als AMD met hun eigen APU's komen, met AMD GPU's.
Die chips gaan gewoon als Intel in de boeken, dus marktaandeel AMD zal niet vergroten. Hun omzet wel, winst betwijfl ik... dit soort deals worden altijd uitgekleed.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13:43
Is eigenlijk wel wat ik verwachtte toen zijn 'vakantie' werd aangekondigd.
Astennu schreef op dinsdag 7 november 2017 @ 07:54:
[...]


Zeker leuke mogelijkheden voor AMD om wat meer marktaandeel te krijgen + naamsbekendheid.
Qua koeling valt denk ik wel mee. Vega is erg zuinig op lage voltages maar als je Vega gaat pushen loopt het verbruik wel uit de hand.

Aan de andere kant heeft AMD met Ryzen ook een leuk CPU gedeelte wat op lagere clocks en voltages (gezien de verwachtingen van de nieuwe Ravens Ridge 2700U) mee kan komen met intel.

Dus met Zen2 zouden ze zelf ook zo iets uit kunnen brengen. Echter zullen gamers door de naams bekendheid van Intel toch eerder voor een Intel CPU gaan.
Hangt er beetje vanaf of dit de nieuwe Iris Pro wordt (de goede IGP die niemand had) of de nieuwe Intel HD (het ding dat je bij elke cpu er ongevraagd erbij krijgt).

Ik vermoed dat het onder de eerste optie gaat vallen. Het alternatief zou AMD de userbase geven die ze nodig hebben voor Radeon (en die ze met Polaris wilden verkrijgen).

[ Voor 60% gewijzigd door sdk1985 op 08-11-2017 00:09 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:07
Ik had ook niet echt verwacht dat ie nog terug zou komen, zo'n "vakantie" is vaak de voorloper van vertrek.

Grote vraag is natuurlijk waar hij nu heen gaat, terug naar Apple, of toch bijv. naar Intel (waar geloof ik ook ooit al geruchten voor waren). Of zal een compleet andere partij het lukken hem aan zich te binden.

[ Voor 50% gewijzigd door Dennism op 08-11-2017 08:58 ]


Acties:
  • 0 Henk 'm!
The Source schreef op dinsdag 7 november 2017 @ 23:55:
[...]

Die chips gaan gewoon als Intel in de boeken, dus marktaandeel AMD zal niet vergroten. Hun omzet wel, winst betwijfl ik... dit soort deals worden altijd uitgekleed.
Ze worden nota bene al aangeprijst als AMD chips, door Intel. Verder hoe zou dit precies moeten werken? Het is niet alsof er geen drivers mee zullen komen met deze chips. Drivers die vol zullen staan met AMD logo's. ;)

Verder gaat dit een highend product worden. Waarschijnlijk geen grote oplage, duur want EMIB is ook echt niet goedkoop, en Intel gaat de chips van AMD kopen. Dat laatste betekent al dat AMD er winst op zal maken. AMD zit met haar WSA afspraak met GF vast aan een jaarlijks te kopen aantal wafers. Aantallen die elk jaar ook op zullen lopen. AMD heeft er dan ook direct belang bij al deze te verkopen, omdat ze anders een boete moeten betalen. Vervolgens heeft AMD al laten zien winst te kunnen maken, terwijl hun echte volumeproducten nog niet eens beschikbaar zijn. Daarmee kan je pas echt je R&D terugverdienen, en die kosten verdelen over grotere sales.

Vervolgens hoe zou die deal tot stand zijn gekomen? Zou AMD naar Intel zijn gestapt onder de strekking van: Kijk Intel, wij hebben een mooie nieuwe mobiele chip in ontwikkeling. Verder hebben we na jaren van herstructurering en R&D eindelijk weer eens een product waardoor we misschien niet failliet gaan. Dit omdat jullie ons keihard genaaid hebben met jullie OEM omkoping. Nu schieten we onszelf graag in de voet door deze chips aan jullie te verkopen voor bijna niks. Nee, geloof er helemaal niks van.

Het zal Intel zijn geweest die een betere GPU chip wil hebben, en een echte APU wil gaan aanbieden als highend product. Dat kunnen ze zelf niet omdat Nvidia en AMD zo ongeveer elk zinvol patent voor GPU's bezitten. Zelf iets met enige prestaties maken kost enorm veel R&D omdat Intel vele generaties in zal moeten lopen, en dan alsnog een flinke zak met geld moet overhandigen voor de patentrechten.

Nvidia hebben ze waarschijnlijk niet eens overwogen omdat ze bij Nvidia hadden gevraagd hoeveel miljard dollar Intel wil betalen. AMD is dan makkelijker. Wat weerhoudt AMD alleen van deze custom chip aan te passen en zelf ook te gaan verkopen, en daarmee onder de prijs van Intel te gaan zitten, en zo Intel te saboteren? Nou, een flinke zak met geld voor exclusiviteit zodat AMD geen highend versie van Raven Ridge uitbrengt met deze GPU's.


Speelt ook nog mee welke twee bedrijven, hier de derde proberen te naaien, want dat is het. Dit gaat om Nvidia uit de laptop OEM markt drukken, niks minder dan dit. AMD accepteert met alle liefde een kleiner bedrag dan ze direct zouden krijgen voor een discrete chip, omdat ze zo Nvidia wegdrukken. Intel heeft er geen enkel probleem mee om verlies te maken op producten, als ze hiermee een concurrent harder treffen. OEM's zullen deze chips voor minder krijgen dan een losse Intel en Nvidia combinatie, en Nvidia dus negeren. AMD wint, Intel wint , OEM's winnen, consumenten moeten maar pikken wat ze krijgen, en Nvidia verkiest keihard.

[ Voor 16% gewijzigd door DaniëlWW2 op 08-11-2017 10:35 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
The Source schreef op dinsdag 7 november 2017 @ 23:55:
[...]

Die chips gaan gewoon als Intel in de boeken, dus marktaandeel AMD zal niet vergroten. Hun omzet wel, winst betwijfl ik... dit soort deals worden altijd uitgekleed.
Yeah AMD trekt in dat opzich aan het kortste eind. Intel wil natuurlijk niet AMD prominent in beeld hebben.
Daarnaast lijkt het mij dat niet alle chips een AMD GPU gaan krijgen. En ik vraag mij af hoeveel van deze chips straks verkocht gaan worden.

Het zorgt er in ieder geval wel voor dat er meer AMD chips in de markt komen en dat het voor game dev's dan ook interessanter wordt om daar voor te optimaliseren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 8 november 2017 @ 11:46:
[...]


Yeah AMD trekt in dat opzich aan het kortste eind. Intel wil natuurlijk niet AMD prominent in beeld hebben.
Daarnaast lijkt het mij dat niet alle chips een AMD GPU gaan krijgen. En ik vraag mij af hoeveel van deze chips straks verkocht gaan worden.

Het zorgt er in ieder geval wel voor dat er meer AMD chips in de markt komen en dat het voor game dev's dan ook interessanter wordt om daar voor te optimaliseren.
Helemaal niet. Intel geeft nu al aan dat ze met AMD gaan werken voor de GPU's. Het lijkt hier om Kabylake-G te gaan. Dat is een highend mobiele chip met 4c/8t. Aan de GPU kant lijkt het een 24CU Polaris chip (dus 1536SP) te zijn, met 4GB HBM2 die op maximaal 1GHz draait. Daarmee zit deze tussen een RX560 en RX570 in. Zeker omdat Polaris meer heeft aan extra geheugenbrandbreedte dan CU's, kan dit een behoorlijke chip zijn.

Zowel Intel als AMD gaan ook werken met koppelverkoop. Dat is nu al jaren de trend en de verwachting, maar nu lijkt het eindelijk te gaan gebeuren. AMD Fusion faalde keihard met Bulldozer, en Intel had nooit de GPU's om een echte APU te maken. Dat is nu heel anders. Raven Ridge is perfect in staat om het gehele low end discrete GPU segment de nek om te draaien, en Kabylake-G het middensegment.

Geen enkele OEM zal ook nog een losse Nvidia GPU verkopen want waarom zouden ze? Ergo, het gehele €1000- segment is verloren voor Nvidia. Een OEM zal nooit meer een GTXxx50 achtige chip inbouwen als ze iets vergelijkbaars krijgen bij de Intel CPU. Voor een GTXxx60 ziet het er ook zeer slecht uit want de meerwaarde is gering. Paar honderd dollar voor een chip die niet extreem veel sneller is, gaat geen OEM doen. De volgende stap is de GTXxx70. Tja, een GTX1070 laptop begint bij €1750...

Op de desktop kan het ook zo verder gaan tussen Raven Ridge en Intel. Nvidia gaat hierdoor van totale dominantie in de laptop GPU markt, volledig weggevaagd worden. Intel zal dominant blijven als CPU keuze tenzij AMD ze echt helemaal wegblaast. In beide gevallen zullen de CPU's geleverd worden met AMD GPU's. Nvidia kan je dan niet meer krijgen.


Iets anders. Er lopen al geruchten dat Koduri naar Intel gaat. Mede voor Kabylake-G, maar misschien nog wel meer voor Intel Nervana, de directe aanval van Intel op Nvidia haar AI chips. Intel lijkt ook niet meer gefocused te zijn op AMD vernietigen, maar zich nu puur op Nvidia te richten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13-09 13:58
DaniëlWW2 schreef op woensdag 8 november 2017 @ 12:29:
[...]


Helemaal niet. Intel geeft nu al aan dat ze met AMD gaan werken voor de GPU's. Het lijkt hier om Kabylake-G te gaan. Dat is een highend mobiele chip met 4c/8t. Aan de GPU kant lijkt het een 24CU Polaris chip (dus 1536SP) te zijn, met 4GB HBM2 die op maximaal 1GHz draait. Daarmee zit deze tussen een RX560 en RX570 in. Zeker omdat Polaris meer heeft aan extra geheugenbrandbreedte dan CU's, kan dit een behoorlijke chip zijn.
Correct, zeg maar 480 level.

Blijven nog steeds NV GPUs verkocht worden, die worden ook weer sneller en krijgen beter features. Dit zal de markt wel een beetje verschuiven maar het blijft Intel. KBL-G is zo'n beetje opvolger van Iris Pro. Dit is gewoon technology die Intel inkoopt, vroegere GPUs waren ook van imagination (power vr).

Acties:
  • 0 Henk 'm!
The Source schreef op woensdag 8 november 2017 @ 21:29:
[...]

Correct, zeg maar 480 level.

Blijven nog steeds NV GPUs verkocht worden, die worden ook weer sneller en krijgen beter features. Dit zal de markt wel een beetje verschuiven maar het blijft Intel. KBL-G is zo'n beetje opvolger van Iris Pro. Dit is gewoon technology die Intel inkoopt, vroegere GPUs waren ook van imagination (power vr).
En wat houdt Intel precies tegen om hun highend CPU's, de quadcores van Kabylake-G, sterk voor te trekken en deze alleen te verkopen met een AMD GPU? De gehele PC industrie draait uiteindelijk om Intel als de grootste speler. Geen OEM buiten Apple die om Intel heen kan. Intel heeft ook echt niet betaald voor een op maat gemaakte Radeon chip van voormalige aartsvijand AMD om deze vervolgens nauwelijks te verkopen. Het is nota bene ook de eerste EMIB chip van Intel, iets waar ze nu al langere tijd mee schermen, nota bene als beter alternatief voor IF van AMD. Komen ze meteen met een AMD GPU en HBM2 verbinding. :P

Dit is gewoon een nieuwe stap van een jarenlange trend van integratie van CPU en GPU in een chip. Intel heeft nog de expertise, nog de patentrechten om zelf een succesvolle chip te produceren, dus zijn ze naar de SoC afdeling van AMD gestapt. Vervolgens, waarom zou Intel niet een opvolger bestelt hebben, nu een Vega, of zelfs een Navi met beduidend betere prestaties dan wat neer lijkt te komen op een flink getweakte Polaris 10. Presteert deze chip vergelijkbaar met een RX480 zoals je impliceert, dan is de mobiele GTX1060 ook dood. Intel kan gewoon onder de prijs gaan zitten die de combinatie van Intel CPU en Nvidia GPU kost. AMD krijgt een percentage, en zijn blij. Intel pakt een groter percentage, Intel blij. OEM's krijgen korting, OEM's blij. Nvidia niet blij. Dat is het doel. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Hmmm als dit waar is, wordt het nu erg interessant.
https://twitter.com/ryanshrout/status/928342985422471169

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
https://twitter.com/intelnews/status/928382053325742080
Raja Koduri Joins #Intel as Chief Architect to Drive Unified Vision Across Cores and Visual Computing http://intel.ly/2ylFwrl

[ Voor 19% gewijzigd door foppe-jan op 08-11-2017 23:20 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13-09 13:58
Lol als dit waar is;
And Raja's task will not be a small one; with his hire, Intel will be developing their own high-end discrete GPUs.
DaniëlWW2 schreef op woensdag 8 november 2017 @ 21:43:
[...]


En wat houdt Intel precies tegen om hun highend CPU's, de quadcores van Kabylake-G, sterk voor te trekken en deze alleen te verkopen met een AMD GPU? De gehele PC industrie draait uiteindelijk om Intel als de grootste speler. Geen OEM buiten Apple die om Intel heen kan. Intel heeft ook echt niet betaald voor een op maat gemaakte Radeon chip van voormalige aartsvijand AMD om deze vervolgens nauwelijks te verkopen. Het is nota bene ook de eerste EMIB chip van Intel, iets waar ze nu al langere tijd mee schermen, nota bene als beter alternatief voor IF van AMD. Komen ze meteen met een AMD GPU en HBM2 verbinding. :P

Dit is gewoon een nieuwe stap van een jarenlange trend van integratie van CPU en GPU in een chip. Intel heeft nog de expertise, nog de patentrechten om zelf een succesvolle chip te produceren, dus zijn ze naar de SoC afdeling van AMD gestapt. Vervolgens, waarom zou Intel niet een opvolger bestelt hebben, nu een Vega, of zelfs een Navi met beduidend betere prestaties dan wat neer lijkt te komen op een flink getweakte Polaris 10. Presteert deze chip vergelijkbaar met een RX480 zoals je impliceert, dan is de mobiele GTX1060 ook dood. Intel kan gewoon onder de prijs gaan zitten die de combinatie van Intel CPU en Nvidia GPU kost. AMD krijgt een percentage, en zijn blij. Intel pakt een groter percentage, Intel blij. OEM's krijgen korting, OEM's blij. Nvidia niet blij. Dat is het doel. ;)
Punt van KBL-G is dat je geen discrete graphics nodig hebt.
Daarnaast is dit een mobile CPU en mobile heeft AMD niets te vertellen, niet op CPU en niet op GPU gebied. Grootste marketaandeel is voor Intel CPU + NV GPU. Voor Intel geen reden om AMD GPUs voor te trekken. Als Intel slim is hebben ze CFX technology of een ander voordeel ingebakken maar voor mobile blijft voorlopig prijs/performance/watt achter op AMD mobile GPU.

1060 wordt straks vervangen door... euh laten we het even 1160 noemen met weer een performance/watt boost voor hezelfe prijslevel. Bij integrated solutions zit daar altijd een limit aan. Dus Intel kan even wat discrete graphics market afsnoepen van NV (AMD heeft dat nagenoeg niet in mobile) maar uiteindelijk zal het beperkt zijn omdat het performance level opschuift. Daarnaast willen gamers altijd discrete graphics, die denken dat dat om een of andere reden sneller is, terwijl dat helemaal niet hoeft te zijn. Dus de marketing message van ouderwetse en trage integrated graphics zal moeilijk te verkopen zijn.

Verwacht maar niet dat AMD hier veel winst op zal maken. AMD wil haar portfolio kansen verspreiden om minder afhankelijk van de CPU/GPU business te zijn, vandaar veel focus op embedded solutions zoals XBOX en deze Intel CPU. Dit zorg voor een nieuwe omzet stroom, dit is cashflow wat ze hard nodig hebben maar winst zal minimaal zijn.

Over die cashflow van AMD ik hoorde het gerucht dat vendors AMD vooraf dienen te betalen voor VEGA orders. Dit wellicht zodat ze cash hebben om bij TSMC etc orders in te schieten. Iig geen goed teken als dit gerucht klopt.

En nu Raja Intel joined en als ze serious gaan focussen op discrete GPUs (wat ze in het verleden al gedaan hebben) dan is dit een groter probleem voor AMD dan voor NV vermoed ik. Enige voordeel is dat Intel wellicht een heleboel pattenten mist die ze van AMD of NV moet verkrijgen.

BTW overigens wordt gaming niet genoemd bij Intel mbt discrete graphics.

[ Voor 92% gewijzigd door The Source op 08-11-2017 23:41 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Jongens wat een scrabblewoordensalade:
Intel today announced the appointment of Raja Koduri as Intel chief architect, senior vice president of the newly formed Core and Visual Computing Group, and general manager of a new initiative to drive edge computing solutions. In this position, Koduri will expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions for a broad range of computing segments.

Raja Koduri
Billions of users today enjoy computing experiences powered by Intel’s leading cores and visual computing IP. Going forward under Koduri’s leadership, the company will unify and expand differentiated IP across computing, graphics, media, imaging and machine intelligence capabilities for the client and data center segments, artificial intelligence, and emerging opportunities like edge computing.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
oeps sorry ik ben weer weg.

[ Voor 85% gewijzigd door Amazigh_N_Ariff op 09-11-2017 00:30 ]


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
The Source schreef op woensdag 8 november 2017 @ 23:29:

BTW overigens wordt gaming niet genoemd bij Intel mbt discrete graphics.
Dat vroeg ik me ook af, zal deze oplossing goedkoper zijn dan een Intel+Nvidia oplossing of heeft het een andere bedoeling zoals machine learning of AR o.i.d. en misschien efficiëntie.

Acties:
  • 0 Henk 'm!

Verwijderd

Voor wie het interessant vindt, AdoredTV heeft hier zijn licht op laten schijnen. Je mag zelf even de link zoeken. ;)
The Source schreef op woensdag 8 november 2017 @ 23:29:
1060 wordt straks vervangen door... euh laten we het even 1160 noemen met weer een performance/watt boost voor hezelfe prijslevel. Bij integrated solutions zit daar altijd een limit aan. Dus Intel kan even wat discrete graphics market afsnoepen van NV (AMD heeft dat nagenoeg niet in mobile) maar uiteindelijk zal het beperkt zijn omdat het performance level opschuift. Daarnaast willen gamers altijd discrete graphics, die denken dat dat om een of andere reden sneller is, terwijl dat helemaal niet hoeft te zijn. Dus de marketing message van ouderwetse en trage integrated graphics zal moeilijk te verkopen zijn.
Ja, de vereiste performance zal blijven opschuiven maar gaan we op een gegeven moment niet de situatie krijgen dat geïntegreerde graphics genoeg zijn voor 95-99% van de mensen die een laptop of desktop koopt/bouwt? Nu wordt er vaak nog een discrete kaart bij gestopt omdat die geïntegreerde graphics nog tekort schieten voor het ietwat serieuze werk (gaming, CAD, rendering, videotranscoding). Al die mensen die geen diehardgamer zijn maar die wel graag de optie hebben om eens een spelletje te spelen, die graag soepel CAD-software willen draaien, misschien een beetje willen renderen of aan videotranscoding (GPU-accellerated) doen, voor hen is zo'n CPU met geïntegreerde graphics dan prima. Het model waar nu concreet over wordt gesproken zit qua graphics tussen de 1050 Ti en de 1060. Dat is toch wel een wezenlijk ander niveau dan de graphics in RR (grofweg de prestaties de de laptopvariant van de 1030 haalt) en die is al ongeveer twee keer zo goed als wat er in CL zit.
Ik zou bij god niet weten wat AMD ermee gaat verdienen, daar is nog niets over gemeld, het gaat waarschijnlijk om meer dan enkel de winst. Diversificatie? Misschien. Mindschare lijkt me ook belangrijk. Optimalisatie eveneens, als voldoende Intel-CPU's met AMD graphics gebruikt worden voor gaming dan ligt er meer druk bij partijen zoals Ubisoft en Unreal (notoir voor het slecht optimaliseren voor AMD-GPU's) om beter te optimaliseren voor AMD-GPU's.

Vraagje, hoeveel procent van de kosten bij een discrete grafische kaart gaat typisch naar de GPU? Hoeveel voordeliger is het om exact dezelfde GPU en RAM op dezelfde PCB te plaatsen als de CPU dan wanneer je er een aparte grafische kaart voor maakt? Ik denk niet alleen aan de materiaalkosten maar ook alles erom heen: marketing, verpakking, ontwerp...

Dit lijkt me een analoog verhaal aan die server-CPU's, elke winst is meegenomen omdat AMD zo'n klein aandeel heeft in deze markt. Deze CPU's zijn waarschijnlijk vooral op de OEM's (laptops en prebuild desktops) gericht. Stel dat AMD minder winst maakt per GPU dan bij de discrete grafische kaarten dan nog levert het AMD veel extra verkoop op. Zelfs al zou de winstmarge klein zijn, als je veel meer GPU's verkoopt dan kan je allelei vaste lasten verdelen over een veel groter aantal stuks. Meer R&D-investeringen. Als Intel er belang bij heeft dat de AMD graphics beter worden dan zal Intel mogelijk mee investeren in de R&D van AMD voor de graphics. Dat geïntegreerde graphics voor diehard gamers niet zo interessant zijn ben ik met je eens maar het grootste deel van de OEM-markt bestaat uit klanten die niet fanatiek gamen.
Over die cashflow van AMD ik hoorde het gerucht dat vendors AMD vooraf dienen te betalen voor VEGA orders. Dit wellicht zodat ze cash hebben om bij TSMC etc orders in te schieten. Iig geen goed teken als dit gerucht klopt.
Dat klinkt inderdaad best wel ernstig.
The Source schreef op dinsdag 7 november 2017 @ 22:52:
https://videocardz.com/73921/raja-koduri-leaves-amd

Was te verwachten na het VEGA debacle.
Kost prijs te hoog, performance te laag, power te hoog en de kaart verkoopt uiteindelijk ook niet.
Debacle vind ik een beetje overdreven, afhankelijk van of dat dit puur op Vega64 is gericht of op heel Vega en of dat je het vanuit het perspectief van de klant bekijkt of vanuit het perspectief van AMD (voor AMD was het natuurlijk teleurstellend, die hadden liever een hogere performance en een hogere prijs gehad). Vega64 is inderdaad niet veel soeps maar Vega56 heeft een prima prijs/kwaliteit, de kaart verslaat gemakkelijk de 1070 en het vermogen is ook prima als je zelf even de moeite neemt om te ondervolten. In de USA kan je die nu voor $399 kopen (Newegg, niet afgeprijsd). De timing van Vega was slecht (alle kaarten vanaf 570-performance waren duur, in het bijzonder alle AMD-kaarten).
Dat de kaart slecht verkoopt komt natuurlijk ook doordat je er enkel een referentiekaart van kan kopen. Heeft MSI inmiddels moeite gedaan om een model met open koelers te maken of ligt het probleem nog steeds bij de levering vanuit AMD?
FortyOne schreef op dinsdag 7 november 2017 @ 23:01:
RIP Raja. Jammer, ik vond het altijd wel leuk om naar zijn presentaties te kijken. Geen idee of de malaise bij RTG aan hem te wijten is, maar hoe dan ook was hij eindverantwoordelijk.
Niet echt, het ontwerp van Vega was al min of meer klaar toen hij begon en de software van RTG is flink verbeterd onder Raja zijn leiding. Er zijn veel oorzaken mogelijk voor zo'n vertrek. Naar het schijnt heeft AMD de autonomie van RTG weer wat beperkt (veel autonomie was voor Koduri een harde voorwaarde), misschien vindt hij het leuker om te pionieren (dat deed hij bij Apple toch ook) dan op de winkel te passen en gaat hij daarom weer verder, misschien doet hij het omdat hij het een leuke uitdaging vindt en het voor AMD ook wel goed uitkomt om beter zaken met Intel te kunnen doen met hem als brug bij Intel...
We zullen hem in ieder geval wel gaan missen.

[ Voor 31% gewijzigd door Verwijderd op 09-11-2017 02:12 ]


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Verwijderd schreef op donderdag 9 november 2017 @ 01:10:
Niet echt, het ontwerp van Vega was al min of meer klaar toen hij begon en de software van RTG is flink verbeterd onder Raja zijn leiding. Er zijn veel oorzaken mogelijk voor zo'n vertrek. Naar het schijnt heeft AMD de autonomie van RTG weer wat beperkt (veel autonomie was voor Koduri een harde voorwaarde), misschien vindt hij het leuker om te pionieren (dat deed hij bij Apple toch ook) dan op de winkel te passen en gaat hij daarom weer verder, misschien doet hij het omdat hij het een leuke uitdaging vindt en het voor AMD ook wel goed uitkomt om beter zaken met Intel te kunnen doen met hem als brug bij Intel...
We zullen hem in ieder geval wel gaan missen.
Kan het niet gewoon zijn dat hij binnengehaald was voor Navi, en dat is nu klaar en vandaar dat hij weer vertrekt.
Hetzelfde als ryzen door Jim Keller was gedaan, Ryzen is klaar en Jim stapt op en gaat naar zijn volgende project.

Acties:
  • 0 Henk 'm!

Verwijderd

Vraagje aan de modders hier. Ik begreep dat je best wel gemakkelijk zelf open fans (casefans) kan plaatsen op de Vega56 referntiekaart. Hebben jullie hier ervaring mee bij andere kaarten met blowerfans?
bluebear schreef op donderdag 9 november 2017 @ 01:37:
[...]


Kan het niet gewoon zijn dat hij binnengehaald was voor Navi, en dat is nu klaar en vandaar dat hij weer vertrekt.
Volgens mij werd dat niet concreet afgesproken maar het is in de techinsche wereld wel redelijk gebruikelijk bij zulke grote talenten dat ze veel van werkgever veranderen in functie van de projecten die ze op dat moment hebben. Raja Koduri is 100% een ingenieur, geen manager. Hij moest nu bij RTG wel werken als manager. Ik kan me voorstellen dat hij weer 100% technisch werk wil doen, de vraag is dan waarom dat niet bij AMD gebeurt.
Ik denk in ieder geval niet Koduri iets wordt verweten m.b.t. hoe het nu gaat. Vega kwam erg laat en viel een beetje tegen maar Vega was maar heel erg beperkt zijn verantwoordelijkheid, de software draaide geweldig onder hem en de rest (wat zo'n manager allemaal nog meer doet) daar hebben wij raden naar.
Astennu schreef op dinsdag 7 november 2017 @ 07:54:
[...]


Zeker leuke mogelijkheden voor AMD om wat meer marktaandeel te krijgen + naamsbekendheid.
Qua koeling valt denk ik wel mee. Vega is erg zuinig op lage voltages maar als je Vega gaat pushen loopt het verbruik wel uit de hand.
@Balance
Als je Vega56 goed ondervolt dan krijg je betere prestaties dan de 1070 met hetzelfde vermogen als wat de 1070 heeft. Bij Gamersnexus haalden ze 0,1 V (dat lijkt redelijk gebruikelijk te zijn bij ondervolten) en kwam het vermogen zelfs 5W lager uit dan bij de 1070 terwijl de prestaties iets toenamen.
AMD geeft kaarten vaak een wat te hoge spanning (Fury, 580, Vega56), waarschijnlijk om te garanderen dat zelfs de slechtse samples in de meest extreme omstandigheden (een of andere applicatie) de kaart stabiel is @stock settings. Het vermogen van Vega56 valt sowieso wel mee, bij Vega64 loopt het gigantisch uit de hand omdat die in essentie zwaar overklokt uit de winkel komt. Het vermogen neemt gemiddeld ongeveer kwadratisch toe met de spanning en om hoger te klokken moet je de spanning verhogen. Hoe hoger je gaat met de spanning hoe sterker het vermogen toeneemt en daar zit het probleem. AMD heeft de klokfrequentie niet op de sweet spot gelegd (Astennu kan jou vertellen waar die ligt ;)) maar zeer ruim boven dat punt). Waarschijnlijk om de kaart voldoende dicht in de buurt van de 1080 te laten presteren. Het is alleen niet erg efficiënt want op een gegeven moment heb je bijvoorbeeld twee keer zoveel W nodig voor 10-20% meer performance.
Dus ja, zoals Asten zegt, Vega is op zich best wel efficiënt, alleen komt @stock de performance van de volle kaart net wat te laag uit in vergelijking met de 1080 en dus hebben ze die klokfrequentie belachelijk hoog gelegd en daarom de spanning ook moeten verhogen. Het is dus prima mogelijk om het vermogen laag te houden als je genoegen neemt met iets minder performance. Dat doet AMD nu ook bij Raven Ridge (t/m 11 Polaris CU's).

[ Voor 54% gewijzigd door Verwijderd op 09-11-2017 01:58 ]


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37

Speelt ook nog mee welke twee bedrijven, hier de derde proberen te naaien, want dat is het. Dit gaat om Nvidia uit de laptop OEM markt drukken, niks minder dan dit. AMD accepteert met alle liefde een kleiner bedrag dan ze direct zouden krijgen voor een discrete chip, omdat ze zo Nvidia wegdrukken. Intel heeft er geen enkel probleem mee om verlies te maken op producten, als ze hiermee een concurrent harder treffen. OEM's zullen deze chips voor minder krijgen dan een losse Intel en Nvidia combinatie, en Nvidia dus negeren. AMD wint, Intel wint , OEM's winnen, consumenten moeten maar pikken wat ze krijgen, en Nvidia verkiest keihard.
Het is niet dat het de eerste keer is dat ze dit doen.. iedereen is wellicht al het chipset debacle vergeten..
nVidia is toen ook van de markt geduwd (illegaal zo bleek later.. maar een zak met geld loste dat "probleempje" wel op...)
Als klant blijf je dan achter met 1 grote monopolist en een speler die blij us als hij al mag meedoen.. met alle gevolgen vandien. Alsof je mag blij zijn met de huidige chipsets.. lets face it: nog steeds usb2 headers??? Aparte duurdere chipsets xodat jr wel een multiplier hoger kan zetten.. yay

Als dat de toekomst van discrete/mid-end kaarten gaat worden..
Het is niet dat nVidia dit al niet jaren geleden zag aankomen (het is hen al eerder overkomen)
Hence hun push naar andere markten en ARM chips.
Wanneer de x86 markt nog verder zag stagneren (amper snellere cpu's, gpu's wegens geen concurrentie en nu al armzalige chipsets) zou het kunnen dat uiteindelijk de intelAMD socs het moeten afleggen tegen Apple/Quallcom/Samsung/nVidia en is AMD direct hun laatste troef kwijt hun x86 licentie.
En intel de noodzaak om AMD nog in leven te laten daar ze ver van een grote speler zijn op de soc markt.
Eigenlijk bezie ik heel deze actie van AMD als een oude man die potentieel zijn eigen graf graaft.

Ik zie nu al op reis dat ik constant op mn gsm werk/gebruik en mn surface letterlijk nog niet aangeraakt heb. Ik denk er serieus aan om mn volgende reis deze zelf volledig thuis te laten..

Hell hoeveel mensen betalen nu al niet elke 2 jaar het dubbele van hun laptop/pc die dan nog eens 6 jaar moet meegaan..

In dat opzicht scoort de shield super:support kodi support android en je krijgt een mooi marktaandeel in de toekomstige markt..
AMD heeft tot nu toe in die richting nog niets gedaan, toont niet echt de wil vsn innovativiteit due je als kleine speler nodig hebt.
Intel faalde ook tot nu toe, maar wie weet binnenkort poging nr3?

Specs


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Verwijderd schreef op donderdag 9 november 2017 @ 01:10:

Ja, de vereiste performance zal blijven opschuiven maar gaan we op een gegeven moment niet de situatie krijgen dat geïntegreerde graphics genoeg zijn voor 95-99% van de mensen die een laptop of desktop koopt/bouwt?
Ja, maar ook laptops krijgen ondertussen hogere resoluties, en mensen gaan dat ook waarderen. Daarmee stijgen de eisen wel weer (al heeft dat natuurlijk een bovengrens, maar ja, ondertussen ook genoeg tablets/smartphones met 'gestoorde' resoluties).

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
lightdestroyer schreef op donderdag 9 november 2017 @ 07:58:
[...]

Het is niet dat het de eerste keer is dat ze dit doen.. iedereen is wellicht al het chipset debacle vergeten..
nVidia is toen ook van de markt geduwd (illegaal zo bleek later.. maar een zak met geld loste dat "probleempje" wel op...)
Als klant blijf je dan achter met 1 grote monopolist en een speler die blij us als hij al mag meedoen.. met alle gevolgen vandien. Alsof je mag blij zijn met de huidige chipsets.. lets face it: nog steeds usb2 headers??? Aparte duurdere chipsets xodat jr wel een multiplier hoger kan zetten.. yay
Of dat Intel heeft geprobeerd om Nvidia uit de PCI-E toegang te drukken, waarmee ze meteen failliet zouden zijn. Ik ben bekent met de meeste zakenpraktijken van zowel Intel, als Nvidia. Draai echt niet voor niks een all AMD systeem. ;)
Als dat de toekomst van discrete/mid-end kaarten gaat worden..
Het is niet dat nVidia dit al niet jaren geleden zag aankomen (het is hen al eerder overkomen)
Hence hun push naar andere markten en ARM chips.
Wanneer de x86 markt nog verder zag stagneren (amper snellere cpu's, gpu's wegens geen concurrentie en nu al armzalige chipsets) zou het kunnen dat uiteindelijk de intelAMD socs het moeten afleggen tegen Apple/Quallcom/Samsung/nVidia en is AMD direct hun laatste troef kwijt hun x86 licentie.
En intel de noodzaak om AMD nog in leven te laten daar ze ver van een grote speler zijn op de soc markt.
Eigenlijk bezie ik heel deze actie van AMD als een oude man die potentieel zijn eigen graf graaft.

Ik zie nu al op reis dat ik constant op mn gsm werk/gebruik en mn surface letterlijk nog niet aangeraakt heb. Ik denk er serieus aan om mn volgende reis deze zelf volledig thuis te laten..

Hell hoeveel mensen betalen nu al niet elke 2 jaar het dubbele van hun laptop/pc die dan nog eens 6 jaar moet meegaan..

In dat opzicht scoort de shield super:support kodi support android en je krijgt een mooi marktaandeel in de toekomstige markt..
AMD heeft tot nu toe in die richting nog niets gedaan, toont niet echt de wil vsn innovativiteit due je als kleine speler nodig hebt.
Intel faalde ook tot nu toe, maar wie weet binnenkort poging nr3?
Ik ben er ook niet blij mee, maar begrijp de redenering van AMD wel. De gemiddelde consument is allergisch voor niet Intel. Ze kennen AMD niet eens. Heb je ook nog het eindeloze "AMD sucks" van mensen die werkelijk geen flauw idee hebben waar ze het over hebben. Dan moet je op een gegeven moment iets gaan doen als bedrijf. Als AMD nu via Intel een gigantische sprong kan maken in marktaandeel van GPU's dan is dat pure winst op termijn. Die gecombineerde Intel/AMD chip zal goedkoper zijn dan een Intel CPU en Nvidia GPU. De chip zelf, en dan ook nog goedkopere en kleinere moederborden. Het gaat voor AMD niet eens om er een miljard per jaar aan verdienen ofzo. Ik kwam tegen dat 10% van de mobiele laptopmarkt ongeveer $300 miljoen aan omzet waard zou zijn. Voor AMD is dat niet mals, zelfs als ze maar de helft zelf krijgen.

Nee, het gaat erom Nvidia in te halen door het lage en middensegment te veroveren, en ze er ook uit te houden. Menige game die dan beter op AMD zal draaien dan Nvidia vanwege optimalisaties. Het is ook de sleutel tot DX12 implementatie als de standaard.

Nu Lisa Su de RTG ook bestuurt, verwacht ik ook de nodige veranderingen. Ik zou niet verbaast zijn als Vega de laatste Radeon monsterchip gaat zijn van AMD die we gaan zien in de komende jaren. De chip was overhyped, slecht geëxecuteerd, duur en zal weinig opleveren. Voor HPC taken is het wel een monster. Ik heb het al vaak gezegd, en ik blijf erbij. RX Vega 64 had nooit uitgebracht moeten worden. Reserveer al die chips voor HPC, en breng alleen de RX Vegs 56 uit, en gooi daar geen 1,2v tegenaan waarna die chips vrijwel meteen oververhit raken en downclocken. 8)7

Ik zou niet verbaast zijn als we weer een aantal jaar "HD38xx-HD58xx" krijgen. Geef Nvidia maar het absolute topsegment met hun dure monsterchips. Wij pakken alles daaronder en gaan volume draaien. Met Navi zou het moeten kunnen, ook qua prijs gezien de schaalbaarheidsgeruchten. Hoogste segment Navi is dan puur voor HPC, tenzij AMD echt met iets heel erg goeds komt dat Nvidia verslaat.

Aan de CPU kant denk ik dat de stagnatie van x86 meer te maken heeft met de enorme problemen die Intel heeft met nieuwe nodes, dan met echt technische barrières. Die laatste zijn ook enorm geworden, en spelen echt wel een rol, maar bij Intel speelt er meer. Ze hadden allang op 10nm moeten zitten volgens hun eigen roadmaps, en laatst waren er weer geruchten dat Cannon Lake nog een jaar uitgesteld zou gaan worden. Dan heeft AMD vrij spel om ze echt in te halen qua node met Zen 2. Zeker aangezien AMD onder Lisa Su een duidelijke strategie volgt. Ze kondigen niet meer maanden van tevoren aan wat ze gaan doen, of hoe snel het is. Nee, ze kondigen iets aan, houden bewust de prestaties geheim, en dan opeens vlak voor launch bam. ;)


AMD heeft wel wat geprobeerd met ARM, namelijk servers maken, maar liep tegen problemen aan en legde toen de focus op Epyc. Terecht lijkt me, want de vraag naar meer en krachtigere servers zal blijven bestaan. De SoC divisie is nu eigenlijk de belangrijkste geworden voor AMD, en niet consumenten. Ze zijn redelijk vergelijkbaar qua omzet met de consumenten, maar bij de SoC zit potentieel veel meer groei. Epyc, Instinct MI25, console chips, Tesla, of nu Intel. Iedereen die een custom SoC wil, en een zak met geld heeft, kan bij AMD terecht. Waren er ook nog geruchten een tijdje terug dat AMD nu ook SoC GPU chips direct aan miners levert.


Dan Raja Koduri naar Intel. VERRADER. :Y) :P (eigenlijk zit daar wel een kern van waarheid in :/ )
Nah, hij gaat werken aan Nervana, de Intel AI chip in ontwikkeling tegenover Nvidia. Daar zit geld, en dat wil Intel hebben. Ze zijn niet alleen. Nvidia gaat daar nu uitgedaagd worden door Google die al flink bezig zijn, AMD en Intel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
DaniëlWW2 schreef op donderdag 9 november 2017 @ 10:29:

Dan Raja Koduri naar Intel. VERRADER. :Y) :P (eigenlijk zit daar wel een kern van waarheid in :/ )
Nah, hij gaat werken aan Nervana, de Intel AI chip in ontwikkeling tegenover Nvidia. Daar zit geld, en dat wil Intel hebben. Ze zijn niet alleen. Nvidia gaat daar nu uitgedaagd worden door Google die al flink bezig zijn, AMD en Intel.
Tja, of navi zuigt dankzij Raja (en dan ben je hem liever kwijt dan rijk), of het zuigt niet, en dan is hij niet vreselijk nodig meer. Either way doen we er weinig aan.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

foppe-jan schreef op donderdag 9 november 2017 @ 09:22:
[...]

Ja, maar ook laptops krijgen ondertussen hogere resoluties, en mensen gaan dat ook waarderen. Daarmee stijgen de eisen wel weer (al heeft dat natuurlijk een bovengrens, maar ja, ondertussen ook genoeg tablets/smartphones met 'gestoorde' resoluties).
Ja, alleen is het de vraag of dat de doorsnee persoon die de optie wil hebben om eens casual te gamen of te renderen er iets om geeft als die dat met 1080p moet doen. Natuurlijk hebben 4k en 1440p toegevoegde waarde boven HD, vooral voor gaming (minder AA nodig), maar het verschil in beeldkwaliteit tussen 4k en 1080p is relatief klein in vergelijking met bijvoorbeeld het verschil tussen 360p en 1080p of het verschil tussen SDR en goed uitgewerkte HDR. Mensen die graag 1440p/4k hebben zijn meer fanatieke gamers die toch wel een highend discrete grafische kaart kopen. De interessante vraag is of dat de mensen die nu t/m een 580 kopen genoegen zouden nemen met die geïntegreerde graphics zo gauw 1080p, 60 FPS en hoge kwaliteit graphics haalbaar is met die geïntegreerde graphics, wat met deze CPU van Intel het geval zou moeten zijn voor de meeste huidige spellen. Ik denk dat we nog een lange tijd discrete grafische kaarten zullen blijven gebruiken voor spellen maar ik vraag me af of dat het realistisch is dat hogere segmenten t/m het middensegment (op dit moment 580 en 1060) het domein wordt van geïntegreerde graphics zoals de lage segmenten bijna verdwenen zijn van de discrete grafische kaarten. Nu gaat het nog om een highendproduct van Intel maar over een paar jaar zou het best wel eens kunnen zijn dat Intel deze graphics aanbiedt op heel het i5-segment, of misschien met 2 i5-segementen werkt, een met lowend graphics en een met 'highend' graphics.

[ Voor 7% gewijzigd door Verwijderd op 09-11-2017 12:32 ]


Acties:
  • 0 Henk 'm!
foppe-jan schreef op donderdag 9 november 2017 @ 12:22:
[...]

Tja, of navi zuigt dankzij Raja (en dan ben je hem liever kwijt dan rijk), of het zuigt niet, en dan is hij niet vreselijk nodig meer. Either way doen we er weinig aan.
Ik verwacht eigenlijk dat Navi niet veel zal veranderen qua architectuur ten opzichte van Vega. Ik verwacht dat Navi voornamelijk zal economiseren op Vega, en flink hoger zal clocken gezien de overgang naar de 7nm node van TSMC. Zou het me ook niks verbazen als de grootste configuratiechip niet uitgebracht zal worden voor gaming als deze tegenvalt in prestaties. Uiteraard er nog steeds van uitgaande dat het geen monolithische chip meer is, maar heterogeen. :)

Een moderne GPU cyclus van ontwerp naar product in de winkel is ongeveer vijf jaar. Koduri kwam in naar AMD in 2013. Fiji in 2015 (dus tape-out in 2014) kon hij helemaal niks aan veranderen. Fiji zuigt eigenlijk ook gewoon. Polaris in 2016 zijn wel enige veranderingen ter verbetering, maar met name de overstap naar 14nm van GF hielp hier enorm. Vega in 2017 heeft substantiële veranderingen die toe te schrijven zijn aan Koduri, maar is nog steeds gelimiteerd door budget, dezelfde zwakke lay-out voor gaming als Fiji, en de enorme kosten per functionele chip.

RX Vega lijkt twee problemen te hebben. Dit zijn de limitering van drawcalls door DX11 en de afhankelijkheid van een enkele CPU core. Het tweede probleem lijkt toch ROPS te zijn gezien de zwakke ROP based AA prestaties, zoals MSAA, en de sterkere shader based AA prestaties.


GCN zie ik ook niet verdwijnen. Het is simpelweg te goed in de veel taken om zomaar overboord te zetten. Wat wel moet gebeuren is elk beetje prestaties uit die chips halen, en hopen dat DX12 eindelijk doorbreekt. Veel meer kan AMD gewoon niet doen. Er lijkt nu meer geld naar de RTG te gaan, alsmede extra technisch personeel. Er zijn voor de GPU's nu ook leapfrogging teams.

Wat Navi precies zal zijn, blijft denk ik nog even een mysterie. Ik denk dat we helemaal niks over Navi gaan horen tot redelijk dichtbij de launch. Over drie maanden zou Ryzen2/Zen+/whatever er al zijn. We weten nog steeds niet hoe ze gaan heten. Op dat niveau moet je gaan denken voor Navi. We hebben tenminste al een duidelijke codenaam. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Raja die naar Intel gaat zou ook simpel te verklaren zijn a.d.h.v. de recent gesloten deal om Radeon Graphics te gaan integreren. Een fatsoenlijk mannetje die dat overziet. Hetzelfde fatsoenlijke mannetje high-end GPUs laten maken, lijkt me pretty far fucking fetched. Enfin, als het maar het nieuws haalt.

Of zijn we nog steeds allemaal even onnozel hier en geloven we het zoals we het lezen? Vergeet niet dat die in eerste instantie een half jaar verlof had genomen i.v.m. zijn gezin.

"Koduri will be taking the majority of the fourth quarter of 2017 off "to spend time with [his] family." According to the internal email that PC Perspective obtained, Koduri will begin his leave on September 25 and return sometime in December. AMD CEO Lisa Su will be taking over the captain's chair in Koduri's stead. We've asked AMD for comment and we'll update this article if we hear back." - Bron

Zijn gezin staat echt te springen nu die bij Intel een nog veel moeilijkere klus te klaren heeft.
Persoonlijk kan ik niet wachten tot nVidia van het toneel is verdwenen. Wat zullen die nVidia fanboys zuur zijn :+ Och wat waren hun producten superieur ;w

[ Voor 11% gewijzigd door madmaxnl op 09-11-2017 15:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op donderdag 9 november 2017 @ 13:06:
[...]


Ik verwacht eigenlijk dat Navi niet veel zal veranderen qua architectuur ten opzichte van Vega. Ik verwacht dat Navi voornamelijk zal economiseren op Vega
Jim (AdoredTV) riep ook al lang zoiets, Vega dient als opstap naar Navi.
Wat betreft Vega, het valt op dat het enorm van het spel en de instellingen en resolutie afhangt hoe het presteert. Los van dingen zoals Gimpworks. Zie bijvoorbeeld hoe bij Dirt4 de Vega56 @stock de 1080 Ti verslaat als je CMAA gebruikt en met 1080p speelt (hoge instellingen uiteraard), bij 1440p schuit het op in het voordeel van Nvidia en bij 4k staat de 1080 Ti weer stijf bovenaan. In het algemeen zie je dat Vega juist bij hoge resoluties best aardig presteert. Zo nu en dan blinkt Vega uit maar het is te sporadisch, dat suggereert dat het ergens een stevige bottleneck heeft, hier hebben we het al uitgebreid over gehad (MSAA). Contrasteer dit met de 580, 1060, 1070 en 1080 waarbij het behoorlijk voorspelbaar is hoe die kaarten het doen en waarbij het redelijk constant is, bij Vega is er bijna geen peil op te trekken. Ook een aanwijzing dat er een stevige bottleneck is? Ik zie het niet somber in voor Navi, zolang AMD het financieel uithoudt en er geen rare dingen gebeuren.
Wat wel moet gebeuren is elk beetje prestaties uit die chips halen, en hopen dat DX12 eindelijk doorbreekt.
Of Vulkan. Het kan toeval zijn (samplesize n = 2) maar Doom en Wolvenstein2 doen het geweldig met Vulkan en bij DX12 is het tot nu toe vooral erg teleurstellend. Het valt op dat ook Nvidia baat heeft bij Vulkan terwijl DX12 zelden goed uitpakt voor Nvidia. Dat kan natuurlijk ook zijn omdat ID wat beter met Vulkan omgaat dan dat de andere developers met DX12 omgaan. Sowieso zou het voor de gamer beter zijn als Vulkan de dominante API wordt aangezien het crossplatform is en de developers dus slechts 1 keer goed hoeven te optimaliseren (grotere kans dat dat ook gebeurt dan wanneer je moet porten).
Wat Navi precies zal zijn, blijft denk ik nog even een mysterie. Ik denk dat we helemaal niks over Navi gaan horen tot redelijk dichtbij de launch.
Dat hangt m.i. af van wat Nvidia haar strategie is. Als Nvidia Volta zou uitbrengen voordat er iets is gemeld over Navi dan heeft AMD geen reden om terughoudend te zijn. Als Nvidia wacht op AMD om de volgende zet te doen met de intentie om net voor de launch van Navi hun 1100-serie uitbrengen dan heeft AMD er belang bij om het stil te houden en een week voor de launch een grote persbijeenkomst te houden. Het lijkt er momenteel op dat Nvidia het best vindt om te wachten totdat ze meer weten over wanneer Navi komt. Waarom nu al je kaarten op tafel leggen terwijl Pascal nog goed verkoopt? Je kan Nvidia van alles kwalijk nemen maar hier hebben ze groot gelijk in.

[ Voor 37% gewijzigd door Verwijderd op 09-11-2017 16:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 9 november 2017 @ 15:00:
Persoonlijk kan ik niet wachten tot nVidia van het toneel is verdwenen. Wat zullen die nVidia fanboys zuur zijn :+ Och wat waren hun producten superieur ;w

Ik hoop niet dat ze kopje onder gaan aangezien een monopolie slecht is, ook als AMD de monopolist is - en dat Nvidia in gevaar komt is heel erg ver weg (het kan gemakkelijk nog een paar jaar duren voordat elke Intel-CPU die op gamers is gericht AMD graphics heeft) - maar ik zou het ook geweldig vinden als Nvidia een jaar of 10 een toontje lager zou moeten zingen. Just saying, dat blinde "het moet Nvidia zijn want we zijn gehersenspoeld door marketing en we roepen niet gehinderd door kennis dat Nvidia beter is in alle opzichten" werkt behoorlijk op de zenuwen maar ik zou het vooral mooi vinden omdat ik er een hekel aan heb hoe Nvidia gamers chanteerde om Nvidia-kaarten te kopen met PhysX en Gimpworks en hoe Nvidia dit bewust inzette om de performance bij de concurrent te bottlenecken. Bedenk hierbij ook dat PhysX er al was voordat Nvidia het kocht, het heette toen alleen anders en het kon in combinatie met zowel Nvidia als AMD gebruikt worden. Nvidia kocht het bedrijf met slechts 1 reden: ervoor zorgen dat PhysX niet in combinatie met een AMD-kaart zou werken.
Hoe dan ook, AMD is een kampioen in het overleven en het is een grote troef dat zij als enige bedrijf graphics en CPU goed beheersen. Dat zorgt ervoor dat hun spul in de consoles zit en dat zorgt ervoor dat Intel nu belang heeft bij het goed draaien van RTG en AMD. Hoe het kan veranderen nadat Intel AMD kapot maakte en nogg net in leven hield om gedwongen opsplitsting van Intel te voorkomen. :)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Van wat ik heb begrepen gaat Intel High-end GPUs maken ;) Dus dat monopolie komt er misschien helemaal niet.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 9 november 2017 @ 16:37:
Van wat ik heb begrepen gaat Intel High-end GPUs maken ;) Dus dat monopolie komt er misschien helemaal niet.
Met AMD-GPU's toch? Of heeft Intel de ambitie om ook echt zelf highend GPU's te gaan ontwikkelen in de toekomst. If so, geweldig, laat Intel het vooral doen. Elke nieuwe concurrent is welkom, zelfs al is het Intel wat de CPU-ontwikkeling flink heeft gestremd door met oneigenlijke middelen de concurrent uit te schakelen. Met meer concurrenten is het ook nog lastiger om developers bereid te krijgen om de performance van spellen te (laten) gimpen via fratsen zoals PhysX en Gimpworks omdat ze dan een groter deel van de markt zouden uitsluiten. Zou Samsung dit niet ooit eens kunnen gaan doen? Ze hebben al een uitstekende productiefaciliteit voor geheugen, misschien is het mogelijk om de stap naar CPU's en GPU's te zetten en met AMD een deal te sluiten m.b.t. bepaalde patenten: Samsung betaalt een bepaald bedrag hiervoor per jaar voor X jaar, AMD krijgt een leuke financiële injectie. Samsung en AMD werken al samen (crosslicensing of gewoon R&D en patenten delen voor X jaar in de toekomst) en Samsung is groot genoeg dat het in theorie aan zo'n avontuur zou kunnen beginnen.
lightdestroyer schreef op donderdag 9 november 2017 @ 07:58:
Wanneer de x86 markt nog verder zag stagneren (amper snellere cpu's, gpu's wegens geen concurrentie en nu al armzalige chipsets) zou het kunnen dat uiteindelijk de intelAMD socs het moeten afleggen tegen Apple/Quallcom/Samsung/nVidia en is AMD direct hun laatste troef kwijt hun x86 licentie.
De CPU's zitten juist weer hartstikke in de lift voor het eerst sinds 10 jaar doordat AMD het monopolie (verkregen met oneigenlijke middelen, niet met een superieure technologie) heeft doorbroken. De GPU-markt, daar mag je je enigszins zorgen om maken omdat AMD het momenteel niet kan bijbenen en Nvidia achterlover leunt.
Wat AMD nu doet is puur gericht op overleven. Het doel van deze samenwerking is simpelweg voor Intel om betere graphics krijgen en voor AMD om een groter marktaandeel te krijgen, of dat die graphics nu tot Intel of tot AMD worden gerekend. Ik denk niet dat het hun intentie is om Nvidia een hak te zetten ook al heeft Nvidia bepaald geen vrienden gemaakt bij zowel AMD als Intel (patenttrolling).
Hell hoeveel mensen betalen nu al niet elke 2 jaar het dubbele van hun laptop/pc die dan nog eens 6 jaar moet meegaan..
Met dank aan het voormalige monopolie van Intel, anders was de quadcore CPU vele jaren geleden (2009?) standaard geweest voor laptops. Los daarvan upgraden de meeste mensen onnodig vroeg hun hardware. Laten we eerlijk zijn, als je met je laptop niets anders doet dan internet, kantoorsoftware en wat multimedia dan kan je prima een laptop uit 2010 gebruiken als je die upgradet met een SSD. :)
In ieder geval word je bij laptops niet gedwongen om voortijdig je hardware weg te gooien zoals bij telefoontjes min of meer het geval is dankzij het niet langer updaten van software en het steeds belastender maken van softawre voor de hardare. W10 vs. W7, het maakt weinig verschil voor de hardware-vereisten, idem voor MSOffice van nu en vele jaren geleden. Dat soort software is niet zwaardere eisen gaan stellen. De RAM is een pijnpuntje, 8 GB RAM is tegenwoordig wel erg handig voor browsers maar niet essentieel.
AMD heeft tot nu toe in die richting nog niets gedaan, toont niet echt de wil vsn innovativiteit due je als kleine speler nodig hebt.
AMD heeft niet aan innovatie gedaan omdat ze niet met een tablet/streamtoestel kwamen?
Er zijn wel meer manieren van innoveren. :?
De Shield was een leuk idee maar is het commerciëel gezien een succes? Hoeveel procent van de mensen heeft dat tabletje gekocht? Hoe nuttig is het apparaat voor de meeste mensen? Als je naar innovatie kijkt dan heeft AMD waarschijnlijk de laatste 2 decennia meer geïnnoveerd dan Intel en zijn AMD en Nvidia behoorlijk aan elkaar gewaagd. Hooguit heeft Nvidia het zo nu en dan wat handiger aangepakt maar ja, als je 5 keer zoveel middelen hebt dan is dat natuurlijk ook veel gemakkelijker. Nvidia krijgt van mij kudos voor hun tabletje (ook al wordt het bijna niet verkocht), voor hun branchverbreding (scientific computing, auto's...) en G-Sync maar AMD heeft ook zat geïnnoveerd: 64 bit CPU's, GCN, HBM, TrueAudio, Eyefinity, Mantle/Vulkan en natuurlijk FreeSync (het mogelijk maken dat je zonder extra hardware dit krijgt, straks ook bij Intel-CPU's). ik noem nu nog maar een klein deel van hun innovaties, alleen al voor Vega kan ik er nog een paar noemen (RPM, HBCC).
Ze zijn erg aan elkaar gewaagd, ondanks dat Nvidia 5 keer zoveel te besteden heeft als AMD voor de grafische tak.

[ Voor 63% gewijzigd door Verwijderd op 09-11-2017 18:02 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

madmaxnl schreef op donderdag 9 november 2017 @ 15:00:
Raja die naar Intel gaat zou ook simpel te verklaren zijn a.d.h.v. de recent gesloten deal om Radeon Graphics te gaan integreren. Een fatsoenlijk mannetje die dat overziet. Hetzelfde fatsoenlijke mannetje high-end GPUs laten maken, lijkt me pretty far fucking fetched. Enfin, als het maar het nieuws haalt.

Of zijn we nog steeds allemaal even onnozel hier en geloven we het zoals we het lezen? Vergeet niet dat die in eerste instantie een half jaar verlof had genomen i.v.m. zijn gezin.

"Koduri will be taking the majority of the fourth quarter of 2017 off "to spend time with [his] family." According to the internal email that PC Perspective obtained, Koduri will begin his leave on September 25 and return sometime in December. AMD CEO Lisa Su will be taking over the captain's chair in Koduri's stead. We've asked AMD for comment and we'll update this article if we hear back." - Bron

Zijn gezin staat echt te springen nu die bij Intel een nog veel moeilijkere klus te klaren heeft.
Zo'n persbericht kan je meestal niet al te letterlijk nemen. Er zal vast een kern van waarheid in zitten en hij heeft ongetwijfeld meer tijd met zijn gezin doorgebracht / zal brengen in Q4.

Denk dat het een stressvolle tijd is geweest bij AMD en dat hij bij Intel in ieder geval minder constrained zal zijn qua resources.

Als hij daardoor beter in zijn vel zit zal zijn gezin ondanks hard werken er heus wel minder onder lijden.


Paar interessante achtergrondartikelen:

https://www.anandtech.com...koduri-as-chief-architect

https://www.pcper.com/rev...l-Build-Discrete-Graphics

Impressive indien op schaal (zal wel niet):
Afbeeldingslocatie: https://tweakers.net/ext/f/DdPGHOH7z9ztHTLu4zkxmp2P/full.jpg

[ Voor 10% gewijzigd door Help!!!! op 09-11-2017 18:51 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op donderdag 9 november 2017 @ 18:36:
[...]

Zo'n persbericht kan je meestal niet al te letterlijk nemen. Er zal vast een kern van waarheid in zitten en hij heeft ongetwijfeld meer tijd met zijn gezin doorgebracht / zal brengen in Q4.


Denk dat het een stressvolle tijd is geweest bij AMD en dat hij bij Intel in ieder geval minder constrained zal zijn qua resources.

Als hij daardoor beter in zijn vel zit zal zijn gezin ondanks hard werken er heus wel minder onder lijden.
Tja, Vega lijkt toch enige potentie te hebben als je naar een aantal recente titels kijkt. RX Vega 56 boven de GTX1070, en soms rond de GTX1080 is best goed. Ook zjin de verschillen tussen de RX Vega 56 en RX Vega 64 meestal wat groter dan tussen Fury en Fury X.

Koduri zijn grootste bijdrage zijn alleen de drivers. Daar is echt veel werk in gestoken. UI is goed, veel opties en functies, en ze presteren over het algemeen zeer goed. Dan komt Navi nog volgend jaar.

Koduri zijn probleem was dat hij de RTG leek te willen leiden als een dochterbedrijf van AMD. Grotendeels onafhankelijk van AMD, maar er moest wel veel geld komen voor R&D, in een markt waar marges vrij krap zijn en omzetten ook relatief klein zijn. Dat ging nooit gebeuren. Sterker nog, Koduri heeft een aantal grove fouten overzien. Fouten zoals:

-Polaris hype.
-Polaris PCI-E verbruik.
-Slechte launch drivers van Polaris.
-Zich enorm in de kaarten laten kijken waardoor Nvidia de GTX1070/80 voor een gigantisch bedrag in de markt kon zetten, wetende dat AMD niet in de buurt zou komen. Daarmee is Koduri ook verantwoordelijk voor de gigantische winsten van Nvidia vorig en dit jaar, waardoor de positie van de RTG verslechterd is.

Volgende ronde met Vega hetzelfde, maar dan nog een stap erger. De hype was nog extremer, het product was vertraagd, en dan ook nog eens verprutst door de idiote beslissing om het voltage onnodig op te krikken. De yields lijken dramatisch te zijn, de logica van de RX Vega 64 ontgaat me nog steeds. Die chips kan je voor een veelfout verkopen voor HPC taken, waardoor de RX Vega variant pure kapitaalvernietiging is. Ook snap ik niet waarom Vega 11 niet eerst is uitgebracht, ter vervanging van Polaris. Dat lijken 32 en 28CU chips te worden. Clocken die een beetje door, dan zie ik de 32CU versie nog enigszins in de buurt van de GTX1070 komen ook...

Bij Nvidia moeten ze zich echt dood hebben gelachen. Ze kregen het deze ronde gratis en voor niks van Koduri. De man zal echt wel een uitstekende technicus zijn, maar als manager is hij volledig mislukt. Ik verwachte dat hij teruggezet zou worden naar alleen hoofdontwerper van de RTG, maar nu is hij helemaal weg. Ik betwijfel of ik dit jammer vind. Het zal pas een probleem worden als Koduri talent weg gaat kopen bij de RTG...

Sympathieke man, totale nerd, maar gefaald als manager van de RTG. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Dat is mij echt te ongenuanceerd. Sowieso weten we veel te weinig van de interne afspraken, mogelijkheden en onmogelijkheden waar hij mee te maken had.

Ook weten we niet welke verwachtingen hij zelf intern gewekt heeft. Een verstandig persoon, en daar reken ik hem wel toe, managed de verwachtingen.

Denk niet dat Intel hem zou aannemen als het een prutser was.

ps:
Het lijkt erop dat de beschikbare gelden in eerste instantie vooral aangewend zijn voor de cpu tak. Dat was behoorlijk succesvol en Jim Keller is de gevierde man. Maar wat had hij voor elkaar gekregen als het omgekeerd was? We zullen het nooit weten.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op donderdag 9 november 2017 @ 19:40:
^
Dat is mij echt te ongenuanceerd. Sowieso weten we veel te weinig van de interne afspraken, mogelijkheden en onmogelijkheden waar hij mee te maken had.

Ook weten we niet welke verwachtingen hij zelf intern gewekt heeft. Een verstandig persoon, en daar reken ik hem wel toe, managed de verwachtingen.

Denk niet dat Intel hem zou aannemen als het een prutser was.

ps:
Het lijkt erop dat de beschikbare gelden in eerste instantie vooral aangewend zijn voor de cpu tak. Dat was behoorlijk succesvol en Jim Keller is de gevierde man. Maar wat had hij voor elkaar gekregen als het omgekeerd was? We zullen het nooit weten.
Mij is het niet te ongenuanceerd omdat Koduri als hoofd van de RTG, verantwoordelijk is voor Polaris en Vega. Hij is dus ook verantwoordelijk voor de marketing, de hype, en de zwakke prestaties bij launch. Dat mag hem aangerekend worden, zeker de technische aspecten, juist omdat hij beter zou moeten weten.

Ondanks het budget zijn de producten op technisch vlak behoorlijk goed. Ik zou een RX580 8GB altijd boven een GTX1060 6GB verkiezen. Idem voor de RX Vega vs de GTX1070. Sterker nog, beide gedaan. Zeker voor die tweede moest ik de chip dan zelf wel "repareren" door met voltages en clockspeeds te gaan spelen. Dat is niet acceptabel voor een consumentenchip.

[ Voor 14% gewijzigd door DaniëlWW2 op 09-11-2017 19:49 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Ik ben eigenlijk wel erg benieuwd wat al die engineers bij Nvidia nu aan het doen zijn dan. Volta wordt achtergehouden totdat AMD met iets nieuws komt, maar wat ga je al die menskracht laten doen? x86 ontwerp? Lijkt me nogal een overstap van GPU naar CPU. HPC chips ontwerpen? Zijn ze daar niet al vreselijk groot in.
De opvolger van Volta ontwerpen? Je kan toch moeilijk ontwerpen gaan verzamelen hopend op een nieuwe chip van de concurrent.
AMD heeft nog genoeg achterstand om vooruit te kunnen ontwikkelen.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op donderdag 9 november 2017 @ 19:47:
[...]

Mij is het niet te ongenuanceerd omdat Koduri als hoofd van de RTG, verantwoordelijk is voor Polaris en Vega. Hij is dus ook verantwoordelijk voor de marketing, de hype, en de zwakke prestaties bij launch. Dat mag hem aangerekend worden, zeker de technische aspecten, juist omdat hij beter zou moeten weten.

Ondanks het budget zijn de producten op technisch vlak behoorlijk goed. Ik zou een RX580 8GB altijd boven een GTX1060 6GB verkiezen. Idem voor de RX Vega vs de GTX1070. Sterker nog, beide gedaan. Zeker voor die tweede moest ik de chip dan zelf wel "repareren" door met voltages en clockspeeds te gaan spelen. Dat is niet acceptabel voor een consumentenchip.
Volgensmij spreek je je zelf nu tegen. :+

Niet om het een of ander maar je weet gewoon te weinig om die conclusie te trekken.
Moet je zelf weten natuurlijk :)

Het is ook maar helemaal de vraag of AMD niet tevreden was en hij weg moest of dat AMD tevreden was binnen de constraints en hij zelf weg is gegaan voor greener pastures...

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Het is in ieder geval duidelijk dat de afgelopen jaren Zen veel meer prioriteit kreeg dan RTG. Logisch, daar niet van, maar AMD zal hier toch ook meer in moeten investeren.

[ Voor 34% gewijzigd door Verwijderd op 09-11-2017 20:11 ]


Acties:
  • 0 Henk 'm!
Derby schreef op donderdag 9 november 2017 @ 19:59:
Ik ben eigenlijk wel erg benieuwd wat al die engineers bij Nvidia nu aan het doen zijn dan. Volta wordt achtergehouden totdat AMD met iets nieuws komt, maar wat ga je al die menskracht laten doen? x86 ontwerp? Lijkt me nogal een overstap van GPU naar CPU. HPC chips ontwerpen? Zijn ze daar niet al vreselijk groot in.
De opvolger van Volta ontwerpen? Je kan toch moeilijk ontwerpen gaan verzamelen hopend op een nieuwe chip van de concurrent.
AMD heeft nog genoeg achterstand om vooruit te kunnen ontwikkelen.
Nvidia is nu al een aantal jaar bezig om haar afhankelijkheid van de gaming markt te verminderen. In feite zet Nvidia hun gigantische winsten om in R&D voor HPC chips, maar ook ARM chips voor mobiele producten. GP100 schijnt iets van $2 a $3 miljard te hebben gekost, GV100 nog eens $3 miljard. $5 miljard voor twee chips die ze in een jaar uit hebben gebracht. Dat is een miljard dollar meer dan de gehele omzet van AMD in 2016...

Qua gaming Volta zou ik niet verbaast zijn als deze een halfjaar uitgesteld is. Ik zie Nvidia de hele lijn in rap temp uitrollen in de zomer van 2018, en hiermee Navi net voor zijn. Kunnen ze weer een klap uitdelen tenzij Navi echt enorm goed presteert, of gewoon zwaar onder de prijs gaat zitten.
Help!!!! schreef op donderdag 9 november 2017 @ 20:07:
[...]

Volgensmij spreek je je zelf nu tegen. :+
Helemaal niet. ;)
Ik maak systematisch onderscheid tussen "het bedrijf" en de technici. Kan zo het nodige respect opbrengen voor Nvidia of Intel, maar beide bedrijven worden geleid door volledige eikels. :+
Niet om het een of ander maar je weet gewoon te weinig om die conclusie te trekken.
Moet je zelf weten natuurlijk :)

Het is ook maar helemaal de vraag of AMD niet tevreden was en hij weg moest of dat AMD tevreden was binnen de constraints en hij zelf weg is gegaan voor greener pastures...
Ik trek geen conclusies waarom Koduri vertrokken is. Ik merk wel op dat onder zijn twee jaar als leidinggevende van de RTG, er veel fouten zijn gemaakt.

De ergste is en blijft RX Vega voor mij. Had alleen de RX Vega 56 uitgebracht, deze op 1000mv laten draaien en de baseclock op 1400MHz gezet. Nu hadden ze 1537MHz en 1592MHz ingesteld met 1150 en 1200mv. Dat in de driver. Officieel gecommuniceerd was het 1472MHz voor de RX Vega 56. |:(

Geen van deze drie kan je redelijkerwijs vasthouden met default voltages zonder de ventilator op standje orkaan te zetten. Sterker nog, je blijft niet eens over de 1400MHz. Met 1000mv lijkt vrijwel elke RX Vega 1400MHz stabiel te doen. Veel doen zelfs nog meer. Had je out of the box een beter product, dat niet "loud and hot" is...

Dat reken ik Koduri wel aan, want dat is jezelf in de voet schieten...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op donderdag 9 november 2017 @ 20:16:
De ergste is en blijft RX Vega voor mij. Had alleen de RX Vega 56 uitgebracht, deze 1000mv gegeven en de baseclock op 1400MHz gezet. Nu hadden ze 1537MHz en 1592MHz ingesteld met 1150 en 1200mv. Dat in de driver. Officieel gecommuniceerd was het 1472MHz voor de RX Vega 56. |:(

Geen van deze drie kan je redelijkerwijs vasthouden met default voltages zonder de ventilator op standje orkaan te zetten. Sterker nog, je blijft niet eens over de 1400MHz. Met 1000mv lijkt vrijwel elke RX Vega 1400MHz stabiel te doen. Veel doen zelfs nog meer. Had je out of the box een beter product, dat niet "loud and hot" is...
Of gewoon simpelweg fatsoenlijke open fans erop plaatsen? Hierover gesproken, kan je dat als klant niet zelf doen?
De blower koeler verwijderen en het plastic verwijderen en in plaats daarvan twee case-fans erop plaatsen.
Dat neemt niet weg dat ik het met jou eens ben dat een aanzienlijk lagere spanning en een iets lagere klokfrequentie beter zou zijn geweest, je kan altijd nog zelf overklokken.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:07
Verwijderd schreef op donderdag 9 november 2017 @ 22:59:
[...]

Of gewoon simpelweg fatsoenlijke open fans erop plaatsen? Hierover gesproken, kan je dat als klant niet zelf doen?
De blower koeler verwijderen en het plastic verwijderen en in plaats daarvan twee case-fans erop plaatsen.
Dat neemt niet weg dat ik het met jou eens ben dat een aanzienlijk lagere spanning en een iets lagere klokfrequentie beter zou zijn geweest, je kan altijd nog zelf overklokken.
Iemand die goed is in modden kan dat vast wel voor elkaar krijgen.

Maar voor een consumenten product zou dat niet mogelijk moeten zijn. Die moeten uit of the box correct functioneren op het gewenste (en beloofde) niveau zonder overlast.

Dat je dan met modden meer performance kan halen, of lagere temperaturen of minder verbruik is prima, maar als "Henk of Ingrid" een kaart kopen moet deze wel gewoon doen wat op de doos beloofd wordt zonder extreem verbruik of hitte.

AMD heeft hier gewoon in een spagaat gezeten, ze wilden kost wat kost +-1070 en +-1080 performance halen omdat ze anders het zouden moeten ontgelden in de reviews vanwege de marketing hype die ze gecreëerd hebben (o.a. Poor Volta). Nu ontgelden ze het echter in de reviews omdat ze die prestaties halen met de hoog opgeschroefde voltages en hitte door. AMD had gewoon haar marketing afdeling niet zo los moeten laten gaan en een hype laten creëren, beter hadden ze deze launch wat meer low key gehouden, het spul iets zuiniger getuned en dan misschien net onder de 1070 / 1080 gezeten hebben maar dan hadden de review mogelijk wel mee gevallen omdat ze niet vooraf zo gehyped geweest zouden zijn.

Ik denk als RTG ergens afscheid van zou moeten nemen het de marketing boys zijn die Vega zo gehyped hebben zonder (lijkt het) met de technische afdelingen af te stemmen hoe Vega exact zou gaan performen.

[ Voor 5% gewijzigd door Dennism op 10-11-2017 12:12 ]


Acties:
  • 0 Henk 'm!
Dennism schreef op vrijdag 10 november 2017 @ 12:11:
[...]


Iemand die goed is in modden kan dat vast wel voor elkaar krijgen.
Ben het al eens tegengekomen. Een AIO aan de GPU core vastmaken kan ook heel goed met Vega. Als ik het wou, dan kan het zo met minimale inzet. :)
Maar voor een consumenten product zou dat niet mogelijk moeten zijn. Die moeten uit of the box correct functioneren op het gewenste (en beloofde) niveau zonder overlast.

Dat je dan met modden meer performance kan halen, of lagere temperaturen of minder verbruik is prima, maar als "Henk of Ingrid" een kaart kopen moet deze wel gewoon doen wat op de doos beloofd wordt zonder extreem verbruik of hitte.

AMD heeft hier gewoon in een spagaat gezeten, ze wilden kost wat kost +-1070 en +-1080 performance halen omdat ze anders het zouden moeten ontgelden in de reviews vanwege de marketing hype die ze gecreëerd hebben (o.a. Poor Volta). Nu ontgelden ze het echter in de reviews omdat ze die prestaties halen met de hoog opgeschroefde voltages en hitte door. AMD had gewoon haar marketing afdeling niet zo los moeten laten gaan en een hype laten creëren, beter hadden ze deze launch wat meer low key gehouden, het spul iets zuiniger getuned en dan misschien net onder de 1070 / 1080 gezeten hebben maar dan hadden de review mogelijk wel mee gevallen omdat ze niet vooraf zo gehyped geweest zouden zijn.
Het stomme is dat ze de GTX1070 gewoon verslagen hebben ook. Had ook perfect gekund met chips die default op 1000mv lopen. De GTX1080 had je denk ik wel gehaald met 1050mv, misschien nog iets meer. Nvidia bracht de GTX1070Ti ook niet voor niks uit. Als je een RX Vega 56 kon kopen met een AIB koeler en 1000mv, voor €450-€500, dan was dat een no brainer tegenover de GTX1070. De RX Vega is sneller, en verbruikt dan ook gewoon minder. :')
Ik denk als RTG ergens afscheid van zou moeten nemen het de marketing boys zijn die Vega zo gehyped hebben zonder (lijkt het) met de technische afdelingen af te stemmen hoe Vega exact zou gaan performen.
Ik denk dat de RTG geen eigen marketing afdeling meer heeft...
Niet nadat Lisa Su de boel overnam. Wat een puinzooi was het. :N
Verder om het nog maar eens te illustreren dat er veel meer in RX Vega zit dan je bij launch zag...

Afbeeldingslocatie: https://tweakers.net/ext/f/Sw4WToB4f34s3mIC00wm8Bx5/full.jpg

https://www.computerbase....nspruchsvolle-testsequenz

Het is dat ik totaal geen interesse heb ik deze game. De prestaties zijn namelijk best wel aardig. :P
Dit ding is een absoluut DX12/Vulkan monster, en FP16 werd ook geweldig. Het lijkt er ook op dat Doom nog helemaal niet zo'n goede Vulkan implementatie was als je dit ziet. Idem voor een aantal DX12 titels.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Je vergeet wel dat Vega heel wispelturig is in wolfenstein 2.

De grafiek die een ongunstig scenario laat zien, zet de Vega onder de 1080. Terwijl de 1080 eigenlijk weinig verschil laat zien...

Acties:
  • 0 Henk 'm!

Verwijderd

Daniël, voor €400-450 was het ook wel gelukt als AMD zelf een open koeler erop had gezet. In de USA wordt de Vega56 nu verkocht voor $399. Omgezet naar € met 21% BTW erbij kom je op ongeveer €415 uit.
Ik weet niet wat er in Nederland weer eens aan de hand is (laag in de pikorde in de distributieketen? meer prijsgouging door gebrek aan concurrentie?) maar in de USA kan je die nu gewoon kopen €343 bij Newegg. We negeren dan natuurlijk wel even die 'mining'gekte want die gooide sowieso roet in het eten, nog steeds.
Dennism schreef op vrijdag 10 november 2017 @ 12:11:
AMD heeft hier gewoon in een spagaat gezeten, ze wilden kost wat kost +-1070 en +-1080 performance halen
Met de 1070 en de Vega56 heeft het niets te maken, die Vega56 haalt ook >1070 performance met hetzelfde vermogen door de spanning 0,1 V lager te zetten. Met verder ondervolten en downclocken kan je elke Vega56 GPU zo tunen dat die op 1070-performance zit zonder een hoger vermogen te halen. Het is de volle Vega waarbij het echt mis is gegaan en daar was het om de 1080 te verslaan. Mogelijk speelde mee dat AMD per se bij elk spel de 1070 wou verslaan met een duidelijk verschil voor de Vega56, als dat zo is dan was dat wellicht geen goede keuze. Sowieso ging het al mis door een blowerkoeler op de referentiekaart te plaatsen terwijl enkel referentiekaarten worden verkocht. Dat maakt het product voor veel mensen onaantrekkelijk. Ik heb ook inmiddels 2 reviewers die best sympathiek staan t.o.v. AMD het product horen afraden omwille van het lawaai van die blowerkoeler.
Of dat je het wel of niet kan modden en wat dat zou kosten (als je slechts 2 casefans nodig hebt dan praat je over pak hem beet €20) is voor de klant natuurlijk erg relevant. Dat het nist zo zou moeten is voor AMD belangrijk maar niet voor de klant, wat voor de klant telt is welke performance hij kan krijgen voor welk bedrag, waar geluid ook onder valt. Het gaat er dan om of dat het zo simpel is dast iedereen het zelf kan doen na een instructiefilmpje te hebben bekeken of dat het niet mogelijk is voor de meeste mensen. Hier is er blijkbaar niemand die ervaring heeft met het modden van de Vega56 want ik had het al eens gevraagd en het bleef stil.

Ik ben het overigens wel volstrekt met jou eens dat de marketing heeft gefaald bij Vega. De technische afdeling echter ook, die hadden de spanning wat lager moeten zetten, dan was de Vega56 nog steeds gewaagd geweest aan de 1070. Bij die 1070-kaarten waarbij de gebruiker heeft ondervolt bleek het steeds mogelijk om de performance te verbeteren terwijl de spanning daalde, echter zou een licht lagere performance bij DX11 ook geen probleem zijn gezien de superioriteit bij Vulkan en DX12 en de betere longevity. Maar ja, met die blowerkoeler wordt de kaart al veel minder aantrekkelijk.

[ Voor 24% gewijzigd door Verwijderd op 10-11-2017 15:56 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Zeara schreef op vrijdag 10 november 2017 @ 15:27:
Je vergeet wel dat Vega heel wispelturig is in wolfenstein 2.

De grafiek die een ongunstig scenario laat zien, zet de Vega onder de 1080. Terwijl de 1080 eigenlijk weinig verschil laat zien...
De vraag is dan waar die wispelturigheid door komt; de reviewers of de combinatie van de game engine, de hardware en de drivers. Het laatste zou geen probleem zijn, dat wordt wel opgelost met verfijnde drivers. het eerste zou kunnen worden verklaard doordat de ene reviewer het test met een 8700k en de andere met een Ryzen 1600X. Ik heb nog niet uitgebreid de reviews bekeken maar dit zie je sinds maart regelmatig.
Kijk bijv. maar eens naar LinusTechTips review van de 1070 Ti, zij hebben Ryzen en Intel gecombineerd met Nvidia en AMD. Hele duidelijke verschillen, o.a. bij Rise of the Tomb Raider. Bij een recente review van HardwarUnboxed (Ryzen vs. Intel, met AMD- en Nvidia-kaarten) hetzelfde beeld. Reviewers moeten echt eens ophouden met enkel met Intel of enkel met Ryzen te testen als je grafische kaarten benchmarkt. Idem als je CPU's benchmarkt, je moet dan Nvidia- en AMD-kaarten gebruiken. Het is hierbij niet altijd zo dat AMD en AMD beter samenwerkt dan AMD (GPU) en Intel maar daar waar je erg grote verschillen ziet zijn ze in het nadeel van AMD doordat er de combinatie AMD en Intel of AMD (Ryzen) en Nvidia wordt gebruikt, voor zo ver ik het heb gezien. Uiteraard is het een slecht teken voor de kwaliteit van de reviews als het betreffende medium Ryzen en Intel vergelijkt met enkel een 1080 TI, of Vega en 1070/1080 vergelijkt met enkel een Intel-CPU. Of dat dat nu komt doordat de reviewer het belang van de combinatie niet begrijpt of omdat het hem aan middelen ontbreekt om verschillende combinaties te testen.

[ Voor 12% gewijzigd door Verwijderd op 10-11-2017 15:48 ]


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Verwijderd schreef op vrijdag 10 november 2017 @ 15:45:
[...]

De vraag is dan waar die wispelturigheid door komt; de reviewers of de combinatie van de game engine,
Dit meet computerbase zelf. Ik heb het ook alleen over hun review van de game.

Uit de originele benchmark:
Die erste Testszene entspricht einem anspruchsvollen Szenario, wie es im Spiel immer wieder vorkommt. Es handelt sich um eine Sequenz inner- und außerhalb eines Gebäudes in Kombination mit diversen Partikeleffekten. Die zweite Szene ist hingegen ein Worst-Case-Szenario. In den ersten anderthalb Stunden hat es nur die eine Sequenz dieser Art gegeben. Sie ist beim Spielen in der Kennenlernphase mit Radeon RX Vega 64 allerdings sofort aufgefallen, weil die FPS deutlich niedriger lagen. Das Szenario im Freien bietet eine große Weitsicht, diverse Gebäuden und vor allem viel Schutt.
Al lijkt het probleem vooral te liggen bij het eerste 1,5 uur, daarna is het vooral dus test 1.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:07
Verwijderd schreef op vrijdag 10 november 2017 @ 15:35:


Met de 1070 en de Vega56 heeft het niets te maken, die Vega56 haalt ook >1070 performance met hetzelfde vermogen door de spanning 0,1 V lager te zetten. Met verder ondervolten en downclocken kan je elke Vega56 GPU zo tunen dat die op 1070-performance zit zonder een hoger vermogen te halen. Het is de volle Vega waarbij het echt mis is gegaan en daar was het om de 1080 te verslaan. Mogelijk speelde mee dat AMD per se bij elk spel de 1070 wou verslaan met een duidelijk verschil voor de Vega56, als dat zo is dan was dat wellicht geen goede keuze. Sowieso ging het al mis door een blowerkoeler op de referentiekaart te plaatsen terwijl enkel referentiekaarten worden verkocht. Dat maakt het product voor veel mensen onaantrekkelijk. Ik heb ook inmiddels 2 reviewers die best sympathiek staan t.o.v. AMD het product horen afraden omwille van het lawaai van die blowerkoeler.
Dat ben ik niet geheel met je eens, ook Vega 56 komt af fabriek met en te hoog voltage, dus ook daar is het gewoon niet goed. Dat je dat zelf kan corrigeren is leuk, maar het gros van de gebruikers zal daar nooit aan beginnen. Verder wel met je eens, een blowerkoeler is prima voor referentie modellen zolang er maar alternatieven beschikbaar zijn of de blowerkoeler dusdanig van kwaliteit is dat het niet uit maakt.
Ik ben het overigens wel volstrekt met jou eens dat de marketing heeft gefaald bij Vega. De technische afdeling echter ook, die hadden de spanning wat lager moeten zetten, dan was de Vega56 nog steeds gewaagd geweest aan de 1070. Bij die 1070-kaarten waarbij de gebruiker heeft ondervolt bleek het steeds mogelijk om de performance te verbeteren terwijl de spanning daalde, echter zou een licht lagere performance bij DX11 ook geen probleem zijn gezien de superioriteit bij Vulkan en DX12 en de betere longevity. Maar ja, met die blowerkoeler wordt de kaart al veel minder aantrekkelijk.
Of de technische afdeling gefaald heeft vind ik lastig om te beoordelen, het kan uiteraard zeer goed. Echter kan het ook zo zijn dat ze zich hebben moeten conformeren aan gestelde doelen vanuit management die middels bijv. marketing al gecommuniceerd waren, al dan niet in een enigzins verhulde boodschap (denk aan Poor Volta).

Laten we vooral hopen dat ze het bij de Navi launch beter doen, op zowel technisch als marketing vlak :P

Acties:
  • 0 Henk 'm!
Zeara schreef op vrijdag 10 november 2017 @ 15:27:
Je vergeet wel dat Vega heel wispelturig is in wolfenstein 2.

De grafiek die een ongunstig scenario laat zien, zet de Vega onder de 1080. Terwijl de 1080 eigenlijk weinig verschil laat zien...
Zoals je zelf al zegt is dat een periode vroeg in de game. Dat ze die verschillen testen vind ik persoonlijk zeer goed aan deze test. Daarbij moet ook opgemerkt worden dat het verschil bij het ongunstige scenario veel kleiner zijn dan voor de rest van de game, waar de RX Vega 64 gewoon gigantisch wint. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
DaniëlWW2 schreef op vrijdag 10 november 2017 @ 16:59:
[...]


Zoals je zelf al zegt is dat een periode vroeg in de game. Dat ze die verschillen testen vind ik persoonlijk zeer goed aan deze test. Daarbij moet ook opgemerkt worden dat het verschil bij het ongunstige scenario veel kleiner zijn dan voor de rest van de game, waar de RX Vega 64 gewoon gigantisch wint. :)
Ja tuurlijk. In het ongunstigste geval zit je op 1080 performance, in het gunstigste geval heb je 1080ti performance. Als de Ti het zo goed doet, dat weet ik niet.

Maar ik vind het wel apart dat er zo'n groot verschil is tussen de twee tests.

Acties:
  • 0 Henk 'm!
Zeara schreef op vrijdag 10 november 2017 @ 17:42:
[...]


Ja tuurlijk. In het ongunstigste geval zit je op 1080 performance, in het gunstigste geval heb je 1080ti performance. Als de Ti het zo goed doet, dat weet ik niet.

Maar ik vind het wel apart dat er zo'n groot verschil is tussen de twee tests.
Dat is normaal. Er zijn genoeg games waar het voorkomt, maar zelden wordt erop ingezoomd. Dat het bij RoTR gebeurde kwam door AdoredTV en de bizarre prestaties die Nvidia kaarten lieten zien. Ik merk het zelf ook vaak genoeg dat mijn RX Vega 56 bij stukken beter presteert dan een Nvidia tegenhanger, en visa versa. :)

Maar het verschil is hier bijzonder groot, en dat lijkt puur uit Vulkan en FP16 ondersteuning te komen. Zeker dat laatste kan voor enorme verschillen zorgen. Had ik deze game, dan kon ik zelf ook wel eens gaan kijken of ik overduidelijke punten zag waar een AMD of juist een Nvidia kaart voordeel zou kunnen hebben.

[ Voor 18% gewijzigd door DaniëlWW2 op 10-11-2017 17:47 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Ondertussen is het nog steeds niet opgehelderd waarom Vega het zo goed doet bij Dirt4 waarbij zelfs de Vega56 (stock!) de 1080Ti verslaat bij 1080p en hoge instellingen met CMAA. Leuk en aardig dat MSAA een bottleneck doet voelen bij Vega maar dat verklaart nog niet waarom Vega het zo goed doet bij dit spel.
Zeara schreef op vrijdag 10 november 2017 @ 16:52:
Al lijkt het probleem vooral te liggen bij het eerste 1,5 uur, daarna is het vooral dus test 1.
Duidelijk. Even afwachten totdat de drivers wat beter zijn uitgewerkt voor dit spel.
Dennism schreef op vrijdag 10 november 2017 @ 16:53:
[...]


Dat ben ik niet geheel met je eens, ook Vega 56 komt af fabriek met en te hoog voltage, dus ook daar is het gewoon niet goed. Dat je dat zelf kan corrigeren is leuk, maar het gros van de gebruikers zal daar nooit aan beginnen.
Dat is spijtig voor die gebruikers, en voor AMD als ze daardoor minder verkopen.
Verder wel met je eens, een blowerkoeler is prima voor referentie modellen zolang er maar alternatieven beschikbaar zijn of de blowerkoeler dusdanig van kwaliteit is dat het niet uit maakt.
Tja, hoe goed zo'n blowerkoeler ook is, het blijft altijd erg behelpen in vergelijking met open koelers zolang de kast waar je die in stopt niet heel erg klein is. Vanaf een bepaald vermogen (>150W?) zou je m.i. niet eens een blowerkoeler moeten overwegen voor zo'n referentiekaart. Ja, de kaart past nu in bijna elk kastje en in ITX-kastjes zal de kaart beter warmte afstaan dan met open koelers maar hoe groot is die groep gebruikers? Daar staat tegenover dat mensen die een normale maat kast hebben de kaart links laten liggen omdat ze die te lawaaierig vinden. Maar goed, als ze simpelweg twee varianten van de referentiekaart zouden maken, een kleinere met een blowerkoeler en 1 grotere met open fans dan is het probleem opgelost en is iedereen blij. Je hebt nog steeds 1 referentiekaart in dat geval, het gaat immers om de PCB en de componenten daarop. Of zouden de AIB-partners gaan klagen als AMD met twee varianten van de referentiekaart komt?

[ Voor 18% gewijzigd door Verwijderd op 10-11-2017 19:23 ]


Acties:
  • +2 Henk 'm!
Heb je hem ook weer. :P


Zit weer heel wat interessants en leerzaams in. Dingen zoals:
-Background story over de AMD strategische f*ckups.
-Waar Vega vandaan komt (Lisa Su)
-Waarom Koduri en Keller uberhaupt terugkwamen.
-Waarom GCN GPU's beter schalen met resolutie. (eigenlijk dus waarom ze slechter presteren op een lagere resolutie)

Als laatste iets wat ik leuk vind. Ik lijk van hem dus redelijk gelijk te krijgen wat er met Navi moet veranderen zodat het een algemene (GP)GPU architectuur kan zijn.

Navi moet "breed" gaan. Meer dan vier pipelines, verhouding ROP's vs shaders omhoog. Flinke chip maken, schaalbaar met IF en voor lagere clocks gaan, en compenseren met gigantische totaal oppervlakte. Efficiënt en bloedsnel. :)


Ondertussen mist Vega natuurlijk ook nog de Primitive Shaders, en belangrijker lijkt de DSRB, AMD haar implementatie van Tile Bases Rasterization nog steeds niet of nauwelijks te werken. Zeker dat laatste is belangrijk gezien de bottleneck bij rasterization, en natuurlijk de expertise van Koduri in dit veld. Het zou in theorie ook meer op moeten leveren dan het voor Maxwell deed. Het is alleen geen prioriteit. :/

[ Voor 112% gewijzigd door DaniëlWW2 op 12-11-2017 18:57 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Niet zo negatief. :p Wat hij zei is 'Andere zaken gaan echter voor, want nog meer prioriteit, gegeven omvang personeelsbestand.'
Volgende week zullen we weten of amdgpu dc/dal door Linus wordt geaccepteerd, dat zal AMD ongetwijfeld een intern feestje waard zijn if so.

[ Voor 19% gewijzigd door foppe-jan op 12-11-2017 20:06 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!
Wel negatief want de launch was gewoon slecht. Dat staat los van de omstandigheden. ;)

Oh en daar is de Sapphire RX Vega, met maar 3x8pin. :P
https://videocardz.com/73...nitro-pictured-and-tested

Nu voordat iedereen flipt, die derde 8pin zal voor extreme OC zijn. Mijn oude RX580 Nitro+ had ook een extra connector die optioneel was. :)

[ Voor 24% gewijzigd door DaniëlWW2 op 13-11-2017 16:48 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
https://www.reddit.com/r/...tremendously_bad_in_2017/

Schijnbaar is er toch één AMD GPU die het wel slechter doet, naarmate de tijd vordert, dan de Nvidia tegenhanger.

Acties:
  • 0 Henk 'm!

  • dylan111111
  • Registratie: Oktober 2013
  • Laatst online: 11:47
Paprika schreef op maandag 13 november 2017 @ 17:16:
https://www.reddit.com/r/...tremendously_bad_in_2017/

Schijnbaar is er toch één AMD GPU die het wel slechter doet, naarmate de tijd vordert, dan de Nvidia tegenhanger.
Daar wordt ook wel echt ge cherry-pickt op games wat ik zo snel zie.
Als je Fury x vs Gtx1060 zoekt op google dan zie je dat het in de meeste games stuivertje wisselen is tussen de kaarten. ( Afhankelijk van de gebruikte engine)

Acties:
  • 0 Henk 'm!
't Gaat om de 980 Ti...

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op maandag 13 november 2017 @ 16:45:
Oh en daar is de Sapphire RX Vega, met maar 3x8pin. :P
https://videocardz.com/73...nitro-pictured-and-tested

Nu voordat iedereen flipt, die derde 8pin zal voor extreme OC zijn. Mijn oude RX580 Nitro+ had ook een extra connector die optioneel was. :)
Voor lucht en waterkoeling kun je ook toe met twee maal 8 pins, aangezien je daar wel 500W door heen kan trekken. Voor LN2 of andere extreme koeling wordt toch aan de videokaart gesoldeerd, dus betere stroomvoorziening erop solderen moet ook prima kunnen. Maar aan de andere kant door de extreem lage temperaturen heb je ook betere geleiding en is de noodzaak tot meer PEG connectors ook minder hard nodig.

Het voordeel van drie maal 8 pins is dat je verplicht wordt minimaal twee PEG kabels te gebruiken. Er zijn namelijk genoeg modulaire voedingen met twee PEG connectors aan één modulaire kabel. Aan de voedingskant moet dan alles door een enkele connector en dat is in geval van deze kaart zeker niet aan te raden.

Zet je drie PEG connectors op een videokaart dan heb je dit probleem niet. Daarmee moet je namelijk twee verschillende kabels gebruiken omdat er geen voedingen zijn met drie connectors aan één kabel.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 ... 16 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.